240 发简信
IP属地:北京
  • ubuntu20.10

    1,虚拟机安装Ubuntu20.10 磁盘选项选择nvme, 开机会更快 2, 更换清华源sudo cp /etc/apt/source.list /etc/apt/sour...

  • 贝叶斯分类器

    贝叶斯决策轮:   对分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。  假设有N种可能的类别标记,即,是将一...

  • 拉格朗日对偶

    Lagrange优化问题:   标准形式的优化问题(原问题):      其中,自变量。设问题的定义域是非空集合,优化问题的最优值为。则问题的Lagrange函数:  其...

  • 梯度下降算法(gradient descent)

    原理:   每次按照下降的方向进行计算,属于贪心的算法。 算法(就最小二乘法讨论):   若训练集:  训练函数:  参数向量:  损失函数:  梯度:      gradi...

  • 神经网络

    神经元模型:   ,其中为权值,为阈值通过激活函数处理产生的输出(或)。 感知机:   感知机由两层神经元组成,输入层和输出层,感知机只有一层功能神经元,学习能力有限,只能学...

  • 信息论

    信息熵   熵是接收的每条消息中包含的信息的平均量,被称为信息熵、信源熵、平均自信息量,为不确定性的量度。简而言之,越是确定的事,信息熵小,而越不确定的事信息熵越大。  随机...

  • 决策树

    基本流程:   略 划分选择:   “信息熵”是度量样本集合纯度最常用的一项指标    “信息增益”是度量某个属性对划分的增益    表示该属性的权重值 剪枝处理:   剪枝...

  • 无用之道:没有只做一件事能做成的事

    关于别的 本来想写完上周写的诗人张稹的故事,但上周提笔的时候可以说是神情恍惚,胡写一气。本周就不接着上周的内容写了,写点其他的,写一些无用的东西。至于张稹的故事,我打算还是在...

  • 快更😱

    线性模型

    基本形式:   一般形式:  向量形式: 线性回归: 最小二乘法:   最小二乘法就是试图找到一条直线,使所有样本到直线的欧式距离只和最小,求解和使          最小化...

  • 误差与评估方法

    机器学习误差: 训练误差或者经验误差:学习器在训练集上的误差 泛化误差:在新样本上的误差 评估方法: 留出法:直接将数据集分为互斥的集合,一个作为训练集一个作为测...

  • 线性模型

    基本形式:   一般形式:  向量形式: 线性回归: 最小二乘法:   最小二乘法就是试图找到一条直线,使所有样本到直线的欧式距离只和最小,求解和使          最小化...

  • 多分类学习

      多分类学习的基本思路是“拆解法”,即将多分类任务拆为若干个二分类任务求解。最经典的拆分策略有三种:  “一对一”(OvO):将N个类别两两配对,两个其中一个作为正例,另一...

  • 类别不平衡问题

      若训练样例数正例和反例的差别很大,则会对学习过程造成困扰。例如998个反例,2个正例,那么学习方法只需永远将测试新样本设为反例,那么就会99.8%的精度,但是这样是没有价...

  • 《肖申克的救赎》是孤独的修炼

    有幸在简书上看到一篇文章——读博就是一次肖申克的救赎,陷于迷茫的读研学习起步的我对于《肖申克的救赎》这个书名格外好奇,因为我也同样需要救赎,同样也只有我自己才能救得了我自...

  • 写得真特么好😊

    为了纪念我有赞了

    今天打开简书发现我收获了我漫长简书写作生涯的第一个赞。为了纪念我有赞了,我决定再写一篇文章。 文章就讲讲今天发生了什么事情好了。 今天我去陪我对象了。我对象是一个女研究生,在...

  • 为了纪念我有赞了

    今天打开简书发现我收获了我漫长简书写作生涯的第一个赞。为了纪念我有赞了,我决定再写一篇文章。 文章就讲讲今天发生了什么事情好了。 今天我去陪我对象了。我对象是一个女研究生,在...