误差
误差的来源
在机器学习中,误差=偏差+方差(Error=Bias+Variance)。
Error反映整个模型的准确度
Bias反映模型在样本上的输出与真实值之间的误差,即模型本身的精准度
Variance反映模型每一次输出结果与模型输出期望之间的误差,即模型的稳定性
Bias的计算
估计μ:
分布对于的离散程度(方差):
Var的计算
估计:
下面这张图可以更直观地显示Bias和Variance的区别。
比较简单的model var小(受数据的影响小),var大;复杂的model var大,bias小。
简单模型拟合能力不如复杂模型,所以对一些偏差较大的值不太敏感。
简单模型是偏差比较大造成的误差,这种情况叫做欠拟合,而复杂模型是方差过大造成的误差,这种情况叫做过拟合。
过拟合和欠拟合
- 欠拟合:模型没有很好的训练训练集,偏差过大。
- 过拟合:模型在训练集上得到很小的错误,但是在测试集上得到很大的错误。
处理方式
偏差大-欠拟合:重新设计模型,加入更多的函数,或者考虑更复杂的模型。
方差大-过拟合:更多的数据(可以采用数据增强方法);正则化。
模型的选择
权衡偏差和偏差,使得总误差最好,但是公共测试集的数据往往是不可靠的,所以不要做下面这张图片的事。
交叉验证
将训练集分为训练集和验证集,根据验证集上的error选择模型。
N-折交叉验证
将训练集分为N份,在每一份上分别训练模型,最后再用全部训练数据上训练较好的模型。
梯度下降
梯度下降法
在回归问题中需要解决最优化问题,使得最小。
这里的parameters是复数,即 。需要找一组参数 ,让损失函数越小越好,可以用梯度下降法解决。
- 有里面有两个参数 ,随机选取初始值;
- 分别计算偏微分,得到梯度,根据学习率更新参数
学习率的调整
将参数改变对损失函数的影响进行可视化(右图)。
自适应学习率
随着次数的增加,通过一些因子来减少学习率
- 通常刚开始,初始点会距离最低点比较远,使用大一点的学习率
- update好几次参数之后,比较靠近最低点了,减少学习率
学习率不能是一个值通用所有特征,不同的参数需要不同的学习率
Adagrad
每个参数的学习率都把它除上之前微分的均方根。
普通的梯度下降
Adagard
: 之前参数的所有微分的均方根,对于每个参数都是不一样的。
具体的参数更新过程
对 Adagard 式子进行化简,得到
Adagard存在的矛盾?
Gradient越大的时候,分母越大,更新的步伐越小?
Adagard考虑的是Gradient的反差
计算过去Gradient的平方和
不一定gradient越大,距离loss最低点越远
最佳的步伐应该是
对于 ,就是希望再尽可能不增加过多运算的情况下模拟二次微分。
(如果计算二次微分,在实际情况中可能会增加很多的时间消耗)
随机梯度下降SGD
随机梯度下降损失函数不需要用到全部的训练数据,而是随机选取一个例子计算损失函数,并且更新梯度。
传统梯度下降
随机梯度下降
不需要对所有数据进行处理,更新速度更快。
特征缩放 Feature Scaling
对特征数量较多的时候,将不同的feature范围缩放到一致,保证这些特征具有相近的尺度(无量纲化),可以使梯度下降法更快的收敛。
Feature Scaling的方法
Min-Max Normalization(min-max标准化)
Mean normalization(mean归一化)
Standarddization(z-score标准化)
max标准化
梯度下降的理论基础
如何在小圆圈内快速找到最小值?
泰勒展开式
若在点的某个领域内有无限阶导数(即无限可微分,infinitely differentiable),有
多变量泰勒展开式
利用泰勒展开式简化
如果红色圈圈足够小,那么损失函数可以用泰勒展开式进行简化:
梯度下降的限制
微分值为0的地方,可能是局部极值或者不是极值点(可能实际上当微分值小于某一个数值就停下来了,并不是极值点)