(1)过度拟合问题
由于选取数据集时会出现“过拟合”现象,因此出现正则化用于改善或减少上述问题。如果发现过拟合问题,处理方法如下:
a. 丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(例如 PCA)
b. 正则化。 保留所有的特征,但是减少参数的大小(magnitude)。
(2)代价函数
假如有非常多的特征,我们并不知道其中哪些特征我们要惩罚,我们将对所有的特征进行惩罚,并且让代价函数最优化的软件来选择这些惩罚的程度
𝜆为正则化参数
注:根据惯例,我们不对𝜃0 进行惩罚。
如果选择的正则化参数λ过大,则会把所有的参数都最小化了,导致模型变成ℎ𝜃(𝑥) =𝜃0,也就是上图中红色直线所示的情况,造成欠拟合。
如果令 𝜆 的值很大的话,为了使Cost Function尽可能的小,所有的𝜃的值(不包括𝜃0)都会在一定程度上减小。例如𝜆太大了,则所有的𝜃(除𝜃0)趋近于0,得到的假设函数图像为一条平行于X轴的直线。
(3)正则化的线性回归(Regularized Linear Regression)
正则化线性回归的代价函数为:
梯度下降法:
对上面的算法中𝑗 =1,2, .. . ,𝑛时的更新式子进行调整可得:
可看出,正则化线性回归的梯度下降算法的变化在于,每次都在原有算法更新规则的基础上令𝜃值减少了一个额外的值。
正规方程求解正规化线性回归模型:
(n+1)*(n+1)
(4)正规化的逻辑回归模型(Regularized Logistic Regression)
正则化的逻辑回归模型的代价函数
注:看上去同线性回归一样,但是知道ℎ𝜃(𝑥) = 𝑔(𝜃𝑇𝑋),所以与线性回归不同。
注意:
1. 虽然正则化的逻辑回归中的梯度下降和正则化的线性回归中的表达式看起来一样,但由于两者的ℎ𝜃(𝑥)不同所以还是有很大差别。
2. 𝜃0不参与其中的任何一个正则化。