正则化 L1 和 L2 详解

正则化是一个通用的算法和思想,所有会产生过拟合现象的算法都可以使用正则化来避免过拟合。在经验风险最小化的基础上(也就是训练误差最小化),尽可能采用简单的模型,可以有效提高泛化预测精度。如果模型过于复杂,变量值稍微有点变动,就会引起预测精度问题。正则化之所以有效,就是因为其降低了特征的权重,使得模型更为简单。

本文主要介绍 L1 和 L2 正则化:对于线性回归模型,使用 L1 正则化的模型建叫做 Lasso 回归,使用 L2 正则化的模型叫做 Ridge 回归(岭回归)。

正则化

L1 相当于为模型添加了一个先验知识:w 服从零均值拉普拉斯分布
拉普拉斯分布:f(w|\mu,b) = \frac{1}{2b}* e^{-\frac{|w-\mu|}{b}}
L2 相当于为模型添加了一个先验知识:w 服从零均值正态分布
正态分布:f(w|\mu,b) = \frac{1} {\sqrt{2\pi}\sigma}* e^{-\frac{(w-\mu)^2}{2\sigma^2}}
我们可以知道:

  • L1 正则化是权重向量 w 中各个元素的绝对值之和。L1 正则化增加了所有权重 w 参数的绝对值之和逼迫更多 w 为零,也就是变稀疏,稀疏规则的一个关键原因在于它能实现特征的自动选择。L1 正则化的引入就是为了完成特征自动选择的光荣使命,它会学习地去掉这些无用的特征,也就是把这些特征对应的权重置为 0。
  • L2 正则化是权重向量 w 中各个元素的平方和然后再求平方根。逼迫所有 w 尽可能趋向零但不为零(L2 的导数趋于零)因为在未加入 L2 正则化发生过拟合时,拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大,在某些很小的区间里,函数值的变化很剧烈,也就是某些 w 值非常大。为此,L2 正则化的加入就惩罚了权重变大的趋势。

细节理解

上面说到了 L1 正则化可以产生稀疏模型,L2 正则化可以防止过拟合。但是它们分布是如何做到的呢?

L1 正则化

假设带有 L1 正则化的损失函数:J = J_0 + \alpha\sum|w| 其中 J_0 是原始的损失函数,后面一项是 L1 正则化项,\alpha是正则化系数。可以看到 J 是带有绝对值符号的函数,所以 J 是不完全可微的。我们的认为就是要通过一些方法求出损失函数的最小值。
当我们在 J_0 后面添加 L1 正则化式,相当于对 J_0 做了一个约束。形如 J = J_0 + L 我们现在需要求出在 L 约束条件下J_0取最小值的解。为了方便理解这里我们考虑二维的情况,此时 L = |w_1| + |w_2|,如下图:

image.png

图中等高线是的等高线,黑色菱形是 L 函数的图形。图中当等高线于 L 图形首次相交的地方就是最优解。上图中与 L 在一个顶点处相交,注意到这个顶点的值是 。因为这里是二维的,可以想象在多维情况下 L 函数有更多的‘角’, 与这些角接触的概率远大于与 L 其它部位接触的概率,而在这些角上会有很多的权重等于 0 , 这也就解释了为什么 L1 正则化可以产生稀疏模型,进而可以用于特征选择。(是正则化系数,可以控制 L 图形的大小,越小,图形越大,越大,图形越小。)

L2 正则化

假设带有 L2 正则化的损失函数:J = J_0 + \alpha\sum w^2
同 L1 ,如下图:

image.png

可以看到,二维平面下 L2 正则化的函数图形是个圆,与方形相比,被磨去了棱角。因此 与 L 相交使得 和等于零的概率小了很多,当然这也是 L2 正则化不具有稀疏性的原因。

  • 下面介绍 L2 正则化可以获取更小值的参数的原因:

以线性回归为例 (下面公式中去掉了前面的系数,不影响逻辑推导)
未添加 L2 正则化之前的损失函数 :
J(w) =\sum_{i=1}^{m}(h_w(x^{(i)})-y^{(i)})^2
未添加 L2 正则化之前的 w 更新公式:w_j^{new} = w_j^{old} - \alpha\sum_{i=1}^{m}(h_{w_i} (x^{(i)})- y^{(i)})*x_j^{(i)}
添加 L2 正则化之后的损失函数:
J(w) =\sum_{i=1}^{m}(h_w(x^{(i)})-y^{(i)})^2 + \lambda w^2
添加 L2 正则化之后的 w 更新公式:
w_j^{new} = w_j^{old} - (\alpha\sum_{i=1}^{m}(h_{w_i} (x^{(i)})- y^{(i)})*x_j^{(i)} + \lambda w_j^{old})
w_j^{new} = w_j^{old}(1-\alpha*\lambda) - \alpha\sum_{i=1}^{m}(h_{w_i} (x^{(i)})- y^{(i)})*x_j^{(i)}
其中 \lambda 是正则化参数。从上式中可以看到,与未添加 L2 正则化的更新公式相比,每次一次迭代 w_j^{old} 都要先乘一个小于 1 的因子,从而使得w_j^{new} 不断减小 (其中\lambda越大,衰减的越快)。 这也正是 L2 正则化可以获得更小的参数值的原因。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,794评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,050评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,587评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,861评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,901评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,898评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,832评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,617评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,077评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,349评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,483评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,199评论 5 341
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,824评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,442评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,632评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,474评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,393评论 2 352

推荐阅读更多精彩内容