机器学习01-线性回归

概率问题有两大学派,一个是频率派,另一个是贝叶斯派。

频率派的是统计机器学习方法,本质是优化问题,流程可以简化为1.设计模型 2.定义loss function 3.使用算法求解优化问题(例如梯度下降法)。

而贝叶斯学派的机器学习,本质是积分问题(可用Monte Carlo Method求解),概率图模型。


线性回归

首先来讲频率派统计机器学习方法的基础,线性回归。

假设数据集 D = \{{(x_1,y_1),(x_2,y_2),...,(x_n,y_n)}\}x_i是列向量,维度为p, 定义X = (x_1 x_2 ... x_n)^T

首先从大家耳熟能详的最小二乘法出发,定义损失函数MSEL(w) = \sum_{i=1}^n||w^Tx_i-y_i||^2 = (w^TX^T-Y^T)(Xw-Y) = w^TX^TXw - 2w^TX^TY+Y^TY

求解\hat w = argminL(w)

\frac{\partial L(w)}{\partial w} = 2X^TXw-2X^TY = 0

w = (X^TX)^{-1}X^TY

这里可能会有求逆不存在的问题,这个我们稍后再讨论。另外可以用梯度下降法求解这个最优化问题,这边先不涉及。


现在我们换一个角度看问题,从概率的角度看,假设 \varepsilon  \sim N(0,\sigma^2)y = f(w) + \epsilon

所以 y|x;w \sim N(w^Tx,\sigma^2)

极大似然估计MLE: L(w) = logP(Y|X;w) = log\prod_{i=1}^n P(y_i|x_i;w)=\sum_{i=1}^nlog P(y_i|x_i;w)

= \sum_{i=1}^n(log\frac{1}{\sqrt{2\pi}\sigma} + logexp(-\frac{(y_i -w^Tx_i)^2}{2\sigma ^2}) ) = \sum_{i=1}^n(log\frac{1}{\sqrt{2\pi}\sigma} - \frac{1}{2\sigma^2}(y_i - w^Tx_i)^2)

第一项是定值, 所以 \hat w = argmaxL(w) = argmax\sum_{i=1}^n -\frac{1}{2\sigma^2}(y_i - w^Tx_i)^2 = argmin\sum_{i=1}^n(y_i - w^Tx_i)^2

可以发现最小二乘法等价于噪音为高斯分布的极大似然估计。


实际使用时候,如果样本容量没有远远大于样本的特征维度,很可能造成过拟合,另外我们之前留了个坑,就是求逆不一定存在。

针对过拟合,有几种选择的方式,

(1)增加数据,数据量越多肯定可以学到更好的模型,但有时候这个并不容易实现

(2)降维,把特征维度降下来,例如特征选择或者特征提取, 这一部分内容以后再涉及

(3)加入正则化。这是我们目前主要要讨论的内容

正则化,就是给模型的参数加入惩罚,一定程度可以起到降低模型复杂度的作用。这个时候,损失函数变成了 L(w) + \lambda * penalty(w)

正则化常用的是

L1:J(w)  = L(w) + \lambda ||w||

L2:J(w)  = L(w) + \lambda ||w||^2

我们拿L2为例,损失函数可以写成J(w)  = L(w) + \lambda w^Tw = w^TX^TXw - 2w^TX^TY+Y^TY + \lambda w^Tw

= w^T(X^TX +\lambda I)w - 2w^TX^TY +Y^TY

\hat w = argminJ(w)

\frac{\partial J(w)}{\partial w} = 2(X^TX + \lambda I)w - 2X^TY = 0

w = (X^TX + \lambda I)^{-1}X^TY

由于X^TX是一个半正定矩阵, \lambda I是对角矩阵, 可以发现括号内的矩阵一定可逆了。


同理,我们从概率的角度来看这个问题, 同样假设\varepsilon  \sim N(0,\sigma^2), y|x;w \sim N(w^Tx,\sigma^2)

这时候,我们再给w一个先验, w \sim N(0,\sigma_0^2)

所以 p(y|w) = \frac{1}{\sqrt{2\pi}\sigma}exp(\frac{-(y-w^Tx)^2}{2\sigma^2})p(w) = \frac{1}{\sqrt{2\pi}\sigma_0}exp(\frac{-||w||^2}{2\sigma_0^2})

由贝叶斯公式,可以推出p(w|y) = \frac{p(y|w)p(w)}{p(y)}

现在我们的目标是最大后验概率MAP,\hat w = argmaxlog[p(y|w)p(w)] = argmax(\sum_{i=1}^n-\frac{(y_i-w^Tx_i)^2}{2\sigma^2} - \frac{||w||^2}{2\sigma_0^2})

= argmin(\sum_{i=1}^n\frac{(y_i-w^Tx_i)^2}{2\sigma^2} +\frac{||w||^2}{2\sigma_0^2})  = argmin(\sum_{i=1}^n(y_i-w^Tx_i)^2 +\frac{\sigma^2}{\sigma_0^2}||w||^2)

可以发现第一项就是 loss function, 第二项 \frac{\sigma^2}{\sigma_0^2} 就是 \lambda, 也就是正则化系数。

所以我们又可以得出结论, 加入正则化的最小二乘法,等价于噪音为高斯,先验概率也是高斯的最大后验估计。


最后做一个总结,

最小二乘法等价于噪音为高斯分布的极大似然估计。

加入正则化的最小二乘法,等价于噪音为高斯,先验概率也是高斯的最大后验估计。

下一节开始,会开始涉及分类问题, 会发现最基本的线性回归模型其实是很多模型的基础。

转发请注明,谢谢。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,193评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,306评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,130评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,110评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,118评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,085评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,007评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,844评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,283评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,508评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,667评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,395评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,985评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,630评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,797评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,653评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,553评论 2 352