线性回归

线性回归:假设噪声服从高斯分布的线性回归模型。

文中公式摘自《机器学习与模式识别》

一、线性回归模型

最简单的线性回归模就型是输入变量的线性组合:

这个模型是参数w的线性函数,同时也是输入x的线性函数,为了扩展模型的能力,将输入x替换成一组非线性基函数ϕj (x),变成下面的样子:


为了形式的简洁,定义 ϕ0(x) = 1,将上式简化:


如果选取幂函数为基函数

模型就变成了多项式函数,可以用来拟合多项式曲线。

基函数也可以被看作是从数据中提取的特征。

可以根据不同的需要选取不同得基函数,比如样条函数,高斯基函数,sigmoid基函数。

二、线性回归的目标函数

线性回归的优化有两种方式 最小化平方和误差函数和最大化负对数似然函数。

1、平方和误差函数


这个误差函数是基于欧几里得距离(L2范数)的度量,但是有些问题并不适合用欧几里得距离度量误差。其他的误差度量方式比如曼哈顿距离(L1范数),适用于城市最短行车路径问题。自然语言处理中常用的的语义相似度度量方式如余弦相似度。

2、对数似然函数

似然函数的含义是在该参数下事件发生的概率,最大化似然函数就是最大化在该参数下事件发生的概率。这里就是要最大化参数w下预测值为t的概率。

这里我们先假设回归的误差服从高斯分布


其中ϵ是⼀个零均值的⾼斯随机变量,精度(⽅差的倒数)为β。

假设每个数据点都独立地服从公式(3.8)的分布,可以得到似然函数如下:

对似然函数取对数

可以看出公式(3.12)和公式(1.2)是相同的。

从公式(3.11)可以看出最大化对数似然函数和最小化平方和误差函数是等价的,前提是噪声服从高斯分布。从公式(3.11)中可以看出来,公式(3.12)的平方和误差来自高斯分布的指数部分,如果噪声服从的是拉普拉斯分布,此时最大化似然函数等价于最小化 绝对值误差函数。

三、线性回归的优化

1、似然函数对w求梯度,并求梯度为0的根,发现是有解析解的。


但是这个解析解需要求设计矩阵的乘积及乘积的逆矩阵,计算量会比较大,在实际中并不采用这种方法优化。

2、迭代重加权最小平方(牛顿法)


和解析解一样,由于计算量太大所以实际中并不用。

3、通常采用梯度下降法进行优化


关于梯度下降法又分为批梯度下降、随机梯度下降和最小批梯度下降。其中随机梯度下降也就是所说的在线算法(顺序算法)。

四、正则化

在实际应用中由于数据不足或者模型过于复杂,很容易造成过拟合。其中一种解决办法就是正则化。正则化就是限制参数w的分布,从而限制模型的函数空间,降低模型复杂度。

下面以平方和误差函数为例,假设参数w服从高斯分布,平方和误差函数变成

正则项

也叫作L2正则化,因为形式和L2范数一致。L2正则化倾向于使参数w靠近0分布。

从贝叶斯的角度理解正则化:

最大化后验概率 MAP:p(w|t) = p(t|w)*p(w)

p(t|w)就是上面的似然函数,正则项即来自p(w)分布,这就是为什么说L2正则化服从高斯分布。

对p(w|t)取对数即可得到公式(3.27),去掉了常数项

和系数 -β

下面给出一个正则化误差函数的一般形式:


当w服从拉普拉斯分布时q=1,即L1正则化。

相关阅读:Linear Regression: A Bayesian Point of View

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容