一. 线性回归
举例:以年龄和工资为参数,预测可以从银行贷款的金额。假设θ1是年龄的参数,θ2是工资的参数。通过提供的年龄和工资参数,对贷款额度进行预测。x是输入的年龄和工资值,通过线性回归来拟合平面。
可以看到,上式中存在着偏置项,它与另外两项的格式不太相符,为了便于之后的矩阵运算,我们可以将偏置项对应的x值全都设为1,这样,三项的格式就统一了,也方便于后面矩阵的计算。
二. 误差
真实值和预测值之间肯定是存在着差异的。误差如下:
误差是独立并且具有相同的分布,并且服从高斯分布。
以下式子是误差的高斯分布概率:
思考:我们的需求是提供年龄和工资的值,系统将我们可以贷款的金额预测出来。而要实现这一过程,需要地就是年龄和工资的参数值θ,这是我们要求的参数。而如何将上式与θ联系起来呢?将预测值与误差的式子(下式)左右相减代入误差的高斯分布式子中,便可以得到θ相关的式子:
将上式代入高斯分布概率式子可以得到以下式子:
三. 似然函数
得到上式后,我们就要思考我们想要获得的结果是对y值的准测估计,即预测值与真实值越接近越好,而这需要的是对参数的求解。即什么样的参数和数据组合才能更加接近真实的输出?这时,我们就想到了似然函数。似然函数,做的就是这样一类事情,通过数据样本来推导出什么样的参数能够预测出真实值。
上式即是θ参数的似然函数,由于误差是服从高斯分布的,分布在真实值的两边,那么误差的p值越大,误差就越趋近于0,即预测值与真实值的差距越小。这是我们所希望得到的结果,因此似然函数中p值的连乘当然是越大越好,即极大似然估计。
(一). 如何求解极大似然估计呢?
1. 先求对数
由于似然函数中都是连乘,很难计算,想到求对数后式子变为加法运算更加简单。
展开化简后的式子如下:
2. 我们的目标时让似然函数的值越大越好
从上式可以看出,前面一段是常数,因此只要后面一段的值越小越好。可以从后一段式子看出,除去常数值,可以简化为下式:
这个式子可以用最小二乘法来求解。
首先,将平方项的求和转换为矩阵的乘积,即矩阵的转置乘以矩阵自身,平方项即误差值。
然后将矩阵的转置展开
将两个乘式展开,
要想求式子的最小值,一般是求式子的极值点,参数为θ,因此对θ求偏导。
偏导等于0,可求出θ的值为
至此,θ这个参数的值已被求出,线性回归的式子也因此求出。这就是去求解线性回归参数的全过程。
不过,求得参数后我们需要对线性回归的效果进行评估,最常用的评估方法如下:
上式右边的分子为预测值与真实值的差距的平方和,分母为真实值与平均值的差距的平方和,所以上式评估的取值越接近于1,可以认为模型拟合效果越好。
关注公号【开发小鸽】,获取海量计算机视觉与深度学习资源,实战项目源码,最新论文下载,大厂面试经验!!!