首先,我们来看一看在统计学中线性回归的官方解释(出自维基百科)。在统计学中,线性回归(英语:linear regression)是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归(multivariable linear regression)。
个人理解:在机器学习中线性回归的应用可理解为利用已知的数据通过线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析后,然后通过将特定数据代入到建立的模型中去预测从出某个值。
下面我们通过一个例子来理解线性回归在机器学习中的应用。
假设现在有一个人要去银行贷款,那么银行会贷给这个人的最高金额是多少呢?
每个人都是不一样的,并且会有各种各样的特征,而在此问题中只有一些特征才会对他所能够贷款的最高金额产生影响。例如,此人的工资,此人的年龄等等。此时我们简化一下问题,只考虑工资x1和年龄x2两个特征会对贷款金额造成影响(特征)
目的:即为预测出银行贷给此人的最高金额。(标签)
考虑:此人的工资和年龄特征会给银行贷款的最高金额产生多少影响呢?(参数)
现在我们对此问题进行一个分析
假设θ1是工资的参数,θ2是年龄的参数。
我们此时可以想象一个三维坐标系,X1和X2分别代表两个特征,Y代表贷款金额,那么我们所拟合的平面方程为:
此时的
此时我们可以设为,那么我们可以得到
同时,设真实值
代表第i个样本(人),代表第i个预测值与真实值之间的误差。
误差
在机器学习中,我们通常会默认每个样本是独立同分布的,且服从均值为0,方差为的高斯分布
那么误差的概率密度函数为
又因为
所以代入得概率密度函数可得
似然函数
此时我们需要求出为多少时最准确,求出θ后我们也就可以得到该银行贷款给每个人的函数方程
为了更好地对此方程进行一个求解通常会对此方程取对数,即
目标函数
此时我们容易看出为常数,所以当越小时,此时地预测的值越准确,那么我们可以得到目标函数为
(这就是最小二乘法的来由)
通常J(θ)对θ求偏导等于0时J(θ)能够得到最小值
矩阵的求导:
则:
和
通过计算得到最后求得
所以可得
最常用的评估项
当越接近1越好,证明误差越小,预测的越准确。