一、一元回归模型
- 一元线性回归是描述两个变量之间统计关系最简单的回归模型。
1. 模型的实际背景
- 在实际问题研究中,经常需要研究某一现象欲影响它的某一最主要因素的关系。
- 非确定线性关系:两个变量之间有密切关系,但它们之间密切的程度达不到一个变量唯一确定另一个变量。
2. 数学形式
- x的变化引起y的线性变化,即
。
- 其它的一切随机因素为
。
- y为被解释变量(因变量)
- x为解释变量(自变量)
和
是未知参数,
为回归常数,
为回归系数。
- 通常假定
满足:
表示数学期望
表示方差
- 回归方程:
,从平均意义上表达了变量y与x的统计规律性。
- 回归分析的主要任务就是通过n组样本观测值
对
,
进行估计,一般用
,
表示估计值。
- 一元线性经验回归方程:
表示经验回归直线在纵轴上的截距,如果
只是作为回归方程中的分开项,没有具体意义。
表示经验回归直线的斜率,在实际应用中表示自变量x每增加一个单位时,因变量y的平均增加数量。
- 实际中,为了方便对参数做区间估计和假设检验,假定误差项
服从正态分布,即
。
二、参数
的估计
1. 普通最小二乘估计
- 为了由样本数据得到回归参数
和
的理想估计值,通常使用普通最小二乘估计(ordinary least estimation, OLSE)。
- 最小二乘法就是寻找参数
的估计值
。
- 对每一个样本观测值
,最小二乘法考虑观测值
,与其回归值
的离差越小越好。
- 离差平方和达到极小,满足:
- 求出的
称为回归参数
的最小二乘估计。
为
的回归拟合值。
为
的残差。
- 从几何关系上看,用一段线性回归方程拟合n个样本观测点,要求回归直线
位于这n个样本点中间,或者说n个样本点最靠近这条回归直线。
- 残差平方和
从整体上刻画了n个样本观测点到回归直线
距离的长短。
- 从物理学角度看,回归直线通过样本的重心。
- 为了确定回归直线就是使它与所有样本数据点都比较靠近,为了刻画这种靠近程度,人们曾设想用绝对残差和,即
来度量观测值与回归直线的接近程度,但是绝对残差在数学处理上比较麻烦,所以在经典的回归分析中,都用残差平方和方式来描述因变量观测值与回归直线的偏离程度。
2. 最大似然估计
- 最大似然估计(maximum likelihood estimation, MLE)是利用总体的分布密度或概率分布的表达式及样本所提供的信息求未知参数估计量的一种方法,也可以作为回归参数的估计方法。
- 比如已知事件A发生的概率p只可能是0.01或0.1,若在一次实验中时间A发生了,自然应当认为事件A发生的概率p是0.1,而不是0.01。把这种考虑问题的方法一般化,就得到最大似然准则。
- 对连续型随机变量,似然函数就是样本的联合分布密度函数;对离散型随机变量,似然函数就是样本的联合概率函数。
- 一元线性回归模型参数的最大似然估计,如果已经得到样本观测值
,其中
为非随机变量,
为随机样本,假设
时,
服从正态分布
![]()
的分部密度为
![]()
似然函数为:
![]()
的有偏估计值:
![]()
的无偏估计值:
![]()
三、 最小二乘估计的性质
1. 线性
- 线性指的是估计量
为随机变量y的线性函数。
- 因为
为随机变量,所以作为
的线性组合
也是随机变量,各有其概率分布、均值、方差、标准差及两者的协方差。
2. 无偏性
- 无偏估计的意义是,如果屡次变更数据,反复求
的估计值,则这两个估计量没有高估或低估的系统趋向,他们的平均值将趋于
。
- 这表明回归值
是E(y)的无偏估计,也说明
与真实值y的平均值是相同的。
3.
的方差
- 一个估计量是无偏的,只揭示了估计量优良性的一个方面,通常还应关心估计量本身的波动状况,所以需要进一步研究它的方差。
反映了
的波动,即差异度。
-
不仅与随机误差的方差
有关,而且与自变量x的取值离散程度有关。如果x的取值比较分散,即x的波动较大,则
的波动就小,比较稳定。
- 可见回归常数
的方差不仅与随机误差的方差
和自变量x的取值离散程度有关,而且同样本数据的个数n有关。
- n越大
越小
- 所以要使
的估计值
更稳定,在收集数据时,就应该考虑x的取值尽可能分散一些,样本量也应该尽可能大一些。
- 由于
服从正态分布,有
的协方差:
,说明
时,
不相关,在正态假定下独立;在
时不独立。
- 根据高斯-马尔科夫条件可以证明,
分别是
的最佳线性无偏估计(beat linear unbiased estimator,BLUE),也称为最小方差线性无偏估计。
- 对固定的
来讲
也是
的线性组合,且
。
- 可见
的无偏估计
- 且
的方差随给定的
值与
的距离
的增大而增大。
- 说明在实际应用回归方程进行控制和预测时,给定的
值不能偏离样本均值太多,否则无论用回归方程做因素分析还是预测效果都不会理想。