元宵节到了,今天实在是懒得再多写一点了,就把线性回归里面几个比较深入的点拿出来讲一下,祝大家元宵节快乐,记得吃汤圆呀~
1. OLS中误差项 的假定
-
的期望值为 ( 的均值为)。 -
的方差在任何时点均为既定的。这一假设称为同方差()。 -
与 相互之间不相关,即假设不存在系列相关(自我相关)。 -
解释变量 与 不相关。 -
服从均值为 ,方差为 的正态分布。
如果 项的假定都成立,由 得出的估计量就是最优线性无偏估计量(),又叫做 定理。为了方便起见,可以将最优线性无偏估计理解为所有线性无偏估计中,方差最小的估计。因此能够满足 项假定的最小二乘估计所得到的参数,其精确度非常高。而且可以假定,误差项根据中心极限定理,服从第 项的正态分布。
不过实际经济现象并不能完全满足上述假定,事实上这些假定大多不能成立。
2. 异方差性(heteroscadasticity)
当回归模型误差项第 项假定不成立时,称作误差项处于异方差状态。异方差性的一个典型是,随着解释变量的值增大,误差项的离散现象也增大。有异方差性的 估计,所得到的估计值就不是最优线性无偏估计量。通常来说,利用横截面数据比利用时间序列数据,更容易出现异方差问题。
异方差性的解决方法:
- 对解释变量与被解释变量进行对数变换。
- 用加权最小二乘法(),或者最优法模型进行估计。
3. 多重共线性(multicollinearrity)
在多元回归分析中,如果解释变量之间的关系很密切,就会出现所谓的多重共线性这种棘手的问题。
多重共线性表现为:
- 尽管决定系数很高,但是 值较低;
- 存在估计出的回归系数的符号(正负)与理论不一致等问题,从而降低了多元回归模型估计结果的可靠性。
能够完全解决多重共线性问题的方法目前还没有,下面是常见的几种解决方法:
- 将相关性较高的解释变量消除几个。
- 如果数据很多的话,可以延长计算期间对回归模型进行估计。
- 如果年度数据不够理想的话,可以利用季度数据、月度数据对回归模型进行估计。
- 对解释变量和被解释变量用阶差、比率等形式进行变换,重新构建多元回归模型,进行估计。
- 试用岭回归分析()。
- 根据解释变量的主成分分析(),做出相互之间没有关系的合成变量,并以此为新的解释变量构建新的模型,进行估计。
欢迎大家一起讨论\ ^o^ /