线性回归,多么熟悉的名字,我一开始真的以为就选变量回归,看显著性得出结论就好,我真的没想到线性回归要求这么多......
在线性回归的开始应该先总结一下假设检验,但我觉得可能百度更好一点。在这里说一下分类:T检验,Z检验 ,F检验,卡方检验
再说一下模型结果里面包括的成分:
- estimators(可以适用均值,方差)
- p值(自己定显著度alpha)什么都不懂的我都会用p值看哪个显著哪个不显著....有时候p值不一定够,sample size增加p也增加,此时发生第一类error。所以得有点东西和p值一起看,例如CI(confidence interval), Bayes factor......
- 置信区间(CI)因为p值可以判断显著性,却无法判断组间差异,特别是在逻辑回归中一定要多考虑CI与p值的关系
进入正题,线性回归
介绍三个概念:
- Heteroscadasticity(异方差性):若随机误差项ε 的方差非常数,则随机误差项有异方差性。此时我们需要考虑是否遗漏了解释变量,是否将非线性的关系强价为了线性,样本数据间是否存在误差。
- Multicollinearity(多重共线性):即X之间存在线性关系。在R中用vif去检验,越接近1存在多重共线性的可能越小,大于5有可能寻在多重共线性,大于10寻在多重共线性可能性极高。所以在选择解释变量的时候要仔细考虑。
- Homogeneity(内生性): 内生性是在线性回归中不想看到的事情。内生性的根源有四点。1⃣️X与Y之间互为因果,x变动y也变动,y变动同时对x产生影响,永无止境...2⃣️X变化对X以外的因素也改变(这些因素未纳入解释变量而存在于ε中),同时这些其他因素也在影响着Y。线性回归要求X严格外生,要防止内生性的产生。但是现在我判断内生性的就是好好看自己的数据。
我们都知道线性回归适用最小二乘法回归使得预测值与观察值的区别最小,但是最小二乘法使用时有一些条件:
- ε满足独立同分布,均值为零,方差不变(即不出现异方差性)的正态分布(正态分布可以忽略)四个条件
p.s 当 Cov[εi,εj] = 0 则误差项满足统计独立条件 - 严格外生
- 解释变量(X)与预测变量(Y)符合正态分布
我们做线性回归的时候最好满足这些条件
R里面一般是怎么检查这些条件的呢?
-
Residuals and fitted
我们希望在这张图上看到,红线表现出无线性(non-linear trend)并且与虚线相接近,同时residual随机散布在线两侧。若红线呈现出二次函数线性,则证明我们的回归函数中需要一个二次项调整。 若出现下图
Normal Q-Q
检验样本与样本期望的正态性对比,两分布若相似,点就会分布在虚线(diagonal line)上,此时ε满足正态性假设
3.Scale-location
这个图也是用来验证同方差性假设的。若点沿线随机分布在两侧以及前后则满足不变方差假设。
- Residual and Leverage
这个图主要是看outliers,想要进一步研究outliers可以使用cook‘s distance
5.方差分析
检查方差的内生性可以使用bartlett test, levene test, fingner-killeen test, brown-forsyth test.
- 相关系数检验
相关系数检验可以让我们在选择解释变量时剃掉与y不相关的x,在线性回归中我们常用person collrelation coefficient
线性回归结果解释
要看模型拟合的好不好,大家都知道看R-square, 越大越好。当选择的解释变量数量有变是看adjusted r-square, 若增加解释变量数目但不会改善模型效果的项会增加惩罚项。
依旧,最后放代码
LRM3 <- lm(TTime ~ Age + AgeSq + NumVeh + LOB , data = LM_data3)
#show results plots in 2*2 format
par(mfrow=c(2,2))
plot(LRM3)
summary(LRM3)
# show confidence intervals of variables
confint(LRM3)
# Calculates the variation inflation factors of all predictors in regression models
vif(LRM3)