SPSS提供了6中筛选自变量的方法,向前法(Forward)有三种,即一般统计学书上所说的逐步回归,这三种向前法选入自变量时均采用比分检验,但剔除自变量的标准不同。分别为:条件参数估计似然比检验(向前:条件)、最大偏似然估计的似然比检验(向前:LR)、Wald卡方检验(向前:Wald)。向后法(Backward)也有三种,分别采用上述3种方法之一进行变量的剔除。
筛选自变量的方法:
- 条件参数估计似然比检验(向前:条件)
- 最大偏似然估计的似然比检验(向前:LR)
- Wald卡方检验(向前:Wald)
- 条件参数估计似然比检验(向后:条件)
- 最大偏似然估计的似然比检验(向后:LR)
- Wald卡方检验(向后:Wald)
值得注意的地方:
(1)基于条件参数估计和最大偏似然估计的筛选方法都比较可靠,尤以后者为佳。但基于Walds统计量的检验则不然,它实际上未考虑各因素的综合作用,当因素间存在共线性时,结果不可靠,故应当慎用。参数的可信区间也是基于Walds统计量计算的,故也慎用。
(2)还需要注意的是,逐步回归所获得的结果是保证此时获得的模型最大似然函数值最大,但并不能保证此时的模型其预测精度最高。最终模型的选择仍需要获得专业理论的支持。
(3)事实上,在统计之上,另一个更重要的准则是专业意义,比如种族、吸烟在统计学上没有意义,但如果在专业上认为种族、吸烟确实有作用,也可以将其强行纳入模型。也就是说,判断一个变量是否可纳入模型的标准由弱至强依次应当是:单自变量分析、多自变量分析、专业判断。