在传统的统计学中值是用于方差分析的。
- 举个例子:
我们开发出了一种降血压的药,需要检验这个降血压药品的药效如何。我们就做了如下实验,给定不同剂量,分别是0,1,2,3,4这四个级别的剂量(0剂量表示病人服用了安慰剂),给4组病人服用,在一定时间后测量病人的血压差,在得到数据以后。我们要问,这种新药是不是有显著药效,也就是说病人的血压差是不是显著的不等于0。
剂量 | 血压差 |
---|---|
0 | |
1 | |
... | ... |
4 |
我们得到了五个总体 ,这五个总体的均值为
,我们假设是:
中至少有一个不为0
- 组间离差:
- 组内离差:
继而构造检验统计量,
,
分别是组间和组内离差,这个统计量服从
,式中
,也就是总样本数,r是总体个数。
在我们这个例子中,,
,那么这个统计量
服从分布
。当这个统计量比较大的时候,也就是超过
时,我们拒绝零假设,即认为几个
中至少有一个不为0,即认为新药有显著的改变血压。
在这个例子中,是为了检验在不同的药剂量下,血压差是不是有显著的差异。实际上,方差分析的真正目的是:在随机变量Y的不同水平下,检验某个变量X是不是有显著的变化。其实就是在说变量X和Y之间的相关性。
前面做了那么多铺垫,终于进入正题了。前面提到利用f值这个检验统计量,可以判断假设H0是否成立:f值越大,大到一定程度时,就有理由拒绝零假设,认为不同总体下的均值存在显著差异。
值越大,我们拒绝
的把握也越大,我们越有理由相信
,越有把握认为集合
与
呈现出巨大差异,也就说xi这个特征对预测类别的帮助也越大。
我们计算的 ,才是
中的
值,服从
分布,先计算
值然后转为
p-value
看到这个方法返回两个变量,是
值,
是
,这个
就是用于检验特征与变量之间相关性的,假设你给出
值(常常取0.05,0.01),如果你的
小于
,那就有把握认为,这个特征和预测变量
之间,具有相关性。比方说你取
,这就意味着你有95%(也就是
)的把握认为,这个特征和预测变量y之间存在相关性。