注:说人话的统计学系列原连载于协和八微信公众号。本文为笔者的学习笔记,每篇文章标题已加入原文超链接。如侵权请告知。
01 要比较三组数据,t检验还能用吗?| 协和八
多次对同一组数据使用统计检验来否定同一个原假设,不管具体涉及的检验方法是什么,几乎都会导致假阳性升高
可以使用Bonferroni 修正
对于检验三组或以上的数据是否具有相同的平均值,有专门的统计检验武器——方差分析(英文为 ANOVA,代表 Analysis Of Variance)
为什么对于三组或以上数据的比较,方差分析会优于 t 检验?
因为 t 检验需要对两两组合进行多重检验,进而需要处理假阳性的问题,而方差分析只要通过一次检验就能验证结论。
02 ANOVA在手,多组比较不犯愁 | 协和八
总平方和(total sum of squares)可以分为组间平方和(between-group sum of squares)和组内平方和(within-group sum of squares)
总平方和大致描绘的就是每个个体的实际数据围绕它们共同性质所决定的理论平均值的波动程度。
组间平方和对应的是各组的平均值之间的差别,而组内平方和则是各数据点与自己所在组的平均值之间的差别。
组内平方和越小,组间平方和越大,组间差异越显著。
03 ANOVA的基本招式你掌握了吗?| 协和八
ANOVA 的原假设 平均值相等
备选假设 平均值不全相等
统计检验量 F等于
(组间平方和/组间自由度)/(组内平方和/组内自由度)
ANOVA 结果的时候不仅报道 p 值,也要报道自由度
ANOVA 也有与 t 检验非常相似的前提条件:
- 观察值独立,在包子的例子里面每一个包子的必须独立随机抽样
- 每一组内数据服从正态分布
- 组内方差相等,比如三位师傅做的包子虽然平均值未知但是方差得相等
如真的有一组或多组数据与其它组不同,ANOVA 结果会有很大概率是显著的。统计功效与假阳性是一个硬币的两面,往往一个特定的检验功效高了,假阳性也会比较高,而 ANOVA 却比较好的平衡了两者。
ANOVA 的缺点是检验的结果并不明确,当你的 ANOVA 结果具有统计显著性时,你并不能知道具体哪一组数据与其它组不同。为了找出具体哪一组数据不同,往往还要做事后( post-hoc )检验。
04 ANOVA 做出了显著性?事儿还没完呢!| 协和八
在ANOVA 呈现显著性之后我们需要用到「事后检验」( post-hoc test )
组间两两比较用 Tukey-Kramer检验(又叫做 Tukey HSD)
所有实验组与一个对照组比较用用 Dunnett 检验
描述来自同一正态分布的多组数据的平均值最大和最小的两组的差距,叫做学生范围分布( Studentized range distribution )
由组数,数据样本的大小,样本平均方差决定
ANOVA 的统计功效比 Tukey-Kramer 要强,所以可能先用 ANOVA 发现有显著性,但是用 Tukey-Kramer 检验却发现所有组之间都没有统计显著性
05 听说,成对t检验还有ANOVA进阶版? | 协和八
重复测量 ANOVA(repeated-measures ANOVA)
是成对样本 t 检验的延伸版
普通独立样本的 ANOVA 的逻辑,我们把数据总的变异性(总平方和)分拆为组间平方和与组内平方和,分别代表了效应和误差。效应比误差大得越多,那么效应就更显著。
然而,在重复测量的情况下,「组内」(或者更准确地说是「条件内」)平方和其实有一部分并不是误差,而是个体与个体之间本身存在的稳定差别。
06 重复测量ANOVA:你要知道的事儿都在这里啦 | 协和八
重复测量ANOVA(repeated-measures ANOVA)。它的功能和成对样本的 t 检验相似,是为了比较在同一组个体上进行多次测量(不同时间点、不同实验条件等)后,得到的平均值是否有差异。
常规的 ANOVA 中,要得到 p 值,我们要利用组间平方和与组内平方和构建这么一个 F 统计量:
n 为样本量(所有各组中数据点个数的总和),s 为组数。
重复测量 ANOVA
s 和之前一样,为分组(实验条件)数,而 m 为不同个体的数量。
重复测量 ANOVA 的条件
- 各分组或条件中的各数据点需要服从或近似服从正态分布,而且各个体互相独立
- 所有条件间来自同一个体的两两数据点之差的方差(variance)相等。这个假设有个专门的术语,称为球面性(sphericity)。
怎样才能知道球面性假设是否成立?利用 Mauchly 氏球面性检验(Mauchly’s Test of Sphericity),它是各大统计学软件在重复测量 ANOVA 功能中的默认标配。这个检验的原假设是「重复测量数据具有球面性」,因此当该检验的 p 值小于 0.05 时,我们认为数据违背了球面性假设; p 值大于 0.05 时,我们则认为球面性得到了满足。
如果数据不满足球面性,那么我们需要对 F 统计量的自由度进行修正,最常用的修正方法是 Greenhouse-Geisser 校正(Greenhouse-Geisser correction)。