统计学家为什么喜欢证明大样本定理?

在统计学中,渐近理论或大样本理论是评估估计量和统计检验性质的一个框架。在这个框架内,我们通常假设样本量n可能无限增长。然后在n\to\infty的极限下对估计量和检验的性质进行估计。在实践中,极限评估也被认为对大的有限样本量近似有效。

大多数统计问题始于样本量为n的数据集。渐近理论通过假设有可能继续收集额外的数据来进行,因此样本量无限增长,即n\to\infty。在这种假设下,可以获得许多有限大小样本无法获得的结果。一个例子是弱大数定律。该定律指出,对于i.i.d随机变量序列X_1,X_2,\cdots,如果从每个随机变量中提取一个值,并将前n个值的平均值计算为\overline{X}_n,那么当n\to\infty\overline{X}_n依概率上收敛于总体平均值\mathrm{E}[X_i]

我们观察估计量的渐近性的第一个原因是,我们想检查我们的估计量是否合理。我们预计,随着我们获得更多的数据,合理的估计量通常会变得更好,并且随着数据量到达整个总体,它最终会变得“完美”。当n\to\infty,我们有整个总体,所以我们应该能够知道任何感兴趣的可识别参数。如果是这样的话,这表明不一致的估计量应该被排除在外,因为它不符合基本合理性标准。如果我们有整个总体,那么我们应该能够完美地确定感兴趣的参数,所以如果估计量没有做到这一点,这表明它存在根本缺陷。还有许多其他渐近性质同样令人感兴趣,但不如一致性重要。

我们观察估计量的渐近性的另一个原因是,如果我们有大的样本量,我们通常可以使用渐近性质作为估计量的有限样本行为的近似值。例如,如果已知一个估计量是渐近正态分布的,那么只要样本量很大,我们通常会进行统计分析,使用正态分布来近似估计量的真实分布。许多统计假设检验(如卡方检验)都是建立在这个基础上的,许多置信区间也是如此。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容