数学基础-均值估计

在我最近研究的stochastic bandit问题中,假设每个arm得到的reward是服从一个特定的分布,最后需要研究的regret函数与分布的均值相关,因此如何从目前得到的reward信息来估计真实的均值在这个研究中是一个很基本的问题。具体可以参见我之前的一篇文章[机器学习-bandit问题简介]。当然普遍来讲,对于均值的准确有效估计是一个很基本的问题,在各种stochastic问题中都有它的身影。

在本篇文章中,我们主要考虑n个独立同分布的随机变量的值与实际的均值µ之间的关系。

收敛性

首先是最著名的[中心极限定理, wikipedia]和[大数定律, wikipedia],它们奠定了统计估计的基础。

中心极限定理, wikipedia
弱大数定律, wikipedia
强大数定律, wikipedia

这三个定理非常著名,本科的概率论课程都会讲到,它们奠定了了样本均值最终会收敛到实际均值的理论基础,有了这样的理论保证,我们才可以用足够多次的重复实验来估计实际均值。但是这三个定理更多地停留在理论层面上,并没有提到在“多少次”的重复之后,样本均值可以“在什么程度上”逼近实际均值,对我们的实际应用并不能产生具体的指导意义。

估计的界

law of the iterated logarithm, wikipedia

在这个[重对数定律, wikipedia]的叙述中,要求随机变量的均值为0,方差为1,但根据中心极限定理,可以很容易地将此定理拓展到一般的情况。从大数定律中我们得到Sn/n几乎处处收敛为0,依概率收敛为0,即Sn的界为o(n),而这个定理告诉我们Sn的阶比√n要大,即Sn/√n不收敛到0。

Markov's inequality, wikipedia

这个就是著名的[Markov不等式, wikipedia],它如此著名是因为定理本身对随机变量没有太多的要求,但又可以得到一个基本的估计,简单地说,它如此著名就是因为它好用。但是在定理中要求随机变量是正的,拓展到一般情况,有它的一个著名推论[Chebyshev不等式, wikipedia]。

Chebyshev‘s inequality, wikipedia

这三个定理在一定程度上都可以用来刻画样本均值和实际均值差的界限。但是第一个定理和收敛性中的讨论一样,同样没有告诉我们收敛程度和次数n之间的关系。而切比雪夫不等式的使用中涉及到方差,但是很多时候我们是没有方差的信息的,而且切比雪夫不等式给出的界略粗糙,有时候应用乏力。

Chernoff-Hoeffding Bound

Chernoff-Hoeffding Bound, wikipedia

其中最后的结果交换样本均值与实际均值的顺序也成立。之所以用这个定理[wikipedia]做标题实在是因为它太好用了,在几乎所有stochastic bandit regret的估计中都能见到它的身影。原因就在于它不需要方差的信息,而且收敛的程度可以用n显式表达,唯一的限制就是随机变量的值是有界的,而在bandit问题中无界的reward是无法考虑的,所以自然满足。

当分布满足一些额外的条件时,例如sub-Gaussion,可以由凸分析得到一些其他的估计,这些下次再谈。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 2017年考研数学一大纲原文 考试科目:高等数学、线性代数、概率论与数理统计 考试形式和试卷结构 一、试卷满分及考...
    SheBang_阅读 660评论 0 7
  • 考试形式和试卷结构一、试卷满分及考试时间 试卷满分为150分,考试时间为180分钟 二、答题方式 答题方式为闭卷、...
    幻无名阅读 793评论 0 3
  • 作为前数学专业毕业生,学过的概率统计知识已经忘记得差不多了,对于统计学的概念能清楚记得的也只有方差,标准差和均值了...
    Endzzz阅读 19,259评论 2 140
  • 迷茫,拖拉,毫无目的;贪玩,懒惰,放纵自我。这似乎成了大多数年轻人的共性,可是,你的未来怎么办? 我们也许不是富二...
    三分先生6阅读 950评论 0 0
  • Markdown简介 Markdown 是一种轻量级标记语言,它允许人们使用易读易写的纯文本格式编写文档,然后转换...
    ruifeng阅读 296评论 0 0