无标题文章

本文主要摘抄整理自Rickjin的《LDA数学八卦》

统计模拟中一个很重要的问题就是给定一个概率分布$p(x)$,我们如何在计算机中生成它的样本。一般而言,均匀分布$$Uniform(0,1)$$的样本是相对容易生成的:我们可以通过随机数生成器生成伪随机数序列,作为平均分布的样本。一些常见的概率分布,可以基于$$Uniform(0,1)$$的样本生成,比如正态分布可以通过著名的Box-Muller变化得到Box-Muller变换如果随机变量$$U_1,U_2$$独立且$$U_1,U_2~Uniform[0,1]$$,令$$Z_0=\sqrt{-2ln U_1}cos(2\pi U_2)$$

$$Z_1=\sqrt{-2ln U_1}sin(2\pi U_2)$$则$$Z_0,Z_1$$独立且服从标准正态分布。其它几个著名的连续分布包括指数分布、Gamma分布、t分布、F分布、Beta分布、Dirichlet分布等等,也都可以通过类似的数学变换得到。但是,我们并不总是那么幸运,有的时候p(x)的形式十分复杂,或者是个高维分布的时候,样本的生成就十分困难了,此时就需要用到我们下面介绍的MCMC(Markov Chain Monte Carlo)和Gibbs采样算法了。而要了解这两个算法,我们需要对马氏链的平稳分布有所认识。##马氏链及其平稳分布马尔科夫链是随机变量$$X_1,X_2,X_3,...$$的一个数列,在这个数列中$$X_{n+ 1}$$的分布仅跟$$X_n$$有关,即$$P(X_{n+1}=x|X_1=x_1,X_2=x_2,...,X_n=x_n) = P(X_{n+1}=x|X_n=x_n)$$ 我们来看一个马氏链的具体例子。社会学家经常把人按照经济状况分成下、中、上三层(我们用1、2、3表示),他们发现,决定一个人的收入阶层的最重要的因素就是其父母的收入阶层:如果一个人的收入属于下层类别,那么它的孩子属于下层收入的概率是0.65,属于中层收入的概率是0.28,属于上层收入的概率是0.07.其转移概率矩阵如下:

Markov Chain
如上图,其状态转移矩阵为$$\begin{equation}P=\left[\begin{array}{ccc} 0.65 & 0.28 & 0.07 \ 0.15 & 0.67 & 0.18 \ 0.12 & 0.36 & 0.52 \end{array} \right]\end{equation}$$假设第一代人处在下、中、上的概率是$$\pi_0=[\pi_0(1),\pi_0(2),\pi_0(3)]$$,那么他们的子女分布比例将是$$\pi 2 = \pi 1 P = \pi 0 P^2,......,$$第n代子孙的收入分布比例将是$$\pi n=\pi {n-1}P=\pi 0P^n$$。假设初始概率分布为$$\pi_0 = [0.21,0.68,0.11]$$,则我们计算前n带人的分布状况如下
population income distritution transfer
我们发现从第7代人开始,这个分布就稳定不变了,这是偶然的吗?如果你还一个初始的概率分布,就会发现,经过几代人的迭代之后,分布又收敛了。更为奇特的是,虽然两次给定的是不同的初始概率分布,但最终都会收敛到相同的概率分布$$\pi = [0.286,0.489,0.225]$$,也就是说收敛的结果和初始概率分布$$\pi_0$$无关。这说明收敛是由概率转移矩阵P决定的。 $$\begin{equation}P^{20} = P{21}=...=P{100}=...=\left[ \begin{array}{ccc}0.286 & 0.489 & 0.225 \0.286 & 0.489 & 0.225\0.286 & 0.489 & 0.225 \end{array}\right]\end{equation}$$ 我们发现,当n足够大的时候,这个$$P^n$$矩阵的每一行都是稳定的收敛到$$\pi=[0.286,0.489,0.225]$$这个概率分布。事实上,关于马氏链的收敛我们有如下定理:马氏链收敛定理: 如果一个非周期的马氏链具有转移矩阵P,且它的任何两个状态是连通的,那么$$\lim
{n \to \infty}P
{ij}^n$$存在且与i无关,记$$\lim
{n \to \infty}P
{ij}^n = \pi(j)$$,我们有1. $$\begin{equation}\lim
{n \to \infty}P^n= \left[ \begin{array}{ccccc}\pi(1)&\pi(2)&...&\pi(j)&...\\pi(1)&\pi(2)&...&\pi(j)&...\...&...&...&...&...\pi(1)&\pi(2)&...&\pi(j)&...\...&...&...&...&...\end{array}\right]\end{equation}$$;2. $$\pi(j)=\sum
{i=0}^\infty \pi(i)P_{ij}$$;3. $$\pi$$是方程$$\pi P=\pi$$的唯一非负解其中,$$\pi = [\pi(1),\pi(2),...,\pi(j),...], \quad \sum_{i=0}^\infty = 1$$$$\pi$$称为马氏链的平稳分布。马氏链收敛定理非常重要,所有的MCMC(Markov Chain Monte Carlo)方法都是以这个定理作为理论基础的。几个补充说明:1. 虽然我们在示例中用到的马氏链的状态空间是有限的,但是,收敛定理其实并不要求状态空间有限,这意味着,对于连续型变量,收敛定理依然有效。2. 两个状态i,j是连通并非指i可以直接一步转移到j($$P_{ij}>0$$),而是指i可以通过有限的n步转移到达j。也就是说,马氏链的任何两个状态连通是指存在一个n,使得矩阵$$P^n$$中的任何一个元素的数值都大于0.3. 我们不打算证明整个定理,但可以小证一下第二个结论,柿子专检软的捏`(∩_∩)′ $$\begin{align}P(X_{n+1}=j)&=\sum_{i=0}^\infty P(X_n = i)\cdot P(X_{n+1}=j|X_n = i)\&=\sum_{i=0}^\infty P(X_n =i)P_{ij}\end{align}$$ 上式两边取极限即得 $$\pi(j)=\sum_{i=0}^\infty \pi(i)P_{ij}$$由马氏链的收敛定理,概率分布$$\pi_i(x)$$将收敛到平稳分布$$\pi(x)$$,假设到第n步的时候马氏链收敛$$\begin{align}X_0 &\sim \pi_0(x)\X_1 &\sim \pi_1(x)\ &\cdots \X_n &\sim \pi_n(x) = \pi(x) \X_{n+1} &\sim \pi(x)\X_{n+2} &\sim \pi(x)\ & \cdots \end{align}$$所以$$X_n,X_{n+1},X_{n+2},...\sim \pi(x)$$都是同分布(但是并不独立)的随机变量,如果我们从一个具体的初始状态$$x_0$$开始,沿着马氏链按照概率转移矩阵做跳转,那么我们得到一个转移序列$$x_0,x_1,x_2,...,x_n,x_{n+1},...$$,其中,$$x_n,x_{n+1},...$$都将是平稳分布$$\pi(x)$$的样本。##Markov Chain Monte Carlo马氏链能收敛到平稳分布,而我们的目的要生成概率分布p(x)的样本,一个很直观的想法就是: 如果我们能够构造一个平稳分布$$\pi(x)=p(x)$$的马氏链,那么我们从任何一个初始状态$$x_0$$出发,得到一个序列$$x_0,x_1,x_2,...,x_n,x_{n+1}...,$$如果马氏链在第n步已经收敛了,于是我们就得到了$$\pi(x)$$的样本$$x_n,x_{n+1},......$$马氏链的收敛性质主要由转移矩阵P决定,所以基于马氏链做采样的关键问题是如何构造转移矩阵P,使得平稳分布$$\pi (x)=p(x)$$。我们使用马氏链的细致平稳条件来构造转移矩阵P。细致平稳条件:如果非周期马氏链的转移矩阵P和分布$$\pi (x)$$满足 $$\pi(i)P_{ij}=\pi(j)P_{ji}, \quad for \ all \ i,j$$ 则$$\pi(x)$$是马氏链的平稳分布,上式被称为细致平稳条件(detailed balance condition)。这个定理的物理意义是显而易见的: 对于任何两个状态i,j, 从i转移出去到j丢失的概率,恰好会被从j转移回i的概率补充回来,所以状态i上的概率$$\pi(i)$$是稳定的。数学上的证明也十分简单: $$\sum_{i=1}{\infty}\pi(i)P_{ij}=\sum_{i=1}{\infty}\pi(j)P_{ji}=\pi(j)\sum_{i=1}{\infty}=\pi(j)$$ 由于$$\pi$$是方程$$\pi P=\pi$$的解,所以$$\pi$$是平稳分布。假设我们已经有一个转移矩阵为Q的马氏链,$$q(i,j)$$(或$$q(j|i)$$或者$$q(i \to j)$$表示从状态i转移到状态j的概率),显然,通常情况下 $$p(i)q(i,j) \neq p(j)q(j,i)$$ 也就是细致平稳条件不成立,所以p(x)不太可能是这个马氏链的平稳分布。我们可否对马氏链做一个改造,使得细致平稳条件成立呢?譬如,我们引入一个$$\alpha(i,j)$$,我们希望 $$p(i)q(i,j)\alpha(i,j) = p(j)q(j,i)\alpha(j,i)$$ 取什么样的$$\alpha(i,j)$$能满足上述条件呢?最简单的,按照对称性,我们可以取 $$\alpha(i,j) = p(j)q(j,i), \ \ \alpha(j,i) = p(i)q(i,j)$$ 于是我们有 $$p(i)\underbrace{q(i,j)\alpha(i,j)}{Q'(i,j)} = p(j)\underbrace{q(j,i)\alpha(j,i)}{Q'(j,i)}$$ 于是我们把原来具有转移矩阵Q的一个很普通的马氏链,改造为了具有转移矩阵Q'的马氏链,而Q'满足细致平稳条件,因此马氏链Q'的平稳分布就是p(x)(即马氏链的初始状态分布!)。在改造Q的过程中引入的$$\alpha(i,j)$$称为接受率,它的物理意义是从状态i以q(i,j)的概率跳转到状态j的时候,我们以$$\alpha(i,j)$$的概率接受这个转移,以$$1-\alpha(i,j)$$的概率留在原状态。
markov chain transfer
利用马尔科夫链采样概率分布p(x)的MCMC算法如下所示:* 初始化马尔科夫链初始状态$$X_0=x_0$$;* 对$$t=0,1,2,...,$$循环以下过程就行采样1. 第t个时刻马氏链状态为$$X_t=x_t$$, 采样$$y \sim q(x|x_t)$$2. 从均匀分布采样$$u \sim Uniform[0,1]$$ 3. 如果$$u < \alpha(x_t,y) = p(y)q(x_t|y)$$,则接受转移$$x_t \to y$$,即$$X_{t+1} = y$$;否则不接受转移,$$X_{t+1}=x_t$$##Gibbs Sampling以上的MCMC算法已经能够work了,但是对于高维的情形,由于接受率$$\alpha$$的存在(通常\alpha <1),以上算法的效率不够高,能够找到一个转移矩阵Q使得接受率$$\alpha =1$$呢?我们先看二维的情形,假设有一个概率分布p(x,y),考察x坐标相同的的两个点$$A(x_1,y_1),B(x_1,y_2)$$,我们发现$$p(x_1,y_1)p(y_2 | x_1)=p(x_1)p(y_1 |x_1)p(y_2 | x_1) \p(x_1,y_2)p(y_1 | x_1)=p(x_1)p(y_2 |x_1)p(y_1 | x_1)$$也就是说,细致平稳条件成立!事实上,在$$x=x_1$$这条平行于y轴的直线上,任何两个点之间的转移满足细致平稳条件。同样的,如果我们在$$y=y_1$$这条直线上任意取两点$$A(x_1,y_1),C(x_2,y_1)$$,这两个点之间的转移也满足细致平稳条件。
平面上马氏链转移矩阵的构造
于是我们可以按照如下规则构造平面上任意两点之间的转移概率矩阵Q$$\begin{align} Q(A\rightarrow B) & = p(y_B|x_1) & \text{如果} \quad x_A=x_B=x_1 & \ Q(A\rightarrow C) & = p(x_C|y_1) & \text{如果} \quad y_A=y_C=y_1 & \ Q(A\rightarrow D) & = 0 & \text{其它} & \end{align}$$有了如上的转移矩阵Q,我们容易验证平面上任意两点$$X,Y$$,都满足细致平稳条件$$p(X)Q(X \to Y)=p(Y)q(Y \to X)$$于是这个二维空间上的马氏链将收敛到平稳分布$$p(x,y)$$。这个算法就称为Gibbs算法,是由物理学家Gibbs首先提出来的。二维Gibbs Sampling算法1. 随机初始化$$X_0=x_0,Y_0=y_0$$;2. 对$$t=0,1,2,...$$循环采样* $$y_{t+1} \sim p(y|x_t)$$;* $$x_{t+1} \sim p(x|y_{t+1})$$。
二维Gibbs Sampling
如上图所示,马氏链的转移只是轮换的沿着坐标轴x轴和y轴做转移,于是得到样本$$(x_0,y_0),(x_0,y_1),(x_1,y_2),(x_2,y_2),...$$马氏链收敛后,最终得到的样本就是$$p(x,y)$$的样本。我们上边的算法虽然是坐标轴轮换采样的,但是这其实是不强制要求的;一般的情形是,在t时刻,在x轴和y轴之间随机的选一个坐标轴,然后按条件概率做转移,马氏链也一样收敛。由以上过程我们可以看出,如果$$x_1$$变为多为情形$$\vec x_1$$,细致平稳条件同样成立$$p(x_1,y_1)p(y_2 |x_1)=p(x_1,y_2)p(y_1|x_1)$$此时转移矩阵Q由条件分布$$p(y|x_1)$$定义,所以n为空间中对于概率分布$$p(x_1,x_2,...,x_n)$$可以如下定义转移矩阵1. 如果当前状态为$$(x_1,x_2,...,x_n)$$,马氏链转移的过程中,只能沿着坐标轴转移。沿着$$x_i$$这跟坐标轴做转移的时候,转移概率由条件概率$$p(x_i|x_1,...,x_{i-1},x_{i+1},...,x_n)$$定义;2. 其它无法沿着单根坐标轴进行的跳转,转移概率都设置为0.于是我们可以把Gibbs Sampling算法从二维推广到n维,当以上算法收敛后,得到的就是概率分布$$p(x_1,x_2,...,x_n)$$的样本,当然这些样本并不独立,但是我们要求的是采样得到的样本符合给定的概率分布,并不要求独立。
n维Gibbs采样
##后记##1. MCMC算法和Gibbs Sampling都能得到指定的概率分布p(x)的分布样本,但是样本之间并不独立;2. 由于MCMC算法存在接受率$$\alpha$$,使得在高维的时候效率低下,Gibbs Sampling采用坐标轴轮换的采样方法,巧妙的避开了接受率$$\alpha$$(其实相当于接受率为1)。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,362评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,330评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,247评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,560评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,580评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,569评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,929评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,587评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,840评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,596评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,678评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,366评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,945评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,929评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,165评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,271评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,403评论 2 342

推荐阅读更多精彩内容

  • # 背景 贝叶斯统计推断是一个非常*艺术*的东西,他的先验结果(prior knowledge)是一种专家的经验,...
    大仙Dylon阅读 663评论 0 1
  • 一年级语文上册生字表 生字表一(共400字) 啊(ā)爱(ài)安(ān)岸(àn)爸(bà)八(bā)巴(bā)...
    meychang阅读 2,755评论 0 6
  • 2017.2.13-2.19 微笑追梦第七周,这周我们开始上班,潇也开学了。又开启了忙碌模式。感觉最缺的是时间,什...
    水磨雪阅读 203评论 0 0
  • 完败!只能用这个词来形容苏小金和那一队人的打斗结果。虽然苏小金很高,有一米七八;虽然苏小金很强壮,是全能运动员;但...
    邝鉴萍阅读 160评论 0 6
  • 十六岁的你: 嗨,你最近……还好吗? 隔着五年的光阴,冒昧地送去这一句问候。二十一岁的我怀带着些许不安,记忆再次铺...
    抽屉都说阅读 1,942评论 5 26