EM算法:期望最大化算法

MLE(极大似然估计法)是一种非常有效的参数估计方法,但在概率模型中,有时既含有观测变量 (observable variable), 又含有隐变量(hidden variable)或潜在变量(latent variable),例如:分布中有多余参数或数据为截尾或缺失时,这个时候使用MLE求解是比较困难的。于是Dempster等人于1977年提出了EM算法,其出发点是把求MLE的过程分两步走,第一步是求期望,以便把多余的部分去掉,第二步是求极大值。

我们给定数据和参数:
x: \ \text{observed data}
z:\ \text{unobserved data } , 也就是隐变量
\left( x,\ z \right) :\ \text{complete data}
\theta :\ \text{parameter}

EM 算法对这个问题的解决方法是采用迭代的方法,这里直接给出最终的公式
\theta^{t+1}=\mathop{argmax}\limits_{\theta}\int_z p(z|x,\theta^t)\log p(x,z|\theta)dz=\mathop{argmax}\limits_{\theta}\mathbb{E}_{z|x,\theta^t}[\log p(x,z|\theta)]

后面再说明这个式子是从何得来的。

这个公式包含了迭代的两步:
E step:计算 \log p(x,z|\theta) 在概率分布 p(z|x,\theta^t) 下的期望
M step:计算使这个期望最大化的参数得到下一个 EM 步骤的输入

对于上述算法求解过程,似然函数在每一步迭代的过程中都是在增大的,除非已经达到最大值,证明如下。

求证:\log p(x|\theta^t) <= log p(x|\theta^{t+1})

证明:
我们知道
\log p(x|\theta)=\log p(z,x|\theta)-\log p(z|x,\theta)p(z|x,\theta^t)概率下对左右两边求期望:
左边=\int_zp(z|x,\theta^t)\log p(x|\theta)dz=\log p(x|\theta)

右边=\int_zp(z|x,\theta^t)\log p(x,z|\theta)dz-\int_zp(z|x,\theta^t)\log p(z|x,\theta)dz=Q(\theta,\theta^t)-H(\theta,\theta^t)

所以:
\log p(x|\theta)=Q(\theta,\theta^t)-H(\theta,\theta^t)
由于 Q(\theta,\theta^t)=\int_zp(z|x,\theta^t)\log p(x,z|\theta)dz,
\theta^{t+1}=\mathop{argmax}\limits_{\theta}\int_zp(z|x,\theta^t)\log p(x,z|\theta)dz=\mathop{argmax}\limits_{\theta}Q(\theta,\theta^t),
所以 Q(\theta^{t+1},\theta^t)\ge Q(\theta^t,\theta^t).
这时要证 \log p(x|\theta^t)\le\log p(x|\theta^{t+1}),只需证:H(\theta^t,\theta^t)\ge H(\theta^{t+1},\theta^t)

H\left( \theta ^{t+1},\,\,\theta ^t \right) -H\left( \theta ^t,\,\,\theta ^t \right)
=\int_z{P\left( z|x,\theta ^t \right)}\log P\left( z|x,\theta ^{t+1} \right) dz-\int_z{P\left( z|x,\theta ^t \right)}\log P\left( z|x,\theta ^t \right) dz
=\int_z{P\left( z|x,\theta ^t \right)}\log \frac{P\left( z|x,\theta ^{t+1} \right)}{P\left( z|x,\theta ^t \right)}dz
<= \log \int_z{P\left( z|x,\theta ^t \right)}\frac{P\left( z|x,\theta ^{t+1} \right)}{P\left( z|x,\theta ^t \right)}dz=\log \int_z{P\left( z|x,\theta^{t+1} \right)}dz=0
所以
H(\theta^t,\theta^t)\ge H(\theta^{t+1},\theta^t)
综上我们得证
\log p(x|\theta^t) <=\log p(x|\theta^{t+1})

进一步,我们来看EM 迭代过程是如何得来的

image.png

在概率分布q(z)下, 对上式左右两边求期望\mathbb{E}_{q(z)}

\begin{align} &左边=\int_zq(z)\log p(x|\theta)dz=\log p(x|\theta) \\ &右边=\int_zq(z)\log \frac{p(z,x|\theta)}{q(z)}dz-\int_zq(z)\log \frac{p(z|x,\theta)}{q(z)}dz=ELBO+KL(q(z)||p(z|x,\theta))\end{align}

其中ELBO=\int_zq(z)\log \frac{p(z,x|\theta)}{q(z)}dz
ELBO 的全称是Evidence lower bound,我们知道KL(q(z)||p(z|x,\theta))\ge 0,所以

\log p(x|\theta)\ge ELBO,

KL(q(z)||p(z|x,\theta))= 0,上式取等号,即:q(z)=p(z|x,\theta),EM 算法的目的是将 ELBO 最大化,根据上面的证明过程,在每一步 EM 后,求得了最大的ELBO,并将这个使 ELBO最大的参数代入下一次迭代中,这时便有

image.png

由于 q(z)=p(z|x,\theta^t) 的时候,最大值才能取等号,所以
\hat{\theta}=\mathop{argmax}_{\theta}ELBO=\mathop{argmax}_\theta\int_zq(z)\log\frac{p(x,z|\theta)}{q(z)}dz \\ =\mathop{argmax}_\theta\int_zp(z|x,\theta^t)\log\frac{p(x,z|\theta)}{p(z|x,\theta^t)}dz \\ =\mathop{argmax}_\theta\int_z p(z|x,\theta^t)\log p(x,z|\theta)dz
我们就得到了开始给出的EM算法迭代式。

从 Jensen 不等式出发,也可以导出上式:

logp (x|\theta) =\log\int_zp(x,z|\theta)dz=\log\int_z\frac{p(x,z|\theta)q(z)}{q(z)}dz \\ =\log \mathbb{E}_{q(z)}[\frac{p(x,z|\theta)}{q(z)}]\ge \mathbb{E}_{q(z)}[\log\frac{p(x,z|\theta)}{q(z)}]
右边的式子便是我们上面的 ELBO,等号在 \frac{p(x,z|\theta)}{q(z)}=C 时成立。这里C是常数,于是:

\int_zq(z)dz=\frac{1}{C}\int_zp(x,z|\theta)dz=\frac{1}{C}p(x|\theta)=1 \\
p(x|\theta)=C, 另外我们知道p(x,z|\theta)=Cq(z), 所以
q(z)= \frac{Cq(z)}{C} =\frac{1}{p(x|\theta)}p(x,z|\theta)=p(z|x,\theta)

这个结果就是上面的最大值取等号的条件。

参考:
模式识别与机器学习(PRML)
李航的统计学习方法

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

友情链接更多精彩内容