【转载】期望最大化(EM)

转载自 期望最大化(EM)

〇、说明

在看到的资料里,包括周志华教授的《机器学习》[1]、李航博士的《统计学习方法》[2],大多数材料把期望最大化算法看做是一个解决含有隐变量优化问题的算法,我认为这是对期望最大化算法的狭义理解;而在吴军博士的《数学之美》[3]中,吴军博士将交替优化参数和模型直到最优的这一类算法(书中没有这样表述,我自己对书中内容的理解),称作期望最大化算法,我认为这是对期望最大化算法的广义理解。对于对算法的宏观理解,个人认为吴军博士的广义理解更好理解;但对于解决实际问题,还是要具体到每一个可以编程实现的算法。

一、一句话简介

期望最大化算法(Expectation Maximization),是一种渐进逼近算法;定义一个最优化函数后,分为两步:根据参数调整模型(E步);根据模型调整参数(M步);E步和M步交替进行,直至最优(局部)。

二、最简单的例子

一个不是很恰当的例子,塔吊盖楼房。

目标函数:盖楼房盖到预定高度。E步:根据楼房现有高度调整塔吊高度(根据参数调整模型);M步:根据现有塔吊高度将楼房盖到尽可能高(根据模型调整参数);交替进行直到楼房达到预定高度。

三、广义期望最大化算法包括

狭义期望最大化算法,K均值算法[3],Baum-Welch算法[3],GIS算法[3],等等。

四、狭义期望最大化算法

1、算法引出

在考虑求对于模型参数,使样本结果极大似然估计的算法中,如果存在隐变量而使得极大似然估计无法直接求解,则这时候可以使用期望最大化(EM)算法来求解。

2、算法描述[2]

3、注意

EM算法对初值是敏感的,并且收敛到局部极值。常用的办法是选取几个不同的初值进行迭代,然后对得到的各个估计值加以比较,从中选择最好的[2]。

五、参考

1、《机器学习》,周志华著

2、《统计学习方法》,李航著

3、《数学之美》,吴军著

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 〇、说明 在看到的资料里,包括周志华教授的《机器学习》[1]、李航博士的《统计学习方法》[2],大多数材料把期望最...
    Herbert002阅读 8,238评论 0 0
  • 在上一篇文章写到了EM算法的收敛性证明以后便匆匆的结尾,然后我出去玩了几天,玩的爽了,回来开始继续补之前的flag...
    云时之间阅读 8,360评论 2 8
  • 转载 http://blog.csdn.net/zouxy09 EM算法是一种迭代算法,用于含有隐含变量的概率模型...
    Jlan阅读 6,478评论 1 13
  • EM算法是英文expectation-maximization算法的英文简写,翻译过来就是期望最大化算法,其实是一...
    云时之间阅读 9,886评论 0 13
  • 在“Hinton是如何理解PCA?”里面,我们体会到Hinton高人一等的见解。 Hinton, 这个深度学习的缔...
    史春奇阅读 8,442评论 0 13

友情链接更多精彩内容