EM算法

博客CSDN: 从最大似然到EM算法浅解
知乎:隐变量是什么?

隐变量:主要就是指“不能被直接观察到,但是对系统的状态和能观察到的输出存在影响的一种东西”。

1. 算法步骤

2. 另一种解释

3. Kmeans,EM算法的关系?

K-means是EM算法的一个特例,k-means是两个步骤交替进行,可以分别看成E步和M步;

  • M步中将每类的中心更新为分给该类各点的均值,可以认为是在「各类分布均为单位方差的高斯分布」的假设下,最大化似然值;
  • E步中将每个点分给中心距它最近的类(硬分配),可以看成是EM算法中E步(软分配)的近似。

4. Jensen不等式

5. 为什么EM算法能近似实现对观测数据的极大似然估计(每次迭代是似然函数增大或达到局部极值)?

通过Jensen不等式证明目标函数的下界,而EM算法是通过在不断求解下界的极大化求解对数似然函数极大化的算法。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 转载 http://blog.csdn.net/zouxy09 EM算法是一种迭代算法,用于含有隐含变量的概率模型...
    Jlan阅读 2,172评论 1 13
  • 在上一篇文章写到了EM算法的收敛性证明以后便匆匆的结尾,然后我出去玩了几天,玩的爽了,回来开始继续补之前的flag...
    云时之间阅读 3,174评论 2 8
  • 在“Hinton是如何理解PCA?”里面,我们体会到Hinton高人一等的见解。 Hinton, 这个深度学习的缔...
    史春奇阅读 3,187评论 0 13
  • EM算法是英文expectation-maximization算法的英文简写,翻译过来就是期望最大化算法,其实是一...
    云时之间阅读 4,337评论 0 13
  • 整理自李航老师的《统计学习方法》一书 在前面的几讲中我们介绍了EM算法的一些基础知识以及两个小故事,我们了解了EM...
    文哥的学习日记阅读 1,839评论 1 1