Bayesian Learning

记录几个有收获的问题:

1. 先验概率(先验信息)什么时候有用?

先验概率比较大的时候,才有参考价值,从艾滋病的例子中可以知道,若先验概率很小,那么后验概率基本没有什么参考价值。此外,若先验概率很小,计算MAP还不是计算MLP!

2. MAP和MLP的联系

极大似然估计是极大MAP的特例,在这种情况下,所有的先验信息认为具有相同的概率,因此可以省略掉先验概率的计算。

3. 通过MSE作为回归损失,隐含的假设是什么?

隐含的假设是:信号由在作用于输入后输出,但是在这个过程中被高斯形式的噪音破坏了。
PS:倘若不是被高斯形式的噪声破坏,则我们实际上并没有在给这个“确定性函数”建模,在这种情况下,事实上我们就做错了。
推理过程如下图:


image.png

Minimums description length 最小描述长度

这块还不太理解,先给出结论
结论:从贝叶斯的角度+信息论中的最小描述长度,可以解释奥卡姆剃刀原则

4. Bayes Learning的最终目标?为什么说仅仅找到最优假设是错误的?

Bayes Learning的最终目标不是Learning,而是为了Inference,而Inference阶段不能仅仅用最优的假设,而要使用全部的h进行投票。

5. 什么是Bayes optimal classifier?

就是通过voting(加权平均)的方式进行分类,称为贝叶斯最优分类器,而不是仅仅选最优假设进行分类。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容