好的总结博客:
https://www.cnblogs.com/Dr-XLJ/p/5466055.html
最大似然估计与最大后验概率的区别与联系:
https://blog.csdn.net/laobai1015/article/details/78062767
朴素贝叶斯分类器和logistic分类器的区别:
(一个是生成模型,一个是判别模型)
https://blog.csdn.net/cjneo/article/details/45167223
em算法也是属于聚类算法,why?直观理解因为,是含有隐变量的模型,聚类算法中的质心,就是隐变量。
关于聚类算法的直观理解:
小涵涵刚刚出生,她第一次看到一堆苹果和梨,她分不清哪个是哪个,于是大脑开始实行一个“聚类”的过程,把苹果聚到一起,把梨聚到一起。这就是一个无监督学习的过程。
无监督学习:找到数据中的隐变量,即数据中蕴含的“特征”。
马尔可夫过程:t+l时刻系统状态的概率分布只与t时刻的状态有关,与t时刻以前的状态无关。
关于马尔可夫过程的一个梗:https://zhidao.baidu.com/question/267032763594471645.html
隐马尔科夫自学:https://blog.csdn.net/chinaliping/article/details/8954424
我们通常都习惯寻找一个事物在一段时间里的变化规律。在很多领域我们都希望找到这个规律,比如计算机中的指令顺序,句子中的词顺序和语音中的词顺序等等。一个最适用的例子就是天气的预测。
#昨天在会议上,听一个西交同学“关于K means优化‘’的会议报告,他是在选取初始值的部分做了优化,一般是随机选取初值,那篇论文做的优化是,计算样本点的相似度,根据相似度选取初值。
其实算法优化,无非就是将不同的算法进行整合。这就要求,要把常用的算法推导,记在脑子里,这样才能融会贯通。
无参模型:参数无穷多
有参模型:参数有限
最大后验估计:在最大似然估计的基础上,乘以一个先验概率
生成模型:根据标签,来生成样本的分布。例如朴素贝叶斯