【分类模型学习】-朴素贝叶斯

分类问题综述

分类问题在生活中很常见,我们可以从数学角度做如下定义:
已知类别集合C=\left \{ y_{1},y_{2},y_{3},y_{4},,,y_{n} \right \}和待分类项集合I=\left \{ x_{1},x_{2},x_{3},x_{4},,,x_{m} \right \},需要确定出映射规则y=f(x),使得任意的x_i\subset I有且仅有一个y_i\subset C使得y_i=f(x_i)成立

朴素贝叶斯方法

朴素贝叶斯法(Naive Bayes model)是基于贝叶斯定理与特征条件独立假设的分类方法,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。即在{P(y_1|x),P(y_2|x),P(y_3|x),,,P(y_n|x)}中找到最大的P(y_k|x),认为x\subset y_k


那么现在的关键就是第三步中{P(y_1|x),P(y_2|x),P(y_3|x),,,P(y_n|x)}如何计算的问题。
根据贝叶斯定理
P(y_i|x)=\frac{P(x_i|y)P(y_i)}{P(x)},分母对所有类别为常数,可以省略
又根据特征属性相互独立可以得到
P(x_i|y)=P(a_1|y_i)P(a_2|y_i)P(a_3|y_i)...P(a_m|y_i)=\prod_{j=1}^{m} P(a_j|y_i)
所以只需要计算P(y_i)\prod_{j=1}^{m} P(a_j|y_i)来在{P(y_1|x),P(y_2|x),P(y_3|x),,,P(y_n|x)}中得到maxP(y_k|x),就可以确定x的类别y_k

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容