贝叶斯算法

贝叶斯简介

贝叶斯原来是英国的一个著名数学家,贝叶斯方法源于他生前为解决一个“逆向概率”的问题写的一篇文章。

贝叶斯算法概述

贝叶斯分类算法是统计学的一种分类方法,它是一类利用概率统计知识进行分类的算法。在许多场合,朴素贝叶斯(Naïve Bayes,NB)分类算法可以与决策树和神经网络分类算法相媲美,该算法能运用到大型数据库中,而且方法简单、分类准确率高、速度快。

贝叶斯要解决的问题

先给大家介绍两个东西:

正向概率:假设袋子里面有N个白球,M个黑球,你伸手进去摸一把,摸出黑球的概率是多大

逆向概率:如果我们事先不知道袋子里面黑白球的比例,而是闭着眼睛摸出一个(或好几个)球,观察这些取出来的球的颜色之后,那么我们可以就此对袋子里面的黑白球的比例作出什么样的推测

再来说说我们为什么要使用贝叶斯算法?

1,现实世界本身就是不确定的,人类的观察能力是有局限性的

2,我们日常所观察到的只是事物表面上的结果,因此我们需要提供一个猜测(就好比和女孩子聊天,你自己以为和她聊得很开心,很快乐,但是你并不知道她是否真的喜欢你,这时候你就需要进行一个猜测,这个女孩是不是真的喜欢我)

举个例子

男生总是穿长裤,女生则一半穿长裤一半穿裙子

正向概率:随机选取一个学生,他(她)穿长裤的概率和穿裙子的概率是多大

逆向概率:迎面走来一个穿长裤的学生,你只看得见他(她)穿的是否长裤,而无法确定他(她)的性别,你能够推断出他(她)是女生的概率是多大吗?

现在我们假设学校里面人的总数是U个

穿长裤的(男生):U * P(BOY) * P(PANTS|BOY)

P(BOY)是男生的概率=60%

P(PANTS|BOY)是条件概率,即在BOY这个条件下穿长裤的概率是多大,这里是100%,因为所有男生都穿长裤

穿长裤的(女生):U * P(GIRL) * P(PANTS|GIRL)

求解:穿长裤的人里面有多少女生

PS:P(PANTS|GIRL)为女生穿长裤的概率已经为1/2,P(PANTS|BOY)为男生穿长裤的概率为100%

穿长裤总数:U * P(BOY) * P(PANTS|BOY) + U * P(GIRL) * P(PANTS|GIRL)

P(GIRL|PANTS) = U * P(GIRL) * P(PANTS|GIRL) / 穿长裤总数

等于U * P(GIRL) * P(PANTS|GIRL)  / [U * P(BOY) * P(PANTS|BOY) + U * P(GIRL) * P(PANTS|GIRL)]

与总人数有关吗?

U * P(GIRL) * P(PANTS|GIRL)  / [U * P(BOY) * P(PANTS|BOY) + U * P(GIRL) * P(PANTS|GIRL)]

容易发现这里校园内人的总数是无关的,可以消去

P(GIRL|PANTS)=P(GIRL) * P(PANTS|GIRL)  / [P(BOY) * P(PANTS|BOY) + P(GIRL) * P(PANTS|GIRL)]

贝叶斯公式

P(A|B) = P(B|A)*P(A) / P(B)

其中P(A|B)是在 B 发生的情况下 A 发生的可能性

在贝叶斯定理中,每个名词都有约定俗成的名称:

P(A)是 A 的先验概率,之所以称为“先验”是因为它不考虑任何 B 方面的因素。

P(A|B)是已知 B 发生后 A 的条件概率,也由于得自 B 的取值而被称作 A 的后验概率。

P(B|A)是已知 A 发生后 B 的条件概率,也由于得自 A 的取值而被称作 B 的后验概率。

P(B)是 B 的先验概率,也作标淮化常量(normalizing constant)。

拼写纠正实例

问题是我们看到用户输入了一个不在字典中的单词,我们需要去猜测:“这个家伙到底真正想输入的单词是什么呢?”

P(我们猜测他想输入的单词 | 他实际输入的单词)

举例:用户实际输入的单词为D(D代表DATA,即观测数据)

猜测1:P(H1 | D), 猜测2:P(H2 | D), P(H3 | D)······ 统一为:P(H | D)

P(H | D) = P(H) * P(D | H) / P(D)

注意

1,对于不同的具体猜测H1,H2,H3···,P(D)都是一样的,所以在P(H1 | D)和P(H2 | D)的时候我们可以忽略这个常数

2,对于给定观测数据,一个猜测是好是坏,取决于“这个猜测本身独立的可能性大小(先验概率,prior)”和“这个猜测生成我们观测到的数据的可能性大小”

由贝叶斯公式计算:P(H) * P(D | H),P(H)是特定猜测的先验概率

比如用户输入tlp,那么到底是top还是tip?这个时候,当最大似然不能作出决定性的判断时,先验概率就可以插手进来给出指示--“既然你无法决定,那么我告诉你,一般来说top出现的程度要高许多,所以更可能他想打的是top”

模型比较理论

最大似然:最符合观测数据的(既P(D | H)最大的)最有优势

奥卡姆剃刀:P(H)较大的模型有较大的优势

掷一枚硬币,观察到的是“正”,根据最大似然估计的精神,我们应该猜测这枚硬币掷出“正”的概率是1,因为这个才是能最大化P(D | H)的那个猜测

再举个例子解释奥卡姆剃刀

如果平面上有N个点,近似构成一条直线,但绝不精确地位于一条直线上。这时我们既可以用直线来拟合(模型1),也可以用二阶多项式(模型2)拟合,也可以用三阶多项式(模型3),特别地,用N-1阶多项式便能够保证肯定能完美通过N个数据点。那么,这些可能的模型之中到底哪个是最靠谱的呢?

奥卡姆剃刀:越是高阶的多项式越是不常见 (一般用1阶或者2阶等低阶多项式)

垃圾邮件过滤实例

问题:给定一封邮件,判定它是否属于垃圾邮件

D来表示这封邮件,注意D由N个单词组成。我们用H+来表示垃圾邮件,H-表示正常邮件

P(H+ | D)=P(H+) * P(D | H+) / P(D)

P(H- | D)=P(H-) * P(D | H-) / P(D)

先验概率:P(H+)和P(H-)这两个先验概率都是很容易求出来的,只需要计算一个邮件库里面垃圾邮件和正常邮件的比例就行了

D里面含有N个单词D1,D2,D3,P(D | H+)=P(D1,D2,D3,...,Dn | H+)

P(D1,D2,D3,...,Dn | H+)就是说在垃圾邮件当中出现跟我们目前这封邮件一模一样的一封邮件的概率是多大!

P(D1,D2,D3,...,Dn | H+)扩展为:P(D1 | H+) * P(D2 | D1,H+) * P(D3 | D2,D1,H+) * ..

假设Di与Di - 1是完全条件无关的(朴素贝叶斯假设特征之间是独立,互不影响)

简化为P(D1 | H+) * P(D2 | H+) * P(D3 | H+) * ..

对于P(D1 | H+) * P(D2 | H+) * P(D3 | H+) * ..只要统计Di这个单词在垃圾邮件中出现的频率即可

下面就是实战了——贝叶斯拼写检查器

import re,collections

# 把语料中的单词全部抽取出来, 转成小写, 并且去除单词中间的特殊符号

def words(text):

    return re.findall('[a-z]+', text.lower())

# 统计每个单词出现几次

def train(features):

    model = collections.defaultdict(lambda :1)

    for f in features:

        model[f] += 1

    return model

# NWORDS[w] 存储了单词 w 在语料中出现了多少次

NWORDS = train(words(open('big.txt',encoding='utf8').read()))

alphabet = 'abcdefghijklmnopqrstuvwxyz'

# edits1函数可以返回所有与单词 w 编辑距离为 1 的集合

def edits1(word):

    n = len(word)

    return set([word[0:i]+word[i+1:] for i in range(n)] +

               [word[0:i]+word[i+1]+word[i]+word[i+2:] for i in range(n-1)] +

               [word[0:i]+c+word[i+1:] for i in range(n) for c in alphabet] +

               [word[0:i]+c+word[i:] for i in range(n+1) for c in alphabet])

def known_edits2(word):

    return set(e2 for e1 in edits1(word) for e2 in edits1(e1) if e2 in NWORDS)

def known(words):

    return set(w for w in words if w in NWORDS)

def correct(word):

    candidates = known([word]) or known(edits1(word)) or known_edits2(word) or [word]

    return max(candidates, key = lambda w:NWORDS[w])

if __name__ == '__main__':

    print(correct('woid'))

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,204评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,091评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,548评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,657评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,689评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,554评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,302评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,216评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,661评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,851评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,977评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,697评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,306评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,898评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,019评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,138评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,927评论 2 355

推荐阅读更多精彩内容