[R - ml] 朴素贝叶斯分类器

之所以叫朴素贝叶斯,
因为独立的事件,联合分布可以拆分为各个分布的乘积。
具体的原理,周末会补充一下。
下面是代码:

library(e1071)
head(iris)
pairs(iris[1:4], pch = 21, bg = c('red', 'green3', 'blue')[unclass(iris$Species)])
classifier = naiveBayes(iris[, 1:4], iris[, 5])

table(predict(classifier, iris[, -5]), iris[, 5])

垃圾短信分类器

http://www.dt.fee.unicamp.br/~tiago/smsspamcollection/

sms_raw = read.table('E:/rpath/SMSSpamCollection', stringsAsFactors = FALSE, sep = '\t', header = FALSE, comment = '', quote = NULL, encoding = 'UTF-8')
names(sms_raw) = c('type', 'text')

str(sms_raw)

type 转换为factor 变量, 因为贝叶斯分类要求变量为factor类型

sms_raw$type = factor(sms_raw$type)
table(sms_raw$type)

数据预处理

对于文本的分析通常我们会用到[tm包]

require(tm)
packageVersion(pkg = 'tm')
sessionInfo() # 看自己的运行环境,各个包的版本

sms_corpus = Corpus(VectorSource(sms_raw$text))

这里将原始数据中的短信都作为向量输入构建语料库Corpus()

print(sms_corpus)
inspect(sms_corpus[1:3]) # 查看 语料库里的内容

这里可以看到语料库里有5574个文档,实际与我们的数据集样本数一样,每个文档对应的就是一条短信。
从前3条短信我们看出,文档里有标题、数字、还有标点符号,以及大小写,为了方便分析,我们进行如下处:

corpus_clean <- tm_map(sms_corpus, content_transformer(tolower))
corpus_clean <- tm_map(corpus_clean, tolower)
corpus_clean <- tm_map(corpus_clean, removeNumbers)
corpus_clean <- tm_map(corpus_clean, removeWords, stopwords()) # the, a, 停止词
corpus_clean <- tm_map(corpus_clean, removePunctuation) # 标点符号
corpus_clean <- tm_map(corpus_clean, stripWhitespace) # 空白
# corpus_clean <- tm_map(corpus_clean, PlainTextDocument)
inspect(corpus_clean[1:3])                                                                                                                      

统计每个词在文档中出现的频率,document term 稀疏矩阵完成,这个稀疏矩阵的行对应一个文档,列对应每个词,term document 则反过来

sms_dtm = DocumentTermMatrix(corpus_clean)
require(caret)
set.seed(2014)
inTrain = createDataPartition(y = sms_raw$type, p = 0.75, list = FALSE)
sms_raw_train = sms_raw[inTrain, ]
sms_raw_test = sms_raw[-inTrain, ]

sms_dtm_train = sms_dtm[inTrain, ]
sms_dtm_test = sms_dtm[-inTrain, ]

sms_corpus_train = corpus_clean[inTrain]
sms_corpus_test = corpus_clean[-inTrain]

prop.table(table(sms_raw_train$type))
prop.table(table(sms_raw_test$type))

最简单的文本分析方法 就是生成词云, 我们用wordcloud

require(wordcloud)
wordcloud(sms_corpus_train, min.freq = 40, random.order = FALSE)

这里的 min.freq 是词出现的最小频率,通常我们用语料库的10%来开始(训练语料库有4182个文档)。
上面这个词云只是给出了一个总体印象,对我们的分析没有太大帮助,我们考虑分布看看垃圾邮件与正常邮件的区别

spam = subset(sms_raw_train, type == 'spam')
ham = subset(sms_raw_train, type == 'ham')
wordcloud(spam$text, max.words = 40, scale = c(3, 0.5))
wordcloud(ham$text, max.words = 40, scale = c(3, 0.5))

词频

把所有的词都考虑近来显然不是很好的方法,我们的矩阵有7938个特征,因此我们需要考虑缩小范围,
于是采用findFreqTerms的方法取>5的特征(具体取多少根据数据的具体情况):

findFreqTerms(sms_dtm_train, 5)[10:20]
sms_dict = (findFreqTerms(sms_dtm_train, 5))

获得了词频大于5的词后,我们再利用它来生成一个字典,这样可以在文档矩阵中支出,我支取字典中有的词,新的矩阵只有1252个特征了。

sms_train = DocumentTermMatrix(sms_corpus_train, 
                               list(dictionary = sms_dict))
sms_test = DocumentTermMatrix(sms_corpus_test, 
                              list(dictionary = sms_dict))

我们的目标是想通过短信里面有或者没有某个词来判断是否是垃圾短信,
那么我们显然应该使用的矩阵是标记某个词在某个短信中出现了还是没有出现,
因此写个函数来完成这个功能:

convert_counts = function(x) {
  x = ifelse(x > 0, 1, 0)
  x = factor(x, levels = c(0, 1), labels = c("No", "Yes"))
  return(x)
}

对矩阵每一列进行这样的处理:

sms_train = apply(sms_train, MARGIN = 2, convert_counts) # margin = 2 是对列变换
sms_test = apply(sms_test, MARGIN = 2, convert_counts)

于是我们可以得到最终用来构建模型的数据集

模型训练

在R里面有多个包提供朴素贝叶斯分类,比如e1071包,还有klaR包的 NaiveBayes()
这里使用e1071

require(e1071)
sms_classifier = naiveBayes(sms_train, sms_raw_train$type)

于是我们得到了分类器sms_classifier

模型评估

有了模型就可以对测试数据进行预测:
pred(m, test, type = 'class')
这里的type 如果为class 代表是分类,如果是raw则代表概率的计算

sms_test_pred = predict(sms_classifier, sms_test, type = 'class')
head(sms_test_pred, 5)
require(gmodels)
CrossTable(sms_test_pred, sms_raw_test$type, prop.chisq = FALSE, prop.t = FALSE,
           dnn = c('predicted', 'actual'))

模型改进

拉普拉斯估计问题,用 Laplace = 1

sms_classifier2 = naiveBayes(sms_train, sms_raw_train$type,
                             laplace = 1)
sms_test_pred2 = predict(sms_classifier2, sms_test)
CrossTable(sms_test_pred2, sms_raw_test$type,
           prop.chisq = FALSE, prop.t = FALSE, prop.r = FALSE,
           dnn = c('predicted', 'actual'))
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,294评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,493评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,790评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,595评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,718评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,906评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,053评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,797评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,250评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,570评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,711评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,388评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,018评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,796评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,023评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,461评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,595评论 2 350

推荐阅读更多精彩内容