分类(5):组合分类器-随机森林

一、组合方法

(1)组合分类器原理:

考虑25个二元分类器,每一个分类误差a=0.35。组合分类器通过多数投票,如果基分类器是独立的,则仅当超过一半的基分类器都预测错误时,组合才会错误,则:
![](http://www.forkosh.com/mathtex.cgi? e_{ensemble}=\sum_{i=1}{25}C_{25}{i}a{i}(1-a){25-i}=0.06)

可以看出,其远低于0.35。

(2)组合分类器与基分类器比较:
5_26.png

上图,虚线表示所有基分类器都一样,实线表示所有基分类器都独立。可以看出,当基分类器的错误率大于0.5(仅这个例子吗?)时候,组合分类器的性能不比基分类器的性能好。
组合分类器的性能优于基分类器的条件:

1、基分类器应该是<strong>独立</strong>的。
2、基分类器应当好于随机猜想。

(3)袋装(bagging)-自助法(bootstrap aggregating)
袋装-自助法(bootstrap):

训练集是对于原数据集的有放回抽样,如果原始数据集N,可以证明,大小为N的自助样本大约包含原数据63.2%的记录。当N充分大的时候,1-(1-1/N)^(N) 概率逼近 1-e^(-1)=0.632。抽样 b 次,产生 b 个bootstrap样本,则,总准确率为(accs为包含所有样本计算的准确率):
![](http://www.forkosh.com/mathtex.cgi? acc_{boot}=\frac{1}{b}\sum_{i=1}^{b}(0.632\times\varepsilon {i}+0.368\times acc{s}))

袋装算法:
设 k 为自助样本的数目
for i = 1 to k do
  生成一个大小为 N 的自助样本 Dt
  在自助样本 Dt 上训练一个基分类器 Ci
C*=argmax(Ci...)
袋装举例理解:

下面的这个数据集,使用决策树,熵值来分裂,可以得到分裂点为:x<=0.35 或 x<=0.75,但是无论是哪个分类点,准确率都最多为70%。


5_27.png

使用袋装抽样:


5_28.png

使用简单的求和,取符号,可以发现,分类正确率为100%:


5_29.png
袋装评价:

1、通过降低基分类器的<strong>方差</strong>改善了泛化误差
2、袋装的性能依赖于基分类器的稳定性。如果基分类器是不稳定的,袋装有助于降低训练数据的随机波动导致的误差;如果基分类器是稳定的,则组合分类器的误差主要由基分类器的偏倚引起,则这种情况下,袋装可能会降低分类器的性能。
3、袋装中的数据是均概率被选中,所以对特定数据不敏感,对于噪音,不太受过拟合影响。

(4)提升(Boosting)

提升是一个迭代过程,自适应的改变样本的分布,使得基分类器聚焦在那些很难分类的样本上,提升每次给一个训练样本一个权值,在每一轮结束的时候自动地调整权值。

现在又很多提升算法,算法的差别在于:

(1)每轮提升结束时如何更新训练样本权值
(2)如何组合每个分类器的预测

AdaBoost

在该算法中,基分类器 Ci 的重要性依赖于它的错误率,错误率的定义:
![](http://www.forkosh.com/mathtex.cgi? error_{i}=\frac{1}{N}\left[\sum_{j=1}^{N}w_{j}I(C_{i}(x_{j}\neq y_{j}))\right])
对于I,为指示变量,错误个数的加权取平均,基分类器的重要度 \alpha 为:
![](http://www.forkosh.com/mathtex.cgi? \alpha_{i}=\frac{1}{2}ln\left(\frac{1-error_{i}}{error_{i}}\right))
作出重要度 \alpha 关于 error 的图:

5_30.png

发现错误率接近 0 时候,重要度很大,接近 1 时候,重要度负向很大。
Adaboost 的权值更新有以下给出,第 j 次迭代:


5_31.png

Zj 是一个正规因子,用于确保:
![](http://www.forkosh.com/mathtex.cgi? \sum_{i}w_{i}^{j+1}=1)

AdaBoost算法:
5_32.png
AdaBoost例子:
5_33.png
5_34.png

1、该组合分类器的训练误差呈指数递减,从而算法很快就会收敛。
2、但是它倾向于那些被误分类的样本,所以提升技术很容易受到过拟合的影响。

二、随机森林(Random Forest)

随机森林的过程图:
5_35.png

已经从理论上证明了,当树的数目足够大的时候,随机森林的泛化误差的上界收敛于下面表达式:


5_36.png
随机森林性质

每棵决策树都使用一个从固定概率分布产生的随机向量。可以使用多种方法将随机向量合并到树中。

不同的随机森立方法:

1、Forest-RI。随机选择 F 个输入特征来对决策树的结点进行分裂,树之后完全增长不进行任何修剪,这有助于减少树的偏倚。之后用多数投票表决来组合预测。为了增加随机性,可以使用自助样本。
2、Forest-RC。d 的数目太小的情况,需要增大特征空间,创建输入特征的线性组合。输入特征用区间[-1,1]的均匀分布产生的系数进行线性组合。
3、对于每个结点,从 F 个最佳划分中随机选择一个,该方法也是比上面两个更花费时间。
4、随机森林的分裂准确率与Adaboost相媲美,但它对噪声更加鲁棒,运行速度也比Adaboost快得多。

随机森林的一些参数选择

通常选取特征数目为:
![](http://www.forkosh.com/mathtex.cgi? F=log_{2}^{d}+1)
d 为输入特征数。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,222评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,455评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,720评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,568评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,696评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,879评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,028评论 3 409
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,773评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,220评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,550评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,697评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,360评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,002评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,782评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,010评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,433评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,587评论 2 350

推荐阅读更多精彩内容