温故知新——决策树

1.0 重识决策树

        决策树是在已知各种情况发生概率的基础上,通过构成预测点,判断其是否会发生的分析方法,是直观运用概率分析的一种图解法。由于这种决策树分支的图形很像树的枝干,故称决策树。

        决策树本质上是基于经验信息对目标结论的判断的总结,通过一句常用语来说:“历史总是惊人的相似”,即由于某件事在过去某环境下有大概率发生,那么现在相同特征的环境下这件事也很可能会发生。

        决策树基于的假设较少,适用于大部分情况。但其缺点也很明显:1)精度较低;2)每次只会根据单一特征划分数据,不会根据数据组合切分。但当特征间存在关联时,决策树只会用多次切分拟合这一情况。

2.0 决策树的构建过程

        决策树作为基于树结构的学习模型,也是由根节点,分叉,叶组成的,其生成过程也是按照“根节点-->分叉(内节点)-->叶节点”的过程进行。

        决策树生成的核心思想就是找出更加纯净的子集。理想情况下,每个子集里都是结论(标签)极其一致的数据。

        判断纯度的方法不同决策树的生成也不同,常用的判断方法有:1)使用信息增益作纯度判断,称为ID3树;2)使用信息增益率作纯度判断,称为C4.5树;3)使用基尼系数作纯度判断,称为CART树。

        总的来说,决策树的生成步骤为

        1)寻找最佳分割特征和分割点,把数据集分割成两部分

        2)判断是否达到要求,若未达到,重复步骤1)继续分割,直到达到要求停止,生成叶节点

        3)判断叶节点的标签

        4)剪枝,防止过拟合

3.0 数据纯度判断方法

3.1 补充说明:信息熵、条件熵和经验熵

       1)信息熵

        信息熵,也称香农熵,是衡量系统数据混乱程度的一个指标,熵值越大表示数据越混乱。决策树使用信息熵来衡量划分数据后各子集的纯净程度,纯净程度越低说明划分越合理。

        假定目标集合S中有n种标签(label)的样本,第k种标签所占比例为p_k,则S的信息熵Entrophy为:

Ent(S)=\sum_{k=1}^n -p_k·log_2p_k

        注:1)取负号的原因:p_k作为比例取值范围在0-1之间,取对数后将是一个负数,且概率越小,对数值也越小。但概率越小,表明标签可取值的种类越多,数据越杂乱,因此用负号取相反数,表明数据越杂乱熵值越大。2)log的底:log实际上是可以以任何大于1的正数为底,常见有2,e和10,虽然计算得到的数值有不同,但对数函数始终是单调曲线,并不会对信息纯度的比较结果造成影响)

       2)条件熵

        类似于条件概率,就是在给定条件下系统的信息熵。

        假定目标集合S中有n种(标签)样本,现按照某一特征XS划分为若干子集D_m,(将D_m看成是一个独立的系统)根据D_m所包含的标签的种类和概率,其信息熵为Ent(D_m|X=m)。此时基于特征X划分下,系统的信息熵就是条件熵:

Ent(S|X)=\sum_{m=1}^Mp(X=m)Ent(D_m|X=m)

       3)经验熵

        经验熵比较特别,是以某一特征作为样本的标签,计算此时系统的信息熵。

        假定目标集合S中有n种(标签)样本,现按照某一特征X作为样本标签,特性Xi种取值(临时标签),p_x为特征X某一取值的概率,计算系统信息熵就是经验熵:

Ent_X(S)=\sum_{x=1}^i -p_x·log_2p_x

3.3 信息增益和ID3树

        ID3树使用信息增益来评价系统的数据混乱程度。假定目标集合S中有n种(标签)样本,此时系统的信息熵为Ent(S)。现按照某一特征XS划分为若干子集,那么系统在划分前后的信息熵变化就是信息增益:

Gain(X)=Ent(S)-Ent(S|X)

        由于决策树的目标是提高信息纯度,即降低系统的信息熵,因此信息增益越大,说明分类后的数据越纯净。

        使用信息增益生成决策树的步骤:

        1)寻找最佳分割特征和分割点,对数据集进行划分:遍历集合中所有可能的分割点(每个特征的每个取值),选择信息增益最大的划分特征和特征值作为最佳分割点

        2)判断是否达到停止要求,若未达到,重复步骤1)继续分割,直到达到要求停止:节点中全部样本的标签同属于一个类别;如果分叉后的样本数目小于给定的阀值,也停止进行分叉

        3)选择叶节点里数量最多的标签作为叶节点的标签(投票法)

        4)剪枝,防止过拟合

3.4 信息增益率和C4.5树

        C4.5树使用信息增益率来评价系统的数据混乱程度。信息增益体现了系统分割前后信息熵变化的绝对程度,信息增益率则是以百分比体现信息熵变化相对程度。

        假定目标集合S中有n种(标签)样本。现按照某一特征X划分为若干子集,在划分前后的信息信息增益为Gain(X),经验熵为Ent_X(S),则信息增益率为:

Gain_r(X)=\frac{Gain(X)}{Ent_X(S)}

        C4.5算法生成决策树是以信息增益率最大作为最佳分割点的判断标准。

3.5 基尼系数和CART树

        假定目标集合S中有n种标签(label)的样本,第k种标签所占比例为p_k,那么任抽两次样本,所得标签错误的概率就是基尼值:

Gini=\sum_{k=1}^n 1-p_k^2

        当按照某一特征XS划分为若干子集D_m,根据所包含的标签的种类i和概率p_i,此时系统的基尼值为:

Gini-index(X)=\sum_{m=1}^MGini(D_m)=\sum_{m=1}^M(\sum_{i}1-p_i^2 )

        CART树在判断分割停止条件上与ID3和C4.5树不同,具体包含三点:1)决策树到达最大深度;2)分叉节点的样本数小于阀值;3)分叉的叶内的样本数小于阀值

4.0 过拟合处理方法

        在决策树生成过程中,随着数据分割使得子集的样本量越来越小,剩余待分割的数据越有可能是特殊情况,这就导致着决策树分割总是向着过拟合的方向进行。为了降低过拟合风险,需要主动去除一些分类效果不明显的分叉来防止过拟合,这一过程被称为剪枝。剪枝主要有两种方法:预剪枝和后剪枝

       预剪枝

        预剪枝是在生成决策树过程中,在节点划分前进性预评估,若节点分叉不能使决策树得到泛化提升,则停止分叉生成叶。代表算法是悲观错误剪枝法PEP(Pesimistic-Error Pruning)。

       后剪枝:

        后剪枝是生成一棵完整的决策树后,自下而上对每个叶节点和分叉点进行评估,若减少分叉可以使决策树得到泛化提升,则转化分叉为一个叶。代表算法有错误率降低剪枝REP(Reduced-Error Pruning),代价复杂度剪枝CCP(Cost-Complexity Pruning)。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342