2019-02-22

ML——决策树

       决策树是基于树结构来进行决策的,根节点包含样本全集,其每个内部节点对应于一个属性测试,每个分支代表这个特征属性经测试后的输出,叶节点对应于决策结果。决策树进行决策的过程就是从根节点开始,测试待分类项目中相应的特征属性,并按其值选择输出分支,直到到达叶节点得出决策结果。

       熵是随机变量的不确定性度量,熵越大,随机变量越混乱,不确定性越大,定义如下:

                                        H(X)=-\sum_{x}p_klog_2p_k

其中p_k为第k类样本所占的比例。

       决策树的基本思想就是以信息熵为度量构造一棵熵值下降最快的树,到叶节点处熵值为零,此时每个叶节点中的实例都属于同一类。因此构造决策树可以选择信息熵下降最快的分支作为分裂的分支,判断信息熵下降情况的有三种算法:

ID3算法

信息增益:表示得知属性a的信息而使得数据集D分类的不确定性减少的程度。假定离散属性a有V个可能的取值,其中第v个分支节点包含了数据集D中所有属性a上取值为a ^ {v}的样本,\vert D \vert 代表数据集所有样本的个数,\vert D^v \vert 代表第k类数据的个数 ,则属性a对样本的信息增益为:

ID3算法就是以信息增益度量属性选择,选择分裂后信息增益最大的属性进行分裂,递归的构建决策树。具体算法如下:

ID3的不足:

1)ID3算法偏向于对多值属性(eg.ID值)进行分裂,这样虽然能使划分更纯净,但这种划分对分类而言毫无意义;

2)ID3没有考虑连续特征,限制了其用途;

3)ID3算法对缺失值的情况没有做考虑;

4)ID3算法只有树的生成,生成的树容易产生过拟合。


C4.5算法

针对多值属性偏向性上的改进:

C4.5算法与ID3算法类似,但对ID3算法进行了改造。首先针对ID3算法采用信息增益进行属性选择易造成其偏向多值属性分裂的特点,C4.5算法提出了用信息增益率来选择最优划分属性,定义如下:

特征数越多的特征对应的信息熵越大,作为分母可以校正信息熵易偏向于取值较多的特征的问题。

针对连续值的处理:

C4.5算法采用二分法对连续属性进行处理:给定样本集D和连续属性a,假定a在D上出现了n个不同取值,并从小到大排序为\left\{ a^1,a^2,...,a^n  \right\} ,则C4.5取相邻两样本值的中位数作为划分点,划分点集合为:   

                      T_{a} =\left\{ \frac{a^i+a^ {i+1} }{a} \vert 1\leq i\leq n-1 \right\}

基于划分点t可将D划分为属性值小于t的样本集D_{t}^- 和属性值大于t的样本集D_{t}^+ ,最后计算基于不同划分点的信息增益,取使信息增益最大的划分点进行划分。

针对缺失值的处理:

C4.5算法解决了两方面的缺失值问题:1)在属性值缺失时进行划分属性选择;2)给定划分属性,对样本在该属性上的值缺失时的情况进行划分。

对问题1),C4.5首先对各样例设置一个权重,将有属性值缺失的数据集D划分为了两部分,在属性a上无缺失值的子集D1和在属性a上有缺失值的子集D2,然后计算D1上对应属性a的加权后的信息增益率,最后乘上无缺失值样本所占的比例。

对问题2),C4.5将缺失属性的样本同时划入所有的分支,不过将该样本的权重按各个分支的样本数量比例来分配。

针对过拟合的处理:

引入正则化系数进行初步的剪枝。

C4.5的不足:

C4.5剪枝方法还可以进一步优化,由于使用了熵模型,计算复杂度较高。C4.5生成的是多叉树,运算效率不如二叉树,且该算法只能用于分类,对于回归任务束手无策。

CART决策树

CART是Classification and Regression Tree的简称,即它既能完成分类任务又能实现回归任务。

CART分类树对连续值的处理的基本思想类似于C4.5,区别在于选择划分点时CART分类树使用的是基尼系数,选择划分后基尼指数最小的属性作为最优划分属性。对离散值则是不停的二分离散特征,找到基尼指数最小的组合并建立二叉树结点。

CART回归树与分类树的建立算法大体上类似,区别在于:

1)样本输出不同。分类树的输出值是离散的,而回归树的输出值是连续的;

2)度量优化目标不同。分类树使用基尼指数度量划分点的好坏情况,而回归树是用均方误差最小准则求解每个单元上的最优值;

3)决策树建立后做预测的方式不同。分类树采用叶节点里概率最大的类别作为当前结点的预测类别,回归树是用最终叶子的均值或者中位数来预测输出结果。

剪枝

剪枝是为了避免决策树模型发生过拟合,常用的剪枝方法有两种:预剪枝和后剪枝。

预剪枝:在划分前,计算不进行划分时单节点决策树的分类精度,当划分结点后决策树模型分类精度提高则继续划分,否则不对该结点进行划分并将其化为叶结点。

后剪枝:先从训练集生成一棵完整的决策树,自底向上对非叶结点进行考察,若剪掉对应的子树并替换为叶结点能得到分类精度的提升,则实行剪枝。

CART采用的办法是后剪枝法,即先生成决策树,然后产生所有可能的剪枝后的CART树,然后使用交叉验证来检验各种剪枝的效果,选择泛化能力最好的剪枝策略。

也就是说,CART树的剪枝算法可以概括为两步,第一步是从原始决策树生成各种剪枝效果的决策树,第二部是用交叉验证来检验剪枝后的预测能力,选择泛化预测能力最好的剪枝后的数作为最终的CART树。

后剪枝通常比预剪枝保留了更多的分支,欠拟合风险小,泛化性能更优,但训练时间要更长。

参考:

周志华《机器学习》

李航《统计学习方法》

http://blog.csdn.net/qq_30091945

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,826评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,968评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,234评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,562评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,611评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,482评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,271评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,166评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,608评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,814评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,926评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,644评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,249评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,866评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,991评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,063评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,871评论 2 354

推荐阅读更多精彩内容

  • 决策树理论在决策树理论中,有这样一句话,“用较少的东西,照样可以做很好的事情。越是小的决策树,越优于大的决策树”。...
    制杖灶灶阅读 5,851评论 0 25
  •   决策树(Decision Tree)是一种基本的分类与回归方法,其模型呈树状结构,在分类问题中,表示基于特征对...
    殉道者之花火阅读 4,527评论 2 2
  • 1、模型原理 (一)原理 1、原理:引入信息熵(不确定程度)的概念,通过计算各属性下的信息增益程度(信息增益越大,...
    Python_Franklin阅读 12,351评论 0 17
  • 决策树 1.概述 决策树由节点和有向边组成,节点有两种类型,内部节点和叶节点,内部节点表示一个特征或属性,叶节点表...
    Evermemo阅读 2,291评论 0 1
  • 基本概念 决策树(decision tree)是一种常见的机器学习方法,它是基于树结构来进行决策的,这恰是人类在面...
    司马安安阅读 1,496评论 0 3