决策树的理解与应用

背景

决策树🌲是一种基本的分类和回归的方法【以前总是下意识以为决策树只能用于分类,事实上还可以用于回归】。在分类问题中,决策树基于特征对实例进行分类,这个分类过程可以认为是if-then的规则集合,也可以认为是特征空间与类空间上的条件概率分布。

NOTE:
if—then规则集合具有一个重要的特征:互斥且完备,即每个实例都被一条路径或者一条规则所覆盖,而且只能被一条路径或一条规则所覆盖

优点:简单易理解、分类速度快

过程:利用损失函数最小化原则对训练集进行建模,再利用建立好的模型进行分类。决策树的学习算法通常是递归地选择最优特征,并根据特征对训练集进行分割,最终形成从【根结点->叶子结点】的树模型,但是这样生成的树可以容易发生过拟合,所以需要自底向上修剪✋

决策树学习包括三个步骤:特征选择、决策树生成、决策树修剪
1.当特征数量较多时,在学习之前先进行特征选择
2.决策树生成对应局部最优
3.决策树修剪对应全局最优

目标:选择一个与训练数据矛盾较小的决策树,同时具有很好的泛化能力。


特征选择

通常,特征选择的准则是信息增益或者信息增益比

先介绍基本概念:


  1. 熵用来表示随机变量不确定的程度,熵越大,不确定程度越大。
    X是一个取有限值的随机变量,概率分布为P(X=x_i)=p_i,i=1,2,...,n
    那么熵定义为:
    H(X)=-\sum_{i=1}^{n}p_ilogp_i,i=1,2,...,n
    NOTE:
    熵只依赖X的分布,与X的取值无关,定义0log0=0

  2. 条件熵
    条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性。
    定义为:H(Y|X)=\sum_{i=1}^{n}P(X=x_i)H(Y|X=x_i),i=1,2,...,n

  3. 经验熵和经验条件熵
    当熵和条件熵中的概率是由数据估计而得到的,所对应的熵和条件熵被称为经验熵和经验条件熵

  4. 信息增益
    特征A对训练集D的信息增益g(D,A),定义为集合D的经验熵与在给定条件AD的经验条件熵H(D|A)之差,即
    g(D,A)=H(D)-H(D|A)
    特征选择过程:对训练集计算每个特征的信息增益,并比较信息增益的大小,选择信息增益最大是特征。
    算法:
    INPUT:训练数据集D和特征A
    OUTPUT:特征A对训练数据D的信息增益g(D,A)
    计算数据集D的经验熵**
    H(D)=-\sum_{k=1}^{K}\frac{|C_k|}{|D|}log_2\frac{|C_k|}{|D|}
    计算特征A对训练数据D的经验条件熵H(D|A):**
    H(D|A)=\sum_{i=1}^{n}\frac{|D_i|}{|D|}H(D_i)=-\sum_{i=1}^{n}\frac{|D_i|}{|D|}\sum_{k=1}^{K}\frac{|D_{ik}|}{|D_i|}log_2\frac{|D_{ik}|}{|D_i|}
    计算信息增益**
    g(D,A)=H(D)-H(D|A)

  5. 信息增益比
    由于以信息增益进行选择,那么会趋于选择取值较多的特征,所以提出使用信息增益比。
    信息增益比定义为:其信息增益g(D,A)与训练集D关于特征A的值的熵H_A(D),即
    g_R(D,A)=\frac{g(D,A)}{H_A(D)}
    其中{H_A(D)}=-\sum_{i=1}^{n}\frac{|D_i|}{|D|}log_2\frac{|D_i|}{|D|}n是特征值A的个数。

决策树生成

  1. ID3算法
    核心:在决策树各个结点上应用信息增益准则选择特征,然后递归地构建决策树。
    过程:从根结点开始,对结点计算所有可能的特征的信息增益,选择信息增益最大的特征作为结点的特征,由该特征的不同取值建立子结点,再对子结点递归地调用以上方法,构建决策树,直到所有的特征信息增益均很小或者没有特征可以选择为止。
    ID3相当于用极大似然法进行概率模型的选择
    NOTE:
    由于ID3算法只有树的生成,所以生成的树模型容易产生过拟合现象。

  2. C4.5算法
    过程与ID3相似,只是对ID3进行了改进,使用信息增益比来选择特征。


决策树剪枝

决策树的生成过程仅考虑到对训练数据集分类的准确性,这样生成的树模型容易出现过拟合且构建的树过于复杂,所以有必要对其进行剪枝。

剪枝:从已生成的树上裁掉一些子树或者叶结点,并将其根结点或者父结点作为新的叶结点,从而简化分类树模型。剪枝往往是通过极小化决策树的整体损失函数来实现的

定义损失函数
设树T的叶结点个数为|T|,t是树的叶结点,该叶结点有N_t个样本点,其中k类的样本点有N_{tk},k=1,2,...,K,其中H_t(T)是叶子结点t的经验熵,\alpha\geq 0为参数,决策树学习的损失函数为:
C_a(T)=\sum_{t=1}^{|T|}N_tH_t(T)+\alpha|T|
其中H_t(T)=-\sum_{k=1}^{K}\frac{N_{tk}}{N_t}log\frac{N_{tk}}{N_t}
所以最终的损失函数表示为:
C_a(T)=-\sum_{t=1}^{|T|}\sum_{k=1}^{K}N_{tk}log\frac{N_{tk}}{N_t}+\alpha|T|

公式解释:-\sum_{t=1}^{|T|}\sum_{k=1}^{K}N_{tk}log\frac{N_{tk}}{N_t}是表示模型对训练集的预测误差,即模型与训练集的拟合程度,|T|表示模型的复杂度,叶子节点数越大模型越复杂,\alpha是调节参数,控制模型的拟合和复杂程度。
\alpha确定时,选择损失函数最小的模型,这里定义的损失函数其实等价于正则化的极大似然估计。

算法:
INPUT: 生成算法产生的整个树T,参数\alpha
OUPUT: 修剪后的子树T_a
1.计算每个结点的经验熵
2.递归地从树的叶结点向上回缩
回缩前后整体树的损失函数比较,如果回缩前的损失函数大于回缩后,进行剪枝。
3.重复2,直到不能继续为止,得到损失函数最小的子树T_a


python 代码实现


后期加入


总结:决策树是一种简单快速的分类算法,本文不仅把熵相关的概念给整理了一遍,文中信息增益和信息增益比也可以用于其他模型的特征选择,而最后剪枝部分提到的决策树的损失函数是我之前在专门写的《详述机器学习中的损失函数》博客中没有提到的,这里也是一个补充。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,456评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,370评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,337评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,583评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,596评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,572评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,936评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,595评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,850评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,601评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,685评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,371评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,951评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,934评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,167评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,636评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,411评论 2 342