机器学习Decision Tree

    研究了一个星期多的DecisionTree,简单的做一下记录。

    决策树的目的是为了产生一颗泛化能力强,处理未见实例强的决策树,基本流程就是分治。

    下面是决策树学习的基本算法(参考南京大学机器学习周志华教授课件):


决策树算法

    主要讲解一下ID3决策树,ID3是通过information entropy or Gini计算最大样本信息增益,之后对样本通过该特征进行划分,以此递归形成决策树。

    递归的三种终止方式:1:信息增益为负,2:所有样本的特征值都相同,3:所有样本属性相同。

    information entropy的计算方式(参考南京大学机器学习课件):


entropy

Gini计算方式(参考南京大学机器学习课件):


Gini

    两个计算方式同样都是结果越小,样本纯度越高,信息增益是对样本进行划分之后,对新结点的熵或基尼不纯度赋予权重之后想加,和原来的进行比较。看增益是多少。

    信息增益计算方式(参考南京大学机器学习课件):


信息增益

信息增益率(参考南京大学机器学习课件):


信息增益率

    由此两个增益公式可以得到一个启发式:通过信息增益高于平均水平的,找到信息增益率最高的最为分割数据的特征属性。

    之后就可以通过不断递归样本,进行决策树的构建。

    由于决策树会对样本进行充分的训练,很有可能生成的决策树对样本出现过拟合的情况,所以要对决策树进行剪枝处理:

    剪枝主要是通过合并子节点来计算预测准确率有没有提升,如果有提升,就舍弃子节点,合并到一个节点上,具体的剪枝方式有预剪枝和后剪枝。

    预剪枝:在构建决策树的时候,从头部开始进行测试,是不是要剪枝

    后剪枝:构建完成之后,从子叶结点往根部开始进行测试,是不是要剪枝

    当然为了避免过拟合,还可以对决策树进行超参数的规划。不过这样做会增加决策树欠拟合的风险,不过可以通过GridsearchCV来测量最佳的超参数规划方式,达到最佳的预测效果。

     一般在构建决策树的时候,要对样本进行离散化处理,就是通常说的哑变量计算。主要是为了将那些不回归的数据离散化之后,容易Building。但是对于哪些连续性数据,就没办法进行离散化处理了,因为无法对其进行维度的提升。

    处理方式为:取两个临近值的中值对数据分割为两部分,之后进行类似于回归算法一样的计算。

    但是还有一部分数据是缺失的,对于缺失数据:如果样本量超级大,缺失量超级小,那么缺失数据可以忽略不计,因为可能出现重复数据。但是如果缺失量很大,或者说缺失了非常重要的特征属性,那么还是建议联系DBA把丢失的数据找回来,或者可以在数据由有缺失的时候,计算到缺失列了,将剩下的特征值按照决策树子节点数据量的权重对其进行加权,然后分别怼入子节点。

    如果样本不大,可以在构建之前对数据进行预分类,可以让决策树加速构建。但是样本如果很大,就不建议对其进行预分类了,因为预分类所消耗的时间,比加速节省的时间还要大。

    以上是对分类问题的决策树构建

    对于回归问题

    主要是计算Mean Square Error将样本通过方差最小的方式进行划分。

    之后将怼入到叶子叶结点的数据求平均值。




参考文献:

[1]Aurelien Geron.hands-On Machine learning with Scikit-Learn & TensorFlow[learning ].南京大学出版社,2017-10:167-179.

[2]周志华.机器学习[learning].清华大学出版社,2016-01:73-95.

[3]Toby Segaran.集体智慧编程[learning].电子工业出版社,2015-03:142-165.

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容

  • 一.朴素贝叶斯 1.分类理论 朴素贝叶斯是一种基于贝叶斯定理和特征条件独立性假设的多分类的机器学习方法,所...
    wlj1107阅读 3,070评论 0 5
  • 决策树理论在决策树理论中,有这样一句话,“用较少的东西,照样可以做很好的事情。越是小的决策树,越优于大的决策树”。...
    制杖灶灶阅读 5,820评论 0 25
  • 机器学习 经验 数据 数据中产生模型model 的算法 学习算法 learning algorithm 数据集 d...
    时待吾阅读 3,956评论 0 3
  • 积跬步以致千里,积怠惰以致深渊 注:本篇文章在整理时主要参考了 周志华 的《机器学习》。 主要内容 决策树是机器学...
    指尖上的魔术师阅读 1,366评论 0 5
  • 孩子已经进入复习阶段了,我不知道该怎样辅导孩子,一味地让孩子做题,就是觉得题做多了,自然就会了,殊不知不但目的没达...
    史响庆阅读 179评论 0 0