从决策树到XGBoost

ID3:最大信息增益,只能处理离散特征,只能做分类,多叉树,不能处理缺失值。
C4.5:最大信息增益率,可以对连续型变量划分分割点变为连续型变量进而进行处理,只能做分类,多叉树,可以处理缺失值。
CART:全称Classification and Regression Tree 可以做分类也可以做回归,做分类时使用Gini系数,做回归时用均方误差,二叉树,可以处理缺失值。

对于ID3,多叉树的生成:
step 1: 求出数据集的经验熵
step 2: 求出每个特征的经验条件熵
step 3: 经验熵 - 经验条件熵 = 信息增益
step 4: 找到具有最大信息增益的特征,该特征有几个类别,就生成几叉树
step 5: 在生成第一层树的基础上重复1-4步。
step 6: 这样下去的话存在三个停止分裂的条件:1 子节点中的样本属于同一类 2 子节点中没有样本了 3 特征用完了
step 7: 停止分裂时,对应的就是叶子节点了,取叶子节点里概率最大的类别为最终的类别
step 8: 预测时,从根节点开始,从上至下遍历,直到叶子节点,预测类别即为叶子节点的值。
补充:要想得到预测概率的话对于叶子节点中,每个类别的占比就是预测的概率。
来源于官方文档:
The class probability of a single tree is the fraction of samples of the same class in a leaf.

对于CART 二叉树的生成:
与ID3不同的逻辑在于:它是遍历样本中每个特征的每一个值,按照该值把样本分为左右两个分支,以回归为例就是分别计算两边集合的mse,找到两边mse之和最小的那个分割点。由此就得到了 最佳分裂特征和最佳分割点。回归时叶子节点的输出是叶子节点中真实值的平均值。

GBDT的基学习器都是CART回归树。做分类用的也是回归树。
GBDT拟合的是负梯度。对于回归比较好理解,计算均方误差后,求导即是负梯度。
对于分类问题,二分类的话,计算logloss。多分类的话,计算softmax。

XGBoost与GBDT的迭代方面的区别在于:XGBoost本质上不是靠拟合上一轮的残差进行迭代的,它其实有自己的一套Gain分裂方式。可以理解为XGB每一轮并不需要去拟合值,而是根据xgb特有的gain构造树结构。


image.png

XGBoost为什么要进行二阶泰勒展开:
xgb是用到了loss 在当前模型下的 1-2阶梯度,目的是为了近似表示loss,这样可以求得解析解,求得Gain,生成树。如果不求二阶导的话 很多损失函数没法求导进而推导出Gain。
换句话说:xgboost官网上说,用泰勒级数展开是因为损失函数的梯度并不总是容易求得。方便实现应该是最直接的原因。

此外有种说法二阶展开可以带来效果的提升:
二阶信息本身就能让梯度收敛更快更准确。可以简单认为一阶导指引梯度方向,二阶导指引梯度方向如何变化。


image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,193评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,306评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,130评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,110评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,118评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,085评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,007评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,844评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,283评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,508评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,667评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,395评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,985评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,630评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,797评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,653评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,553评论 2 352

推荐阅读更多精彩内容

  • 1.引子 XGBoost在机器学习领域可谓风光无限,作为从学术界来的模范生,帮助工业界解决了许多实际问题,真可...
    散落一地的蓝阅读 3,517评论 1 28
  • 一. 信息论 1. 熵(entropy) (1)熵:随机变量 不确定性 的 度量 (2)数据:信息+噪音 ①信息:...
    夜猫子丶CC阅读 569评论 0 0
  • 一. cart决策树简述 我们知道决策树算法有ID3、C4.5和cart三种,ID3和C4.5是基于信息增益和信息...
    本熊本阅读 1,607评论 0 0
  • 一、决策树 决策树(decision tree)是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征...
    anchord阅读 515评论 0 4
  • 一、决策树应用体验 分类   从上面可以看出,决策树对分类具有线性回归无可比拟的优势, 如果对未参与训练的数据集是...
    杨强AT南京阅读 1,248评论 1 3