Boosted Tree

作为一个非常有效的机器学习方法,Boosted Tree是数据挖掘和机器学习中最常用的算法之一。因为它效果好,对于输入要求不敏感,往往是从统计学家到数据科学家必备的工具之一,它同时也是Kaggle比赛冠军选手最常用的工具。Boosted Tree有各种马甲,比如GBDT(Gradient Boosting Decision Tree), GBRT(Gradient Boosting Regression Tree)以及MART(Multiple Additive Regression Tree)。很多介绍Boosted tree的资料都是源于Friedman的较早的一篇文章[1]。

1. 分类和回归树(CART)

图 1. CART示意图

上面就是一个CART的例子。CART会把输入根据输入的属性分配到各个叶子节点,而每个叶子节点上面都会对应一个实数分数。问题:预测一个人是否会喜欢电脑游戏。可以把叶子的分数理解为这个人喜欢电脑游戏的可能性。CART可以理解为是decision tree的一个扩展。从简单的类标到分数之后,似乎能做更多的事情了(例如概率预测或是排序)。

2. Tree ensemble

同样类比Random Forest的思想,当一棵树解决不了问题时,可以将几棵树联起来。


图2. Tree ensemble示意图

图2的例子中,我们用两棵树来进行预测。我们对于每个样本的预测结果就是每棵树预测分数的和。我们常见的随机森林和boosted tree和tree ensemble有什么关系呢?它们都是ensemble,只是构造模型参数的方法不同。

3. 模型学习

模型中的参数是什么?在tree ensemble中,参数对应了树的结构,以及每个叶子节点上面的预测分数。同样需要先定义合理的目标函数(一般会包括loss function 以及 regularizer ),然后尝试优化目标函数。对于tree ensemble,可以将模型写成为:



其中每个fk对应了一棵regression tree。

采用一种叫做additive training的方式(实际上boosting含义就是指additive training)。如每一次保留原来的模型不变,加入一个新的函数fk到我们的模型中。

图3. Additive training示意图
3.1 目标函数的定义

在图3中,如何选择每一轮加入什么样的fk呢?可以选取一个fk来使得我们的目标函数最大化的降低 。目标函数包括损失函数和正则化项。

图4. 目标函数的构成

目标函数 = 损失函数 + 正则项


目标函数
图5. 近似目标函数
3.2 树的复杂度

树的复杂度就是目标函数中的正则化项。将树拆分成结构部分q 和叶子权重部分 w 。图6是一个具体的例子。结构函数q把输入映射到叶子的索引号上面去,而w给定了每个索引号对应的叶子分数是什么,使得fk成为一种条件函数。

图6. q与w定义示意图

定义一棵树的复杂度,考虑复杂度包含了一棵树节点的个数T,以及每个树叶子节点上面输出分数w,如图7所示。

图7. 树的复杂度定义

3.3 目标函数的最终形式
将正则项代入到目标函数中,确定目标函数的最终形式为

图8. 目标函数最小值推导

现在剩下最后一个问题就是树的结构划分。通过不断地枚举不同树的结构,比较目标函数值来寻找一个最优结构的树。暴力枚举的时间开销太大,同decision tree一样采用贪心算法,每一次尝试对已有的叶子加入一个分割。这样,对于一个分割方案,我们可以获得的增益可以由如下所示。

图9. 划分后的Gain示意图
图10.叶子节点划分示意图.png

4.xgboost

xgboost是大规模并行boosted tree的工具,它是目前最快最好的开源boosted tree工具包,比常见的工具包快10倍以上。在数据科学方面,有大量kaggle选手选用它进行数据挖掘比赛,其中包括两个以上kaggle比赛的夺冠方案。在工业界规模方面,xgboost的分布式版本有广泛的可移植性,支持在YARN, MPI, Sungrid Engine等各个平台上面运行,并且保留了单机并行版本的各种优化,使得它可以很好地解决于工业界规模的问题。XGBoost 所应用的算法就是 gradient boosting decision tree,既可以用于分类也可以用于回归问题中。

应用案例:

先来用 Xgboost 做一个简单的二分类问题,以下面这个数据为例,来判断病人是否会在 5 年内患病,这个数据前 8 列是自变量,最后一列是预测值为 0 或 1。
数据描述:
https://archive.ics.uci.edu/ml/datasets/Pima+Indians+Diabetes
下载数据集,并保存为 “pima-indians-diabetes.csv“ 文件:
https://archive.ics.uci.edu/ml/machine-learning-databases/pima-indians-diabetes/pima-indians-diabetes.data

  • 基础应用
#引入 xgboost 等包
from numpy import loadtxt
from xgboost import XGBClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
#分出变量和标签
dataset = loadtxt('pima-indians-diabetes.csv', delimiter=",")
X = dataset[:,0:8]
Y = dataset[:,8]
#将数据划分为训练集(67%)和测试集(33%)
seed = 7
test_size = 0.33
X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=test_size, random_state=seed)
#xgboost 有封装好的分类器和回归器,可以直接用 XGBClassifier 建立模型
model = XGBClassifier()
model.fit(X_train, y_train)
#xgboost 的结果是样本分类的概率值
y_pred = model.predict(X_test)
predictions = [round(value) for value in y_pred]
accuracy = accuracy_score(y_test, predictions)
print("Accuracy: %.2f%%" % (accuracy * 100.0))
  • 输出特征重要度
    gradient boosting可以给出训练好的模型的特征重要性,可以提供feature selection。仅需要需要引入:from xgboost import plot_importance和前面的代码相比,就是在 fit 后面加入两行画出特征的重要性
plot_importance(model)
pyplot.show()

5. 学习资源

Tianqi Chen 的讲座:
https://www.youtube.com/watch?v=Vly8xGnNiWs&feature=youtu.be
讲义:
https://speakerdeck.com/datasciencela/tianqi-chen-xgboost-overview-and-latest-news-la-meetup-talk
入门教程:
https://xgboost.readthedocs.io/en/latest/
安装教程:
http://xgboost.readthedocs.io/en/latest/build.html
应用示例:
https://github.com/dmlc/xgboost/tree/master/demo
最好的资源当然就是项目的 Github 主页:
https://github.com/dmlc/xgboost

6. 参考文献

【1】http://machinelearningmastery.com/develop-first-xgboost-model-python-scikit-learn/
【2】https://www.zhihu.com/question/37683881
【3】Friedman J H. Greedy Function Approximation: A Gradient Boosting Machine[J]. Annals of Statistics, 2001, 29(5): 1189-1232
【4】http://www.jianshu.com/p/7e0e2d66b3d4
【5】https://xgboost.readthedocs.io/en/latest/

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,245评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,749评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,960评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,575评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,668评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,670评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,664评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,422评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,864评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,178评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,340评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,015评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,646评论 3 323
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,265评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,494评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,261评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,206评论 2 352

推荐阅读更多精彩内容