机器学习14 XGBoost

这一篇开始介绍XGBoost。

和GBDT不同, XGBoost不仅仅使用了一阶梯度, 还使用了二阶梯度。同时增加了正则化。

第m步的损失函数:

L = \sum_{i=1}^n(y_i, F_m(x_i))+\sum_{i=1}^m\Omega (f_i) = \sum_{i=1}^n(y_i, F_{m-1}(x_i) +f_m(x_i))+\Omega (f_m)  +C

\Omega (f_m)是第m棵树的复杂度,C是前m-1棵树的复杂度之和, 对第m棵树的学习没有影响, 所以是常数。

同GBDT,我们把损失函数第一部分泰勒展开,但这次保留前两项,即

L(y, F_m(x)) = L(y,F_{m-1}(x)) +f_m(x)\frac{\partial L(y,X)}{\partial X}_{|X=F_{m-1}(x)} + \frac{1}{2}f_m(x)\frac{\partial ^2  L(y,X)}{\partial ^2 X}_{|X=F_{m-1}(x)} +\Omega (f_m)  +C

定义g_i = \frac{\partial L(y_i, F_{m-1}(x_i))}{\partial F_{m-1}(x_i)}h_i = \frac{\partial ^2 L(y_i, F_{m-1}(x_i))}{\partial ^2 F_{m-1}(x_i)}

针对不同的场合, 选择不同的损失函数即可, 例如回归问题可以使用MSE,分类问题可以用对数似然。

其中,\Omega(f) = \gamma T +\frac{1}{2}\lambda\sum_{j=1}^Tw_j^2\gamma是对叶子节点个数的惩罚系数, \lambda是对参数的惩罚系数

同GBDT一样, 我们可以把每一个基模型,写成f_m(x_i) = w_{q(x_i)}  , w_{q(x_i)}x_i属于的叶子结点的输出值

现在我们的优化问题变成了 

 \mathop{argmin}_{f}\sum_{x_i} [g_iw_{q(x_i)} +\frac{1}{2}h_iw_{q(x_i)}^2] +\gamma T + \frac{1}{2}\lambda \sum_{j=1}^Tw_{j}^2

=\sum_{j=1}^T[(\sum_{i\in I_j}g_i)w_j +\frac{1}{2}(\sum_{i\in I_j}h_i +\lambda)w_j^2] + \gamma T = \sum_{j=1}^T[G_jw_j + \frac{1}{2}(H_j+\lambda)w_j^2] +\gamma T

对于一个已经学习了m-1步的模型,我们可以求出每一个样本的g_i,h_i,所以对一个特定的树结构, 所有的G_j, H_j,都是确定的

显而易见,当结构确定时,每个叶子节点的输出应该是w_j^* = -\frac{G_j}{H_j+\lambda}

现在我们假设只有一个样本在这个叶子上,即w_j^* = \frac{1}{h_j+\lambda}*(-g_j)

如果h越大,说明该点附近梯度波动越大,所以我们就需要较小的学习率,还是比较直观的。


现在我们来说一下基模型的学习情况,

当前节点不分裂的时候, 把w_j^* 带入损失函数,得到 -\frac{1}{2}\sum_{j=1}^T\frac{G_j^2}{H_j +\lambda} +\gamma T 

若该节点分成两个节点, 损失函数变成了

两式相减,得到 -\frac{1}{2}[\frac{G_l^2}{H_l+\lambda} +\frac{G_r^2}{H_r+\lambda}] +\gamma(T+1)

两式相减,得到Gain = \frac{1}{2}[\frac{G_l^2}{H_l+\lambda} +\frac{G_r^2}{H_r+\lambda} - \frac{(G_l +G_r)^2}{H_l+H_r+\lambda}] - \lambda

可以由Gain的正负情况判断需不需要继续分裂。


接下来说一下XGBoost是如何找分裂特征和分裂点的,GBDT优化的时候是贪心遍历所有特征及分裂点,非常消耗时间

XGBoost可以通过加权分位数的算法选出每个特征可能的分裂点,减小搜索次数

r_k(z) = \frac{1}{\sum_{(x,h)\in D_k}h}\sum_{(x,h)\in D_k, x_k<z}h

上式表示特征值k小于z的样本的加权分位数,确定分割的百分位数,例如5%一个分裂点,则就是20个分割点,即可实现寻找特征分割点的优化。

关于这边为什么可以用h作为权重,可以将目标函数变形称为

\sum_{i=1}^N \frac{1}{2}h_i(f_m(x_i) + \frac{g_i}{h_i})^2 +\Omega(f_m) + C, 所以每个样本的权重跟自身的h有关。


XGBoost的介绍暂时就到这边,如果想到什么会继续补充。

转载请注明,谢谢。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,686评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,668评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,160评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,736评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,847评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,043评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,129评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,872评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,318评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,645评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,777评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,470评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,126评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,861评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,095评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,589评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,687评论 2 351