机器学习14 XGBoost

这一篇开始介绍XGBoost。

和GBDT不同, XGBoost不仅仅使用了一阶梯度, 还使用了二阶梯度。同时增加了正则化。

第m步的损失函数:

L = \sum_{i=1}^n(y_i, F_m(x_i))+\sum_{i=1}^m\Omega (f_i) = \sum_{i=1}^n(y_i, F_{m-1}(x_i) +f_m(x_i))+\Omega (f_m)  +C

\Omega (f_m)是第m棵树的复杂度,C是前m-1棵树的复杂度之和, 对第m棵树的学习没有影响, 所以是常数。

同GBDT,我们把损失函数第一部分泰勒展开,但这次保留前两项,即

L(y, F_m(x)) = L(y,F_{m-1}(x)) +f_m(x)\frac{\partial L(y,X)}{\partial X}_{|X=F_{m-1}(x)} + \frac{1}{2}f_m(x)\frac{\partial ^2  L(y,X)}{\partial ^2 X}_{|X=F_{m-1}(x)} +\Omega (f_m)  +C

定义g_i = \frac{\partial L(y_i, F_{m-1}(x_i))}{\partial F_{m-1}(x_i)}h_i = \frac{\partial ^2 L(y_i, F_{m-1}(x_i))}{\partial ^2 F_{m-1}(x_i)}

针对不同的场合, 选择不同的损失函数即可, 例如回归问题可以使用MSE,分类问题可以用对数似然。

其中,\Omega(f) = \gamma T +\frac{1}{2}\lambda\sum_{j=1}^Tw_j^2\gamma是对叶子节点个数的惩罚系数, \lambda是对参数的惩罚系数

同GBDT一样, 我们可以把每一个基模型,写成f_m(x_i) = w_{q(x_i)}  , w_{q(x_i)}x_i属于的叶子结点的输出值

现在我们的优化问题变成了 

 \mathop{argmin}_{f}\sum_{x_i} [g_iw_{q(x_i)} +\frac{1}{2}h_iw_{q(x_i)}^2] +\gamma T + \frac{1}{2}\lambda \sum_{j=1}^Tw_{j}^2

=\sum_{j=1}^T[(\sum_{i\in I_j}g_i)w_j +\frac{1}{2}(\sum_{i\in I_j}h_i +\lambda)w_j^2] + \gamma T = \sum_{j=1}^T[G_jw_j + \frac{1}{2}(H_j+\lambda)w_j^2] +\gamma T

对于一个已经学习了m-1步的模型,我们可以求出每一个样本的g_i,h_i,所以对一个特定的树结构, 所有的G_j, H_j,都是确定的

显而易见,当结构确定时,每个叶子节点的输出应该是w_j^* = -\frac{G_j}{H_j+\lambda}

现在我们假设只有一个样本在这个叶子上,即w_j^* = \frac{1}{h_j+\lambda}*(-g_j)

如果h越大,说明该点附近梯度波动越大,所以我们就需要较小的学习率,还是比较直观的。


现在我们来说一下基模型的学习情况,

当前节点不分裂的时候, 把w_j^* 带入损失函数,得到 -\frac{1}{2}\sum_{j=1}^T\frac{G_j^2}{H_j +\lambda} +\gamma T 

若该节点分成两个节点, 损失函数变成了

两式相减,得到 -\frac{1}{2}[\frac{G_l^2}{H_l+\lambda} +\frac{G_r^2}{H_r+\lambda}] +\gamma(T+1)

两式相减,得到Gain = \frac{1}{2}[\frac{G_l^2}{H_l+\lambda} +\frac{G_r^2}{H_r+\lambda} - \frac{(G_l +G_r)^2}{H_l+H_r+\lambda}] - \lambda

可以由Gain的正负情况判断需不需要继续分裂。


接下来说一下XGBoost是如何找分裂特征和分裂点的,GBDT优化的时候是贪心遍历所有特征及分裂点,非常消耗时间

XGBoost可以通过加权分位数的算法选出每个特征可能的分裂点,减小搜索次数

r_k(z) = \frac{1}{\sum_{(x,h)\in D_k}h}\sum_{(x,h)\in D_k, x_k<z}h

上式表示特征值k小于z的样本的加权分位数,确定分割的百分位数,例如5%一个分裂点,则就是20个分割点,即可实现寻找特征分割点的优化。

关于这边为什么可以用h作为权重,可以将目标函数变形称为

\sum_{i=1}^N \frac{1}{2}h_i(f_m(x_i) + \frac{g_i}{h_i})^2 +\Omega(f_m) + C, 所以每个样本的权重跟自身的h有关。


XGBoost的介绍暂时就到这边,如果想到什么会继续补充。

转载请注明,谢谢。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。