GBDT

GBDT是通过采用加法模型(即基函数的线性组合),不断减小训练过程产生的残差来达到将数据分类或者回归的算法

GBDT是类似于梯度下降的思想,只不过寻找的不是最优参数而是最优函数F,每次将损失函数对F求偏导得到负梯度,通过拟合这个负梯度使得损失函数最小化

GBDT通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类器的残差基础上进行训练,弱分类器一般选择CART树,但是每个分类回归树的深度不会很深,最终的总分类器是将每轮训练得到的弱分类器加权求和得到的

通过经验风险最小化来确定下一个弱分类器的参数。我们希望损失函数能够不断地下降并且尽可能快的下降。如何尽可能快的下降呢?就是让损失函数沿着梯度方向下降,利用损失函数的负梯度在当前模型中的值作为回归问题提升树算法中的残差的近似值去拟合一个回归树,这样GBDT每轮迭代的时候,都去拟合损失函数在当前模型下的负梯度。这样每轮训练的时候都能让损失函数尽可能快的减小,尽快的收敛达到局部最优解或者全局最优解

与AdaBoost算法不同,梯度提升方法在迭代的每一步构建一个能够沿着梯度最陡的方向降低损失(steepest-descent)的学习器来弥补已有模型的不足。经典的AdaBoost算法只能处理采用指数损失函数的二分类学习任务[2],而梯度提升方法通过设置不同的可微损失函数可以处理各类学习任务(多分类、回归、Ranking等),应用范围大大扩展。

平方损失函数的一阶导(也就是梯度)正好等于负的残差

存在问题:会对异常值过于敏感,所以一般回归类的损失函数会用绝对损失函数或者huber损失函数来代替平方损失函数

为什么梯度提升方法倾向于选择决策树(通常是CART树)作为基学习器呢?这与决策树算法自身的优点有很大的关系。决策树可以认为是if-then规则的集合,易于理解,可解释性强,预测速度快。同时,决策树算法相比于其他的算法需要更少的特征工程,比如可以不用做特征标准化,可以很好的处理字段缺失的数据,也可以不用关心特征间是否相互依赖等。决策树能够自动组合多个特征,它可以毫无压力地处理特征间的交互关系并且是非参数化的,因此你不必担心异常值或者数据是否线性可分(举个例子,决策树能轻松处理好类别A在某个特征维度x的末端,类别B在中间,然后类别A又出现在特征维度x前端的情况)。不过,单独使用决策树算法时,有容易过拟合缺点。所幸的是,通过各种方法,抑制决策树的复杂性,降低单颗决策树的拟合能力,再通过梯度提升的方法集成多个决策树,最终能够很好的解决过拟合的问题。

回归问题提升树用的是下列前向分步算法:

\begin{array}{l}{f_{0}(x)=0} \\ {f_{m}(x)=f_{m-1}(x)+T\left(x ; \Theta_{m}\right), \quad m=1,2, \cdots, M} \\ {f_{M}(x)=\sum_{m=1}^{M} T\left(x ; \Theta_{m}\right)}\end{array}

在分布算法的第 m 步,给定当前模型f_{m-1}(x) ,需求解:\hat{\Theta}_{m}=\arg \min _{\Theta_{m}} \sum_{i=1}^{N} L\left(y_{i}, f_{m-1}\left(x_{i}\right)+T\left(x_{i} ; \Theta_{m}\right)\right)

当采用平方损失函数时,L(y,f(x))=(y-f(x))^2

损失变为:\begin{array}{l}{L\left(y, f_{m-1}(x)+T\left(x ; \Theta_{m}\right)\right)} \\ {=\left[y-f_{m-1}(x)-T\left(x ; \Theta_{m}\right)\right]^{2}} \\ {\quad=\left[r-T\left(x ; \Theta_{m}\right)\right]^{2}}\end{array} 这里 r 就是残差

Adaboost, GBDT 与 XGBoost 的区别 - 杜博亚的文章 - 知乎

GBDT 就是用回归树拟合残差,当损失函数是平方损失函数时,用回归树拟合残差就是用回归树拟合负梯度,实际上是在通过梯度下降法对模型参数进行更新

由 K 棵cart回归树树组成的加法模型,用前向分步算法,逐步逼近优化目标函数。写出目标函数表达式。将目标损失函数看成\hat{y}_{i}^{t-1}+f_{t}\left(x_{i}\right)的函数泰勒展开。由于这里只用了一阶导,对于平方损失函数,负梯度就是残差,于是每次拟合上一个模型的残差得到新的树。这里对残差拟合其实就是通过梯度下降法对模型进行更新

  • GBDT如何选择特征

GBDT的分类器默认是CART树,当然也可以用其他基分类器。所以GBDT选择特征的方法就是就是CART回归树生成的过程。即每次遍历所有特征和所有切分点来找到最优特征的最优切分点

  • 如何利用GBDT构建特征

GBDT本身不能产生特征,但是我们可以用GBDT去构建特征的组合。LR本身适合处理线性可分的数据,如果想让LR处理非线性的数据,一种方式是组合不同特征,增强LR对非线性分布的拟合能力。但是使用人工j经验知识来组合特征过于耗费能力,所以facebook提出了利用GBDT产生有效的特征组合,以便于LR的训练,提升模型最终的结果

GBDT参数

弱学习器数量、树的最大深度、最大叶子节点数、学习率、划分时考虑的最大特征数

GBDT步长?

在梯度下降算法中,需要用步长确定梯度下降的速度,步长是自己指定的,在GBDT算法中用到的梯度下降,步长是通过计算得到的。计算的规则是使得到的新学习器 损失函数值最小数

GBDTshrinkage

Shrinkage是GBDT的第三个基本概念,中文含义为“缩减”。它的基本思想就是:每次走一小步逐渐逼近结果的效果,要比每次迈一大步很快逼近结果的方式更容易避免过拟合。换句话说缩减思想不完全信任每一个棵残差树,它认为每棵树只学到了真理的一小部分,累加的时候只累加一小部分,只有通过多学几棵树才能弥补不足。

Shrinkage仍然以残差作为学习目标,但由于它采用的是逐步逼近目标的方式,导致各个树的残差是渐变的而不是陡变的。之所以这样做也是基于模型过拟合的考虑

GBDT中哪些部分可以并行

1.计算每个样本的负梯度

2.分裂选择最佳特征及其分割点的时候,对特征计算相对应的误差及均值

3.更新每个样本的负梯度

4.最后预测过程中,每个样本将之前的所有树的结果累加的时候

GBDT无论用于回归还是分类都是使用CART回归树,在多分类问题中,假如是三分类,则在这一轮训练时其实是同时训练三棵树

GBDT算法用于分类问题 - hunter7z的文章 - 知乎
https://zhuanlan.zhihu.com/p/46445201

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,753评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,668评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,090评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,010评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,054评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,806评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,484评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,380评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,873评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,021评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,158评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,838评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,499评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,044评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,159评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,449评论 3 374
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,136评论 2 356

推荐阅读更多精彩内容