LightGbm Paper Review

LightGBM

首先拉出来LGBM的改进对象,XGBoost

     优点:

  • 利用了二阶梯度来对节点划分,相对其他GBM,精度有所提高
  • 利用了局部近似优化对分裂节点的贪心算法,取适当的eps,可以保持算法的性能且提高运算速度
  • 在损失函数中引入了L1,L2,控制复杂度,提高模型的鲁棒性
  • 权值收缩,特征下采样等手段
    缺点:
  • 基于数值Pre-Sorted,因此不能处理类别特征,时间复杂度高
  • 需要Pre-Sorted,耗内存(2 * data * features)
  • 数据分割点上,由于XGB对不同的数据特征使用Pre-Sorted算法,但是不同的特征的排序是不同的,所以分裂时需要对每个特征单独做依次分割,遍历次数 = data * features 来将数据分裂到左右子节点(尽管使用了局部近似,但是处理粒度还是过细)
  • 由于Pre-Sorted,所以在寻找特征分裂点(level-wise,XGB的生长策略为广度优先)时,产生大量的cache
针对以上的缺点,LGBM提出改进
  • 基于Histogram(直方图)来代替Pre-Sorted 所构建的数据结构
  • 基于Hist,对于连续性特征将其类别化(Bundle)K类,然后根据直方图离散值统计,寻找最佳分割点
  • 利用GOSS(Gradient- based One-Side Sampling,梯度单边采样)来做采样算法
  • 使用EFB(Exclusive Feature Bundling,独立特征合并)来预处理稀疏数据
1、Histogram Algorithm

     Pre-Sorted需要保存每一个特征的排序结构,所以要存储 2 * Features * Data * 4Bytes,而Hist 只需要保存离散值bin value,且不用存原始数据,Data * Features * 1Byte。
     对于且子节点相对应的Feature histogram 时,只需要构造一个子节点的Feature Histogram,另外一个子节点的Histogram 用父节点减去刚构造出来的即可。


Histogram Algorithm
2、GOSS(Gradient-based One-Side Sampling)

     根据样本某一个特征上的单梯度作为样本的权值进行训练。
1)选择前a%个较大梯度的值作为大梯度值的训练样本
2)从剩余的1-a%个较小梯度的值中,随机选择b%个作为小梯度值得训练样本
3)对于较小梯度的样本,即b%(1-a%)samples ,在计算信息增益时将其放大(1-a)/b倍
总结:a%samples + b%(1-a%)*samples 作为训练样本

GOSS Algorithm

3、EFB(Exclusive Feature Bundling)

高维数据往往具有很强的稀疏性,提出EFB方法来解决高维数据稀疏问题。

Greedy Bundling

贪心算法,将如何确定哪些特征用于融合的问题转化为一个图着色算法,构建一个以feature为图中的点(V),以feature 之间的总冲突为图中的边(E)。
(这里的冲突值是不是Feature之间的Corr?)
首先按照对每个点(feature)做降序,然后将特征合并到冲突数小于K的Bundle或者新建另外一个Bundle,复杂度O(Feature^2)。
Merge Exclusive Features

然后通过Algo4对Bundle中的特征进行融合。
由于每一个Bundle中的特征数量是不同的,所以要重新构建合并Bundle Feature 的Range,在第一个For循环中,记录每个Feature与之前Features累积的TotalRange。
在第二个For循环中,根据之前的binRanges重新计算出新的BinValue(F[j]bin[i]+binRanges[j]),保证Feature之间的值不会冲突,这是对于稀疏矩阵进行优化,由于之前GreedyBundling 算法对Features 进行冲突检查确保Bundle内特征冲突尽可能少,所以特征之间的非0元素不会有太多的冲突。
          Data.Shape= Samples*bundles, s.t. bundles << features

4、Leaf - Wise(Best - First) Tress Growth

     LGB 对于树的生长使用的是Leaf - Wise,而不是XGB的Level-Wise。主要是由于LGB认为 Level-Wise 的做法会产生一些地信息增益的节点,从而浪费计算资源。(Generally, Level-Wise 有防止过拟合的作用)LGB认为Leaf-Wise 能更好的追求精度,用max_depth 控制树的高度。又Histogram和GOSS有天然的正则作用,因此LGB使用Leaf-Wise也可以取得更好的效果,且不易过拟合。
References:
     LightGBM
     XGBoost

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,367评论 6 512
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,959评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,750评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,226评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,252评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,975评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,592评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,497评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,027评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,147评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,274评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,953评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,623评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,143评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,260评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,607评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,271评论 2 358

推荐阅读更多精彩内容