【论文笔记2019-04-10】Libra R-CNN: Towards Balanced Learning for Object Detection

网络优化

        不平衡问题妨碍了充分利用设计良好的架构,进而限制其总体性能。可概括如下:

        1. 采样级的不平衡:随机采样会使所选样本受简单样本的支配;复杂采样方法,如OHEM,会使注意力更向复杂样本集中,但是却对噪声标签敏感,并且会提升内存的占用和计算量。

        2. 特征级的不平衡:深度高水平的特征具有更多语义,而浅层低水平特征更容易描述。近年来,基于横向连接的特征整合如FPN和PANet的使用,使得目标检测获得了进步。 也就是说对于目标检测来说,深层特征和浅层特征存在互补性。如何利用它们集成金字塔表示的方法决定了检测性能。整合的特征应该拥有来自每个分辨率的平衡信息。但是,上述方法中的顺序方式将使集成特性更多地关注相邻分辨率,而较少关注其他分辨率。非相邻层次中包含的语义信息在信息流中每次融合都会被稀释一次。

        3. 目标级的不同衡:检测器需要完成两个任务:分类和定位。这两个任务在训练的时候目的并不统一。如果不能平衡这一现象,就可能牺牲一个任务,导致次优解。在训练过程中,对涉及的样本来说也一样。如果平衡不好的话,简单样本产生的小梯度可能被复杂样本的大梯度所淹没,进而限制进一步的优化。


Libra R-CNN 总览(a)IoU平衡采样 (b) 平衡特征金字塔  (c)平衡L1损失

本文提出Libra R-CNN, 可以简洁而友好地解决上述问题。本框架集成了三个部分:

(1)    IoU平衡采样: which mines hard samples according to their IoU with assigned ground-truth。 IoU等于基准框和预测框重叠的部分的面积除以两者结合起来部分的面积

    假设需要从M个待选样本之中,采样N个负样本。随机采样每个样本被选中的概率为p=\frac{N}{M}。为了增加复杂负样本被选中的概率,根据IoU将采样区间平均分为K份,需要的N个样本名额将平均在K个子区间中产生。然后再依据正态分布选择。那么在IoU平衡下,每个样本被选中的概率为p_k=\frac{N}{K}*\frac{1}{M_k},k\in [0,K),M_k是对应第k个子区间内的待选样本数。

2)平衡特征金字塔:根据相同的深度整合语义特征加强对层次的特征。包括四步,rescaling, integrating, refining and strengthening。

        获取平衡语义特征:l分辨率的特征用C_l表示,多层次特征数为L。最低和最高特征的索引分别为l_{min}l_{max}。为了整合多层次特征,并且同时保持每层的语义特征,首先将多层次特征{C_2,C_3,C_4,C_5}转换到中间尺寸下,可以分别采用插值和最大池化方法。然后,通过简单平均计算平衡语义特征,C=\frac{1}{L}\sum_{l=l_{min}}^{l_{max}}C_l

平衡特征金字塔流程

        改善平衡语义特征:直接卷积和非局部模块都比较好,但是非局部模块更稳定。因此,使用嵌入式高斯非局部注意力模块。使用这种方法, 高层次到低层次特征同时被聚合起来。输出{P_2,P_3,P_4,P_5}之后用来做目标检测。可以和FPN流程一样。

3)平衡L1损失:产生关键梯度,来平衡涉及的分类和总体定位问题,并且精确定位。

        自从Fast R-CNN 以来,基于多任务损失函数,可以同时解决分类问题和定位问题。

                                 L_{p,u,t^u,v}=L_{cls}(p,u)+\lambda[u\geq 1]L_{loc}(t^u,v)

        平衡L1损失由卷积平滑L1损失中获得。主要思想是凸显关键的回归梯度来重新涉及的样本和任务。

                                        L_{loc}=\sum_{i \in \{x,y,w,h\}}L_b(t^u_i-v_i)

                                           \frac{\partial L_{loc}}{\partial w}\propto \frac{\partial L_b}{\partial t^u_i} \propto \frac{\partial L_b}{\partial x}

           根据上式,设计了梯度公式,

                               \frac{\partial L_b}{\partial x}=   \begin{cases}   \alpha \ln(b \vert x \vert +1)      & \quad \text{if } \vert x \vert <1\\   \gamma  & \quad \text{otherwise}   \end{cases}


图五显示,受alpha控制,平衡L1损失增加了inliers的梯度。小alpha使得inliers梯度显著增加,但是outliers梯度则不受影响。gamma用来限制回归上界,以避免误差。

最终,

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,752评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,100评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,244评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,099评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,210评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,307评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,346评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,133评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,546评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,849评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,019评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,702评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,331评论 3 319
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,030评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,260评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,871评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,898评论 2 351

推荐阅读更多精彩内容