CNN系列:ResNet:图像识别的深度残差学习(Deep Residual Learning for Image Recognition)

译者按:

关于图像识别CNN 是基础,VGG和  GoogleNet 是增强版CNN,继VGG和GoogLeNet在网络深度上进行了进一步的尝试,取得了比较大的进展-网络越深效果也越好-,但也遇到了问题:       网络越深,越容易出现梯度消失,导致模型训练难度变大,出现“退化”现象,出现退化的问题,主要是由于网络深度的增加,带来的在网络训练的时候,梯度无法有效的传递到浅层网络,导致出现梯度弥散(vanishing)。BN(BatchNormalization)通过规范化输出数据来改变数据分布,是一个向前的过程来解决梯度弥散问题,而本文作者创造性提出了一种新的网络架构,通过增加skip connection(Identity Map)来直接连接浅层网络与深层网络,从而使得梯度能够很好的传递到浅层。这样resNet 可以达到惊人的150层深度且没有梯度损失,作者凭借着深度残差学习在Imagenet比赛的三个任务、以及COCO比赛的检测和分割任务上都获得了第一名。本文作者何凯明博士,2003年广东省理科高考状元,2007年清华大学毕业,2011年香港中文大学博士毕业后,加入微软亚洲研究院MSRA实习和正式入职,本文是他以第一作者身份在2016 CVPR上获得的最佳论文奖,2016年8月他离开MSRA加入了FAIR(Facebook AI Research),担任研究科学家。恰巧他和前文GoogLeNet作者贾扬清 同为 微软亚洲研究院同事

————————————————————————————————

摘要

在现有基础下,想要进一步训练更深层次的神经网络是非常困难的。我们提出了一种减轻网络训练负担的残差学习框架,这种网络比以前使用过的网络本质上层次更深。我们明确地将这层作为输入层相关的学习残差函数,而不是学习未知的函数。同时,我们提供了全面实验数据,这些数据证明残差网络更容易优化,并且可以从深度增加中大大提高精度。我们在ImageNet数据集用152 层--比VGG网络深8倍的深度来评估残差网络,但它仍具有较低的复杂度。在ImageNet测试集中,这些残差网络整体达到了3.57%的误差。该结果在2015年大规模视觉识别挑战赛分类任务中赢得了第一。此外,我们还用了100到1000层深度分析了的CIFAR-10。

对于大部分视觉识别任务,深度表示是非常重要的。仅由于极深的表示,在COCO对象检查数据时,我们就得到了近28%相关的改进。深度剩余网络是我们提交给ILSVRC和COCO2015竞赛的基础,而且在ImageNet检测任务,ImageNet定位,COCO检测和COCO分割等领域赢我们获得了第一。

简介

深度卷积神经网络在图像分类方面,引发了一系列突破。通过改变叠层的数量(深度),深度网络自然整合低/中/高水平的功能,终端到终端多层方式的分层器,和特征的“水平”都变得更加丰富。最近的证据表明网络深度是至关重要的,在挑战性的ImageNet数据集中领先结果的团队,都利用了“很深”模型,该深度为十六至三十。而且很多特殊的视觉识别任务也从深度模型中大大受益。

受到深度意义的驱使,出现了一个问题:学习更好的网络是否和叠加层数一样简单?解决该问题的一大障碍是臭名昭著的梯度爆发与消失问题,它从一开始就阻碍了收敛。然而,这个问题很大程度上被归一的初始化和中心归一层解决了,它确保几十层的网络开始用反向传播收敛随机梯度下降(SGD)。

当更深的网络能够开始融合时,暴露出了降级问题:随着网络深度的增加,精准度开始饱和(这并不令人吃惊)然后迅速下降。预料之外的是,在[11,42]中报道并且经过我们实验彻底验,证精准度的下降并不是由过度拟合造成的,而且在相配的深度模式中增加更多的层数,会造成更高的训练误差。图1展示了一个经典的实例。


图1.20层和56层“平原”网络时CIFAR-10的训练误差(左)和测试误差(右),深度网络有着更高的训练误差,并且造成测试误差。在图4也展示了图像网中类似的现象。

精准度的下降表明了,并不是所有的系统都同样容易优化。我们考虑一个较浅的体系结构和与它深度相似增加了更多层的体系结构。其中一个解决方案是建立更深层的模型:添加身份映射层,另一层则是从学习更浅的模型中拷贝的。这个构造解决方案的存在,表示应该制造一个更深层模型,该模型产生的训练误差,低于与它深度相似更浅的模型。但实验显示我们目前无法找到一个与构造解决方案一样好,或者更好的解决方案(或者无法再可行的时间内完成)。

在本论文中,介绍了一个深层次的残差学习框架来解决精准度下降问题。我们明确地让这些层适合残差映射,而不是寄希望于每一个堆叠层直接适合一个所需的底层映射。形式上,把H(x)作为所需的基本映射,让堆叠的非线性层适合另一个映射F(x):=H(x)-x。那么原映射便转化成:F(x)+x。我们假设优化剩余的映射,比优化原来未引用的映射更容易。如果身份映射是最佳的,那么将剩余的映射推为零,就比用一堆非线性层来适应身份映射更容易。

公式F(x)+x可以通过“快捷连接”前馈神经网络实现(图2)。快捷连接是那些跳过中的一层或更多层。在我们的情景中,快捷连接简单的执行身份映射,并将它们的输出添加到叠加层的输出(图2)。身份快捷连接添加既不产生额外的参数,也会增加不计算的复杂度。通过反向传播的SGD,整个网络仍然可以被训练成终端到终端,并且可以在没有修改器的情况下很容易的使用公共图书馆(例如Caffe)。

我们在ImageNet上进行了综合性的实验展示精准度下降问题,并评估我们的方法。我们发现:(1)特别深的残差网很容易优化,但深度增加时,对应的“平面”网(即简单的堆栈层)表现出更高的训练误差。(2)深度残差网络能够在大大增加深度中获得高精准度, 产生的结果本质上优于以前的网络。

相似的现象同样出现在了CIFAR-10集中,这表明了优化的难度,以及我们方法影响的不仅仅是类似于一个特定的数据集。我们在这个超过100层数据集中提出了成功的训练模型,并探讨了超过1000层的模型。

在ImageNet分层数据集中,通过极深的残差网络,我们得到了非常好的结果。152层的残差网络在ImageNet中是最深层的网络,同时相比于VGG网络仍然具有较低的复杂性。我们的集成在ImageNet测试集中有3.57%排前5的误差,并且在2015ILSVRC分类竞争中取得第一名。这种极深的陈述在其它识别任务方面也有出色的泛化性能,并带领我们进一步赢得了

第一的位置:在ILSVRC和COCO2015竞赛中的,mageNet检测,ImageNet定位,COCO检测,和COCO分割方面。这有力的证据表明,剩余的学习的原则是通用的,我们期望它适用于其它的视觉和非视觉问题。

2.相关工作

残差表示。在图像识别中,VLAD是一个象征,通过关于字典的残差向量进行编程,而且费舍尔向量可以被制定成VLAD的概率版本。它们两个对于图像检索与分类都是有效的浅表示。

对于矢量化,编码残差向量比编码原始向量更有效。

在低层次视觉和计算机图形学中,为了解决偏微分方程(PDEs),它们广泛的使用多重网格法,将系统重构成多尺度的子问题,每个子问题负责更粗和更细规模之间的残差解答。多重网格的一种替代方法是分层的基础预处理,它依赖于表示两个尺度之间的残差向量的变量。

这些收敛解法比不知道残差性质的标准解法快得多。这些方法表明,一个好的方法或预处理可以简化优化。

快捷连接。导致快捷连接的方法和理论已经被研究了很长时间。训练多层感知器早期的实践是从网络的输入到输出添加一个线性层。在[44,24]中,一些中间层直接连接到辅助分类器,来解决梯度的爆发与消失问题。论文的[39,38,31,47]提出用于中心层响应,梯度和传播误差了的方法,该方法通过快捷连接实现。在[ 44 ],一个“开始”层是由一个快捷的分支和一些更深的分支组成。

并发我们的工作,“highway network”提出了门控功能的快捷连接。这些门依赖于数据和已有的参数,而我们的身份快捷键无需参数。当一个门控的快捷方式“关闭”(接近零时),highway network中的层代表非残差函数。相反的是,我们的想法总是学习残差函数,我们的身份快捷方式从来没有关闭,而且所有的信息通过时,总是需要学习额外的残差函数。此外,highway network并没有表现出,精准度并没有随着深度的大大增加而提高(例如,超过100层)。

3深度残差学习

3.1残差学习

将H(X)假设为由几个堆叠层匹配的(不一定是整个网)基础映射,用x表示这些第一层的输入。假设多元非线性层能逼近复杂的函数2,也就相当于假设它们可以逼近残差函数,例如H(x)-x(假设输入和输出在同一规模)。因此我们非常明确的让这些层近似于残差函数,而并非期待堆叠层近似于H(x)。所以原函数变成了:F(x)+x。尽管两种形式都能逼近期望函数,但它的学习难易度可能不同。

新的构思源于反常的精准度下降问题。如我们在简介中讨论的一样,如果添加的层可以被构造为身份映射,那么一个更深度模型的训练误差,不应大于与其相应的更浅的模型训练误差。精准度下降问题表明,求解器在通过多个非线性层近似于身份映射方面有困难。随着残差学习重构,如果身份映射是最佳的方法,那么求解器可以简单地驱动多个非线性层的权重趋向于零,以便逼近身份映射。

在现实情况中,身份映射不可能是最优的,但我们的方法可能有助于事先处理该问题。如果最优函数与趋近于零映射相比更趋近于身份函数,那么与学习一个新函数相比,求解器更容易找到关于身份映射的干扰。我们通过实验展示(图7)所学到的剩余函数一般有小的响应,这表明身份映射提供了合理的预处理。


图2残差学习:一个构建模块

3.2。快捷方式的身份映射

我们对每一个堆叠层都采用残差学习,一个构建模块如图2所示。正式地说,本文构建模块定义为:

其中x和y是考虑到的层的输入和输出向量。函数F(x,{Wi})代表学习的残差函数。如图2所示有两个层,F=W2ϭ(W1x)中ϭ表示ReLU,而且消除了简化符号的偏见。F+x的操作是是由快捷连接和增加的元素智能进行的。在增加之后我门采用了第二非线性特性(例如ϭ(y)如图2)。

公式(1)中介绍的快捷连接,没有额外的参数和复杂的计算。这不仅在实践中有吸引力,它在对比平原和残差网络方面也同样重要。有着相同数量的参数,深度,宽度和计算成本时(除了可以忽略不计的元素智能的添加),我们可以对平原和残差网络进行简单的对比。

在式1中x和F的大小必须相同。如果不同(例如改变输入和输出渠道)我们可以通过快捷连接线性投影Ws来匹配维度:


我们也可以在式1中使用一个正方形矩阵Ws。但我们会通过实验表明,身份映射足以

用于解决精准度下降问题并且是非常合算的,因此只有在匹配维度时,才使用Ws。

残差函数F的形式是灵活的,本文的实验涉及一个有两层或三层(图5)或者更多层的函数F。但如果F仅仅只有单层,式1就类似于线性层:y=W1x+x,因为们没有观察的优势。

我们还注意到,虽然上面的符号为了简单起见是关于完全连接的层,但它们适用于卷积层。函数F(x,{Wi})可以代表多个卷积层。增加的元素智能在两个特征映射上通过通道对通道的方式进行。

3.3网络构架

我们测试了不同的平原和残差网络,并且观察到一致现象。为了给论述提供实例,我们描述了两个ImageNet模型如下。

平原网络。我们的平原基线(图3,中间)主要受启于VGG网理论(图3,左)。卷积层主要有3X3的过滤器并遵循两个简单的设计规则:(i)对于相同的输出特征映射大小,图层有相同数量的滤波器;(ii)如果特征映射的大小被减半,过滤器的数量增加一倍,以保持每层的时间复杂度。我们通过有一个跨度为2的卷积层,直接进行下采样。网络以一个全局平均池层和有着最温和的1000路全连接层结尾。图3(中间)中加权层的总数是34。值得注意的是,我们的模型比VGG网(图3,左)有着更少的过滤器和更低的复杂度。我们的34层基线有3.6亿个触发器(乘加),这只有vgg-19的18%(19.6亿触发器)。

残差网络。基于上面的平原网络,我们插入快捷连接(图3,右),将网络转变成其对应的残差版本。当输入,输出大小相同的时候(实心线的捷径在图3),身份快捷键(公式(1))可以直接使用。当尺寸增加时(虚线快捷键在图3)中,我们考虑了两个选项:(A)快捷方式仍然执行身份映射,用额外的零条目填充以便增加尺寸。该选项不会引入额外的参数;(B)公式(2)中的投影捷径,用于匹配尺寸(完成1×1卷积)。当快捷键以两个大小在功能地图上进行时,这两个选项进行了2跨度。

3.4 实施

我们遵循了[21,41]中的方法,实施ImageNet。图像的大小与随着[ 256,480 中]它的短边随机采样而调整,以便增大规模[ 41 ]。 224x224的结果,是从减去每个像素的平均值的图像或其水平翻转图像,中随机抽样得到的。在[ 21 ]中增强了标准色。在每一个卷积之后和激活之前,我们采用了BN算法。我们如[ 13]中一样初始化权重 ,并从零开始训练所有的平原和残差网。我们使用了一个迷你的SGD大小为256。学习率从0.1开始,并在误差稳定时分为10份,而且我们训练该模型高达60x104次迭代。我们使用重量衰减为0.0001和0.9。而不是使用传统[ 16 ]中的惯例。

测试中,为了对比我们采用标准的10-crop试验。为达到最佳效果,我们采用完全卷积形式如[ 41,13 ]中所示,并且平均多尺度大小的成绩(短侧图像的大小调整在{ 224,256,384,480,640 }中)。

4实验

4.1 Imagenet分级

我们在ImageNet 2012分类数据集中评估了我们的方法,该数据集由1000个级组成。我们在128万训练图像中训练模型,并且在50K验证图像进行了评估。测试中心报道,我们也在100k的测试图像中获得了最终结果。评估误差率在第1和第5之间。

平面网络。我们首先评估了18层和34层平原网。34层的平原网在图3(中间)中。18层平面网形式是类似。详细架构见表1。

表2显示的结果表明,较深的34层平面网具有比浅18层平面网更高的验证错误。为了揭示原因,在图4(左)中,我们比较了培训过程中的训练和验证错误。


图3。展示ImageNet网络架构。左:vgg-19模型(19.6亿触发器)作为参考。中间:一个有34个参数层的普通网络(3.6亿个触发器)。右:有34g1参数层的残差网络(3.6亿触发器)。快捷键点增加尺寸。表1显示更多细节和其他变型。

我们观察到退化问题------在整个训练过程中34层的普通网络错误更多,尽管18层普通网络的解空间是34层的一个子空间。


表1. ImageNet的构架。

我们会争论优化困难不太可能是由梯度消失问题导致的。所有的普通网络都是通过BN训练的,而这也保证了向前传播的信号有非零差异性。此外我们也要保证反向传播梯度在BN中表现出良好。所以无论是向前或是向后信号都消失了。事实上,34层的普通网络准确率更高(如表3),而这在一定的程度上也暗示了解算器。我们猜想深度普通网络可能会有指数较低的收敛率能降低训练错误。此类优化问题会在未来进行研究。


图4. ImageNet训练。细曲线指代训练错误,粗曲线指代核心部分的合理错误。左边:18层和34层的普通网络。右边:18层和34层的残差网络。在此处,残差网络和普通网络的参数一样。


表2.在ImageNet确认部分的最低错误率。

残差网络。接下来我们会18层和34层的残差网络。残差网络的框架基准线与普通网络一样,处理每一对3×3过滤器有增加快捷连接(图3,右)。在第一个比较中(表2和图4,右),所有用于增加维度的捷径和补零都用使用身份定位。所以残差网络与普通网络的参数并无区别。

我们从表2和图4中得出3个重大发现。第一,与残差学习模式相反的情况----34层网络比18层网络表现要好(2.8%左右)。更重要的是,34层残差网络比18层残差网络错误率更低,并且使用于验证数据。而这也表明退化问题能在此设置中解决且我们能从更深层次中获得准确率。

第二,与普通网络相比,34层残差网络将最低错误率降低了3.5%(如图2所示)。这一比较证实了残差网络在深度学习系统中的优越性。


表3.在ImageNet确认部分的错误率。VGG-16是基于我们自己的测试。ResNet-50/101/152基于B方案的,且只使用规划增加维度。


表4. ImageNet确认部分使用单一模式的错误率。


表5.整体错误率。

最后,我们注意到18层的普通和残差网络是比较准确的(表2),但是18层的残差网络汇集更快(图4右VS左)。当网络没有“过度重合”(如18层),当前的SGD求解程序依然可以在普通网络找到好的解决方法。在此情况下,在早期阶段通过提供更快的聚合能缓解ResNet的优化问题。

恒等式VS规划捷径。我们发现无参数和身份捷径能帮助训练。接下来我们会研究规划捷径(等式2)。在表3中我们比较了三种选择:(A)使用补零捷径增加维度,且所有的维度都无参数(如表2和图4,右);(B)使用规划捷径增加维度,而其他的捷径都是恒等式;(C)所有的捷径都是规划的。


图5.深层残差网络的在ImageNet的功能F。

表3显示三个方案就普通网络比较而言都表现得更出色。B比A表现更好。我们会怀疑这是因为A中的零填充维度不具备残差学习模式。C比B表现稍好,我们将此归功于许多(13个)设计捷径引入许多其他因素。但只有在A/B/C之间的少量不同能证明规划捷径对于解决退化问题十分关键。所以为控制记忆、时间复杂性,及模式规模,在本文的剩余部分我们不使用方案C。恒等式捷径对于不增加瓶颈的结构复杂性至关重要。

更深层次的瓶颈结构

接下来我们会描述ImageNet更深层次网络。因为鉴于我们时间有限,要改善区块,将其变成瓶颈设计。对于每一个残留功能F,我们使用3层瓶颈模式,而不是2层。这3层分别是1×1,3×3和1×1的回旋。在此范围中,所有的1×1层都用于先减少后增加(存储)量度,让3×3层的输入或是输出量度更小。图5展示了一个例子,这两个设计的时间复杂性都一样。

无参数恒等式捷径对于瓶颈的结构尤为重要。如果图5(右)中的恒等式捷径被规划所取代,我们能发现时间复杂性和模式大小都会翻倍,因为捷径是连接两个高量度端。

50层的残留网络

在34层网络结构中,我们用3层的瓶颈区块取代2层的区块,这时34层结构就会变成50层残差结构。我们使用B方案增加量度。而这一模式有38亿FLOPs。

101层和152层的残差网络模式。我们通过使用3层的瓶颈区块构建101层和152层的残差模式。让人惊讶的是,尽管深度显著增加,152层的残差模式(113亿FLOPs)复杂性较VGG-16/19网络(153/196亿FLOPs)更小。

34层的残差网络较50/101/152层更准确。我们不关注退化问题,因此更在意随着深度增加而增加的准确度。

先进方法之间的比较。在表4中,我们比较了之前单一模式所取得的最好结果。而我们34层残差网络模式准确度最高。152层ResNet模式错误率最低4.49%。而这也超过之前所有模式。我们结合6种不同深度的模式形成一种合集模式,这一模在测试中的错误率只有3.57%,让我们在ILSVRC2015中拔得头筹。

4.2 CIFAR-10和分析

我们在CIFAR-10的数据集中进行多场研究,此数据集包括50k的训练图像和10K测试图像,且这些图像都被分成了10类。我们将会展示在训练集中训练和在测试集中评估的试验。我们关注的焦点在于深层网络的行为,不在于取得最好结果,所以我们有意使用简单结构。

所有普通/残差结构都必须遵循图3 的流程。网络输入32×32的图像,但像素有所缩小。第一层是3×3回旋。接下来是6n层的3×3回旋,且特征神经网络有2n层左右大小。过滤层的数量分别是{16,32,64}。二次抽样是由跨度在2左右的回旋执行的。网络结构终止于10个完全连接层。这里总共有6n+2的权重层。下表总结了其结构构成。


但当它们都运用捷径连接时,它们就是通过3×3层连接起来。在此数据集中,我们在所有的情况下都使用恒等式捷径,所以我们残留模式有与简单模式完全一样的深度,宽度和参数数量。


图6 基于CIFAR的错误分类

我们使用了权重衰减为0.0001和冲量单位为0.9,并且在采用权值初始化和BN方法但并未输出。这些模式是在128有2个GPUs大小规模的数据中进行一次训练。我们开始的学习率是0.1,且由32k和48k迭代次数分为10类,且在64k迭代次数结束训练。我们根据简单的训练数据增大:每一边填充4像素,最后从填充的数据图像中随机选取32×32的结果。对于测试,我们只评价最初的32×32图像。

我们比较当n={3,5,7}时,20层,32层,44层和56层的网络结构。图6(左)展示的是普通网络的表现。普通网络随着深度的增加错误率也会变高。这与ImageNet和MNIST是类似的,这说明优化问题是一个基础问题。

图6向我们展示了ResNet的表现。与ImageNet类似,ResNet旨在随着深度的增加,克服优化问题和提高准确率。

我们会更加深入探讨当n=18,110层的残差网络结构。在此情况下,我们发现初始学习率为0.1对于会聚还是太高了。所以我们使用0.01的初始学习率再进行训练,直到错误率低于80%时,才使用0.1的初始值进行训练。接下来的程序如之前所述进行。110层的网络汇聚的十分好(图6中)。它比其他深度或是简单模式的参数更少,如FitNet和Highway,但是结果却是十分的优秀。


图7.在CIFAR-10上的层对于标准背离的表现。其反应是3×3层的结构输出,在BN之后和非线性之前。上:是层的原始排列。下:是按照降序的方法排列其反应。

反应分析。CIFAR-10上的层对于标准背离的表现。其反应是3×3层的结构输出,在BN之后和非线性之前。对于残差网络,这一分析反应的是残差函数的影响。图7显示ResNet通常比原始网络反应更小。这一结果证实了我们最初的想法残差函数比非残差函数更接近于零。更深层次的ResNet反应幅度更小,如图7ResNet-20,56,和100所示。随着层数的增加,ResNet的每一次会倾向于少改变信号。

超过100层的探索。我们深入探索超过1000层的深度模式。我们假设n=200,此时的网络结果超过1202层。我们的模式没有任何优化问题,103的网络结构能实现训练错误率<0.1%(图6右)。其测试错误率也十分的低(7.93%,表6)。

但是在深度模式中还是有问题。

1202层的测试结果比110层的要差,尽管两者的训练错误率差不多。我们认为是过度拟合造成的。

1202层网络系统对于如此小是数据集或许是太大了。为在此数据集中,取得较好结果有必要做重要调整如Maxout激发函数和Dropout激发函数。在本文中,我们并未使用Maxout激发函数和Dropout激发函数,仅仅只通过深度和简单结构做一些修改。但是联合更大的调整也许能取得更好的结果,这一课题我们会在未来进行研究。


图7使用更快的R-CNN标准,在PASCAL VOC 2007/2012测试集上进行目标检测。


图8使用更快的R-CNN标准,在COCO验证集中进行目标测试。

4.3 在PASCAL和MSCOCO上的目标检测

我们的模式在其他的识别任务中有较好的表现。表7和表8显示了基于PASCAL VOC 2007,2012和COCO上,目标测试结果。我们采用更快的R-CNN作为测试方法。我们对于使用ResNet取代VGG-16方法所获得的进步很感兴趣。使用两种模式所得到的方法是一样的,所以所获结果的差别在于网络结构。更令人惊讶的是,在极具挑战性的COCO数据集中,我们取得了6.0%的进步,相较而言是有28%左右的进步。这全归功于所学得的表现。

基于深度残差网络,我们赢得了ILSVRC&COCO2015比赛的冠军:图像识别,图像定位和公共图像识别和公共图像分类。详情请见附录。

附录

A.对象检测基准

在这一节中来介绍我们基于Faster R-CNN系统的检测方法。这个模型最初是用来进行Imagenet分类,然后被用于对象检测数据领域。在ILSVRC&COCO 2015检测竞赛中我们实现了ResNet-50/101。

与参考文献[32]中的VGG-16不一样,ResNet没有隐藏的fc层。我们将“卷曲特性图的神经网络”理念运用到这个问题中。将全图卷曲特性进行预算(如表1所示)。考虑到这些层级和VGG-16中的13卷曲层类似,这样ResNet和VGG-16就都有同样的跨步了(16像素)。最终的分类层被两个同级层取代。

对于BN层的使用,在训练之前我们队ImageNet的每个训练层都进行了BN统计。然后BN层在转移到物体检测时被修正了。通过这些训练,BN层变得更加线性活跃了,而且BN统计数据不会随着转移而变化。这些对BN层的修正主要是为了减少在Faster-CNN训练过程中的内存消耗。

PASCAL VOC

针对PASCAL VOC 2007数据组,我们和参考文献[7,32]中使用的方法一样,用来训练Faster R-CNN的超参数和参考文献[32]中提到的一样,表7展示的是训练结果。ResNet-101在VGG-16的基础上提高了mAP超过3%的成绩。

MS COCO

MS COCO数据组包括80种对象类别。我们使用80k图像来针对训练组,40k图像来针对预判组。RPN步态和Fast R-CNN步态都使用0.001学习率的240k迭代来进行训练,然后在0.0001学习率的80k迭代下训练。

表8展示的是MS COCO的训练结果,这些结果证明深度网络的确能提高识别和定位的效率。

B. 对象检测提升

为了追求完美,我们针对竞赛提升了性能。这些提升都是基于深度特性的,而且对残差学习有益。

MS COCO

边界改良

我们的边界改良沿用的是参考文献[6]中的迭代定位。我们将300个新的预判与原始的300个预判结合起来。边界改良大概提升了mAP2个百分点的成绩(如表9所示)。


表9

多范围测试

以上所有的结果都是在单一范围内进行训练、测试的,如参考文献[32]中提到的那样。在我们目前的训练中,我们沿用了参考文献[33]中的方法进行了多范围测试,但由于时间限制我们还没有进行多范围训练。另外,我们特别针对Fast R-CNN步态进行了多范围测试。通过模型训练,对图像椎体进行卷曲特性计算,它的短边长在s ∈ {200,400,600,800,1000}。

我们选取了椎体的两个相邻范围,结果证明多范围测试能提升mAP2个百分点的成绩。

使用确认数据

接下来我们使用80k+40k trainval数据组来进行训练,20k测试数据组来进行评估,单模型结果如表9所示。

组合

在Faster R-CNN系统里这些是分别用来学习地区方案和对象分类,如果组合在一起能把两者加速。表9展示了我们基于3中网络组合的结果,在测试开发组中mAP取得了59.0%和37.4%的成绩。

这是COCO 2015检测任务中的最佳成绩。

PASCAL VOC

基于上面的模型我们对PASCAL VOC数据组进行了测试,根据之前的经验我们进行了少许调整,结果是我们在PASCAL VOC 2007上取得了了85.6%mAP的成绩(表10),在PASCAL VOC 2012上取得了83.8%mAP成绩(表11)。在PASCAL VOC 2012上获得的成绩比目前最佳成绩还要好10%。

表10


表11

ImageNet检测

ImageNet检测任务包括200个对象类别。我们使用的对象检测算法和在MS COCO中的相同(表9)。在DET测试组上,单一ResNet-101模型取得了58.9%的成绩,3个组合模型取得了62.1%的成绩(表12)。

这是ILSVRC 2015中ImageNet检测任务的最佳成绩。


表12

C.ImageNet定位

Imagenet定位(LOC)任务要求对物体分类再进行定位。根据参考文献[40,41],假设首先用图像分类器来预测图像类别,然后根据预测类别使用定位算法开始进行定位。我们采用了“类回归策略”对每一类进行边界框定。我们提前对Imagnet分类进行训练然后将它们调整到定位功能。为了训练这个网络我们提供了1000类Imagnet训练组。

我们的定位算法基于在RPN框架上进行小部分修改。和参考文献[32]的未知分类不一样,我们的RPN定位是每一类的形式。和参考文献[32]中的一样,我们的边界改良在每个位置都有平移不变的“锚定”边界。

在3.4中的ImageNet分类训练中,我们随机使用224x224切割来进行数据扩增。为了测试,将整个网络都应用于完全卷积的图像中。

表13对定位结果进行了对比,VGG的文章指出使用基础真实类别会找出33.1%的中心切割错误。当使用ResNet-101来预测类别,前5的定位错误结果是14.1%(表4)。


表13

上述结果仅是基于Faster R-CNN(参考文献[32])的RPN上。人们可以使用检测网络(Fast R-CNN)在Faster R-CNN中来改善结果。但我们注意到,在此数据集,一个图像通常包含单个支配对象,并且该区域相互高度重叠。受此启发,在我们目前的实验中,我们使用原来的R-CNN 来取代现有的Fast R-CNN。

我们的R-CNN实现情况如下。我们将每个训练好的的单类别RPN用于训练图像上,来预测边界限制情况和基准事实类别。为了测试,RPN在每个预测类别生成了最高到200层的方法,并且使用R-CNN网络来提高这些方法成绩和它的边界位置。

这种方法将前5的定位错误降低到10.6%(表13)。这是我们的单模型在验证组上的成绩。将分类和定位组合起来使用,我们将前5的定位错误率降低到了9.0%。这个数字明显比ILSVRC14的结果要好(表14),还减少了64%的相关错误。


表14

这个结果在ILSVRC2015中的ImageNet定位任务上取得第一名的成绩。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,222评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,455评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,720评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,568评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,696评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,879评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,028评论 3 409
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,773评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,220评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,550评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,697评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,360评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,002评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,782评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,010评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,433评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,587评论 2 350

推荐阅读更多精彩内容