Rethinking ImageNet Pre-training

论文:Rethinking ImageNet Pre-training

这篇paper因为其想法比较具有颠覆性(还有作者是Kaiming He大佬),刚放出来就引发了大量的讨论。通常来说,对于绝大部分CV问题的惯常做法就是,不管三七二十一,先在ImageNet预训练一下,然后针对具体的问题fine-tuing。在这里,作者发现,从零开始训练,不用fine-tuing效果也和使用预训练一样。那就引发了一个思考?为什么需要去ImageNet预训练?

作者使用从零初始化,依然可以得到和COCO2017冠军的结果,且结果十分鲁棒性。即便是在以下三种情况下:

  • 使用10%的训练数据
  • 使用更深,更宽的网络(依旧没有过拟合,依旧很鲁棒)
  • 在多种任务下,多种评价指标下

先看一张作者实验结果对比图:


实验结果

从图中可以看出:

  • 迭代次数足够多的时候(达到5\times10^5次的时候),随机初始化与预训练结果一样
  • 图中的精度曲线分叉表示使用/不使用学习率衰减
  • 使用预训练收敛更快。

总结起来,其实就是,使用预训练可以加快收敛,但是精度不会上升。其实也没有媒体吹得那么神。在这一行越久,就越发现,在深度学习领域,没有什么事是绝对的。一个结论可以被反复推翻,归根结底,还是因为神经网络的模型参数太多,可解释性太差。作者得到的这个结论,也是完全有可能和自己工作中的实际结论出现偏差的。

作者的比较方法

为了公平的比较使用预先训练和随机初始化的结果,作者采用的模型没有针对随机初始化进行特定的网络结构设计。除了以下两点不同:

  • 随机初始化模型使用了Group Normalization,因为Batch Normalization在batch size太小的时候效果不好。对于检测问题,由于图片太大,使得batch size上不去,因此用Group Normalization比较合适。而对于预训练模型,由于分类问题的图片比较小,batch size可以比较大,那么BN算出来的\beta, \theta就靠谱很多,因此直接用BN就可以了。
  • 随机初始化模型训练时间更久,因为预训练模型没有算上预训练的时间,所以直接比是不公平的。

对于第一点,作者为了保证实验结果的合理性,对于随机初始化模型也使用BN,并结合多GPU训练(增大batch size)实现了随机初始化训练。此外,作者发现即便不使用归一化,通过选择初始化方式,依旧可以实现随机初始化训练,并且结果比肩预训练。

实验

整片文章思想就是如上面所说,接下来就是大量的对比实验以验证论述。

使用10%的数据进行随机初始化训练

10%数据训练结果

可以看出,即便是少量数据,依旧结果不差。验证了作者的第一条结论

使用更深,更宽的网络

使用更深,更宽的网络

这里使用的模型是Mask RCNN,backbone分别是ResNet101, ResNeXt152。后者参数是前者的四倍。实际实验发现,即使使用更深,更宽的网络,结果不仅没有过拟合,精度还上升了。这里验证了作者的第二条结论。第三天结论验证方式类似,不再赘述。

总结

  • 预训练可以加快收敛,没别的用处。
  • 实际工程中,还是可以使用预训练,收敛快,省事
  • 本文的实验设计非常严密,基本上考虑到了每一个疑问点。值得借鉴。
  • 对于许多“可能是”理论,要多思考,多问几个为什么。尤其是对于深度学习这种“黑盒子”,换个实验条件,结论可能就相反。这篇paper的结论也是如此,不能奉为圣旨
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,192评论 6 511
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,858评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,517评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,148评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,162评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,905评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,537评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,439评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,956评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,083评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,218评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,899评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,565评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,093评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,201评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,539评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,215评论 2 358

推荐阅读更多精彩内容

  • 文章主要分为:一、深度学习概念;二、国内外研究现状;三、深度学习模型结构;四、深度学习训练算法;五、深度学习的优点...
    艾剪疏阅读 21,841评论 0 58
  • 三、被戏弄了 文|清歌银光 第二日我们在街上边聊天边溜达,余泽问了我好多关于余江的问题,比如“我哥他喜欢吃什么”、...
    清歌银光阅读 876评论 13 8
  • 道着别离 数着归期 再多不舍 也只剩叹息 我不懂你给我的暧昧 你不懂我为何伤悲
    可是我懂阅读 164评论 0 0
  • 这段时间我和孩子都病了,完全没有心情发朋友圈,可是今天中秋,来点仪式感,就发长文记录下最近吧。 小臭最近越发的爱爸...
    moon宇阅读 168评论 0 0
  • 要怎么说起我和你的故事呢。 在每一个深夜会想起,每一个下雨的日子会想念,羁绊挥之不去,无数个第一次体会到肝肠寸断。...
    安风Anfeng阅读 391评论 0 0