『Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning』论文笔记

一 为什么读这篇

Inception系列的官方最后一篇,读完这篇,才能说对整个Inception体系有个初步的了解。


二 截止阅读时这篇论文的引用次数

2018.12.31 1610次。引用越来越少了。


三 相关背景介绍

2016年2月刊发于arXiv,不得不佩服作者的高效,v3发表才过了2个多月,v4就出来了。另外从题目上也可以看出来,有不少借鉴ResNet的地方,问题是ResNet也就出来2个多月。。。作者还是Christian Szegedy和Sergey Ioffe分别以一二作合作完成的。最后投在2017年的AAAI。


四 关键词

Inception v4

Inception-ResNet


五 论文的主要贡献

似乎是首次将Inception和ResNet联合起来一起用


六 详细解读

1 介绍

本文的主要研究就是将ResNet和Inception-v3连接起来。除了直接集成,本文也研究了仅仅让Inception变宽变深能否更有效,因此设计了新版本Inception-v4。Inception-v3由于历史原因有很多包袱(DistBelief的锅。。)

2 相关工作

He认为残差连接是训练非常深的卷积网络的必要条件,而本文的发现不支持这个观点,至少在图像识别领域。在实验部分本文证明了不使用残差连接也可以训练很深的网络,但是用残差连接似乎能明显的加速训练。这里对之前的Inception系列代号重新定义,v1也就是GoogLeNet,v2是BN-Inception,v3就是rethinking那篇分解卷积。

3 架构选择

3.1 纯Inception块

图9是Inception-v4的整体架构,图3,4,5,6,7,8分别是不同结构的Inception块。卷积层有V符号的表示valid padding,没有V符号的表示same padding。

inception_v4-fig9.png
inception_v4-fig3.png
inception_v4-fig4.png
inception_v4-fig5.png
inception_v4-fig6.png
inception_v4-fig7.png
inception_v4-fig8.png

3.2 残差Inception块

对于残差版本的Inception网络,使用更cheap的Inception块,而不是原始Inception块。

作者们试验了几种残差版本的Inception。本文只介绍两种:"Inception-ResNet-v1"和"Inception-ResNet-v2",其中v1的计算量和Inception-v3差不多,而v2和这次提出的Inception-v4差不多。

图15是这两个网络的整体架构。

Inception_v4-fig15.png
inception_v4-fig14.png
inception_v4-fig10.png
inception_v4-fig11.png
inception_v4-fig12.png
inception_v4-fig13.png
inception_v4-fig16.png
inception_v4-fig17.png
inception_v4-fig18.png
inception_v4-fig19.png

3.3 残差缩放

实验中发现当filter的个数超过1000时残差的变种就开始明显的不稳定,同时网络也死了。。

另外发现在加残差之前缩小它似乎可以使训练稳定。通常在加法操作前,乘个0.1到0.3的缩放因子给残差。如图20。

inception_v4-fig20.png

当层非常深的时候同时filter很多时,即使用『warm-up』策略训练也还是不稳定,不过缩放残差有用。(把ResNet批判一番。。。)

4 训练方法

起初用带动量的SGD训练,不过效果不如RMSProp。初始lr为0.045,每2个epoch使用0.94的系数指数衰减lr。

5 实验结果

inception_v4-table3.png
inception_v4-table5.png
inception_v4-fig25.png

6 总结

  • Inception-ResNet-v1:计算代价和Inception-v3差不多
  • Inception-ResNet-v2:更大的计算代价,识别效果明显提升
  • Inception-v4:没有残差连接的纯Inception版本,识别效果和Inception-ResNet-v2差不多,但是没它闭合的快

七 读后感

这是近期所看论文中图最多的一篇,占了一大半的篇幅,文字描述没多少,理论公式更是没有,所以读起来比较轻松。读完后感觉就是一篇灌水文,最大的创新点也许就是联合Inception和ResNet一起用,还有可能是首次。看着那些网络结构,实在是太复杂了,不知道作者是怎么搞出来的,那些魔数,感觉就是一堆魔改,没啥理论,试就完了。读完本文后觉得AutoML确实很有必要,因为Inception-v4的这些结构设计似乎都不靠什么先验知识了,调就是了,如果纯调的话人怎么能调的过机器。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,492评论 6 513
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,048评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,927评论 0 358
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,293评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,309评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,024评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,638评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,546评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,073评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,188评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,321评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,998评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,678评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,186评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,303评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,663评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,330评论 2 358

推荐阅读更多精彩内容