9. 卷积神经网络工程实践

小姐姐归来,带着蜜汁微笑,啦啦啦~

这次讲的应该是一些成功的神经网络架构,毕竟我们不能总重复造轮子,借鉴很重要

AlexNet

结构
  • AlexNet的架构如图,有5个卷积层
问题1
  • 输入是:227×227×3 的图像
  • 第一层(卷积层1):96个大小为11×11的滤波器,步长为4
  • 问题:卷积层的输出是?
    *答案:55×55×96
问题2
  • 问题:这一层的超参数的个数是多少?
  • 答案:(11×11×3)×96=35k
问题3
  • 输入:227×227×3
  • 经过卷积层1:55×55×96
  • 第二层(池化层1):3×3 的滤波器 步长为2
  • 问题:这层输出大小为?
  • 答案:27×27×96
问题4
  • 问题:第二层的超参数个数?
  • 答案:0
  • 池化层没有参数!
所有层的情况
  • input: [227×227×3]
  • conv1: [55×55×96]
  • max pool1: [27×27×96]
  • norm1: [27×27×96]
  • conv2: [27×27×256]
  • max pool2: [13×13×256]
  • norm2: [13×13×256]
  • conv3: [13×13×384]
  • conv4: [13×13×384]
  • conv5: [13×13×256]
  • max pool3: [6×6×256]
  • FC6: 4096
  • FC7: 4096
  • FC8: 1000
更多的细节

图像分类比赛冠军概览

ILSVRC1
  • AlexNet是第一个基于CNN的获得冠军的网络
ILSVRC2
  • ZFNet在AlexNet的基础上改善了超参数的设置
ZFNet
ILSVRC3
  • VGG和GoogleNet在AlexNet的基础上使用了更深的网络

VGGNet

VGGNet

更小的卷积核,更深的网络

  • AlexNet只有8层,而VGG有16层到19层
  • 只使用 3×3的卷积核,步长为1,pad为1;池化层采用2×2的核,步长为2
  • 达到了7.3%的错误率

为什么使用更小的卷积核?

  • 三个步长为1的3×3的卷积核,与一个7×7的卷积核有相同的效果,但是拥有更少的参数,更深的网络。
3×3

网络具体情况

VGG16-1
VGG16-2
细节

GoogleNet

GoogleNet

网络更深,计算效率更高

  • 22层
  • 采用inception模块
  • 没有FC(全连接)层
  • 只有5百万个超参数,比Alex Net少了12倍
  • 6.7%的错误率

inception模块

inception
  • 设计一个好的局部网络拓扑,把它看作一个网络,然后堆放这些网络,放到每一层的顶部
inception
  • 对相同层的相同输入并行应用不同类型的滤波操作
  • 把结果串联起来,得到一个张量输出
  • 这个张量进入下一层
example
  • 模块的输入是:28×28×256
  • 经过不同的滤波器,保持28×28不变
  • 串联后的结果是:28×28×672
  • 计算次数:854m ops
  • 这样的计算量是很大的,该如何解决呢?
solution
  • 增加一个”瓶颈层“,减少在进行卷积之前的特征深度
1×1
  • 1×1的卷积保持了特征,减少了深度
改进
  • 在进行3×3,5×5之前,增加了一层1×1的瓶颈层
  • 在池化层后加一层1×1的瓶颈层
改进后
  • 计算量为:356m ops
完整结构

ResNet

ILSVRC winner
  • ResNet:深度革命
ResNet

非常深的网络

  • 152层网络
  • 3.57%的错误率
普通网络层数增加后
  • 比较20层的网络和56层的网络
  • 56层的网络在训练损失和测试损失上都表现较差
  • 更深的网络表现更差,却不是因为过拟合
原因
  • 问题应该是由于更深的网络更难优化,所以不如浅层网络表现好
  • 更深的网络应该至少和浅层网络表现得一样好
  • 一个解决方法是,从浅层网络复制已经训练好的层,添加到剩下的深层网络的层
  • 通过上面的方法可以让深层的网络表现的和浅层的一样好
solution
  • 基于上面的思路,产生了Residual block的方法,如图右
Residual block
  • 完整的结构:
    • 由residual块组成
    • 每个residual块拥有两个3×3的卷积层
    • 通常,两个滤波器,步长为2
    • 在网络开始的时候添加额外的卷积层
    • 没有任何全连接层
瓶颈层
  • 对于深层网络,通常需要添加瓶颈层来减小网络的深度
实际应用中
  • 在实际应用中在每个卷积层后进行批量归一化
  • 使用Xavier/2初始化
  • 使用随机梯度下降和动量初始化
  • 使用类似时间表类型的学习率
  • 小批量的大小为256
  • 权重小
  • 没有使用dropout
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,284评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,115评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,614评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,671评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,699评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,562评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,309评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,223评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,668评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,859评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,981评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,705评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,310评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,904评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,023评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,146评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,933评论 2 355

推荐阅读更多精彩内容