深度卷积网络:实例探究

1.经典的卷积网络

介绍几种经典的卷积神经网络结构,分别是LeNet、AlexNet、VGGNet。
LeNet-5
LeNet-5主要是针对灰度设计的,所以其输入较小,为32×32×1,其结构如下:

在LetNet中,存在的经典模式:

  • 随着网络的深度增加,图像的大小在缩小,与此同时,通道的数量却在增加;
  • 每个卷积层后面接一个池化层。

AlexNet
AlexNet直接对彩色的大图片进行处理,其结构如下:

  • 与LeNet相似,但网络结构更大,参数更多,- - 表现更加出色;
  • 使用了Relu;
  • 使用了多个GPUs;
  • LRN(后来发现用处不大,丢弃了)

AlexNet使得深度学习在计算机视觉方面受到极大的重视。

VGG-16
VGG卷积层和池化层均具有相同的卷积核大小,都使用3×3,stride=1,SAME的卷积和2×2,stride=2 的池化。其结构如下:

2. ResNet

非常深的神经网络是很难训练的,因为存在梯度消失和梯度爆炸问题,我们利用跳远连接,它可以从某一网络层获取激活,然后迅速反馈给另外一层,甚至是神经网络的更深层,我们可以利用跳远连接构建ResNet能够训练深度网络,有时候深度可以超过100层。
ResNet是由残差块所构建。
残差快
下面是一个普通的神经网络块的传输:


其前向传播的计算步骤为:

  • Linear:z[l+1]=W[l+1]a[l]+b[l+1]
  • Relu:a[l+1]=g(z[l+1])
  • Linear:z[l+2]=W[l+2]a[l+1]+b[l+2]
  • Relu:a[l+2]=g(z[l+2])

而ResNet块则将其传播过程增加了一个从a[l]直接到z[l+2].的连接,将其称之为“short cut”或者“skip connection”:


也就是前向传播公式的最后一个步骤变为:a[l+2]=g(z[l+2]+a[l])

增加“short cut”后,成为残差块的网络结构:


注意这里是连接在Relu激活函数之前。

Residual Network:

每两层增加一个捷径,多个残差块堆积起来构成ResNet网络结构,其结构如下:



没有“short cut”的普通神经网络和ResNet的误差曲线:


  • 在没有残差的普通神经网络中,训练的误差实际上是随着网络层数的加深,先减小再增加;
  • 在有残差的ResNet中,即使网络再深,训练误差都会随着网络层数的加深逐渐减小。

ResNet对于中间的激活函数来说,有助于能够达到更深的网络,解决梯度消失和梯度爆炸的问题。

3.ResNets为什么表现如此好

假设有个比较大的神经网络,输入为x,输出为a[l]。如果我们想增加网络的深度,这里再给网络增加一个残差块:


假设网络中均使用Relu激活函数,所以最后的输出激活值a⩾0。这里我们给出a[l+2]的值:
a[l+2]=g(z[l+2]+a[l])=g(W[l+2]a[l+1]+b[l+2]+a[l])
如果使用L2正则化或者权重衰减,会压缩W和b的值,如果W[l+2]=0同时b[l+2]=0,那么上式就变成:
a[l+2]=g(z[l+2]+a[l])=g(a[l])=relu(a[l])=a[l]
所以从上面的结果我们可以看出,对于残差块来学习上面这个恒等函数是很容易的。所以在增加了残差块后更深的网络的性能也并不逊色于没有增加残差块简单的网络。所以尽管增加了网络的深度,但是并不会影响网络的性能。同时如果增加的网络结构能够学习到一些有用的信息,那么就会提升网络的性能。
同时由于结构a[l+2]=g(z[l+2]+a[l]),ResNet在设计中使用了很多相同的卷积,以保持z[l+2]和a[l]的维度相同。
将普通深度神经网络变为ResNet:
在两个相同的卷积层之间增加“skip connection”

4.1x1卷积

过滤器是1×1,这里数字是2,输入一张6×6×1的,结果相当于把这个图片乘以数字2,用1×1的过滤器进行卷积似乎用处不大,在二维上的卷积相当于图片的每个元素和一个卷积核数字相乘。 如果是一张6×6×32的图片,那么使用1×1的过滤器进行卷积效果更好,具体来说1×1卷积所实现的功能是遍历这36个单元格。1×1×32过滤器中的32个数字可以这样理解,一个神经元输入个数是32,乘以相同高度和宽度上某个切片上的32个数字。这32个数字具有不同信道,乘以32个权重,然后应用ReLU非线性函数。
但是在三维上,与1×1×nC卷积核进行卷积,相当于三维图像上的1×1×nC的切片,也就是nC个点乘以卷积数值权重,通过Relu函数后,输出对应的结果。而不同的卷积核则相当于不同的隐层神经元结点与切片上的点进行一一连接。 所以根本上1×1卷积核相当于对一个切片上的nC个单元都应用了一个全连接的神经网络

1x1卷积应用:


假设一个28×28×129的输入层,可以使用池化层压缩它的高度和宽度,可以用32个1×1的过滤器,每个过滤器的大小都是1×1×192维
维度压缩:使用目标维度的1×1的卷积核个数。
增加非线性:保持与原维度相同的1×1的卷积核个数。

5. Inception Network

Inception Network 的作用就是使我们无需去考虑在构建深度卷积神经网络时,使用多大的卷积核以及是否添加池化层等问题。Inception Network 就是代替我们来做决定。
例如:一个 28×28×192维度的输入层,Inception Network网络层的作用就是代替人工来确定卷积层中的过滤器类型,或者确定是否需要创建卷积层或池化层



在上面的Inception结构中,应用了不同的卷积核,以及带padding的池化层,它是一种特殊的池化形式。在保持输入图片大小不变的情况下,通过不同运算结果的叠加,增加了通道的数量,这里的最终输出为32+32+128+64=256。

6.计算成本的问题:

对于上面的5×5大小卷积核的计算成本:


  • 1 filters:5×5×192;
  • 32 个 filters;
  • 总的计算成本:28×28×32×5×5×192=120M(对于输出每个数字都需要执行5×5×192次乘法运算,乘以输出值个数)

对于1×1大小卷积核用作过渡的计算成本,也将下面的中间的层叫做“bottleneck layer”(瓶颈层):
输入是28×28×192,输出是28×28×32,和前面相同,但是先把输入层压缩成这个较小的中间层,只有 16个信道,而不是192。


  • 1×1卷积层计算成本:28×28×16×1×1×192=2.4M
  • 5×5卷积层计算成本:28×28×32×5×5×16=10.0M
  • 总的计算成本:2.4M+10.0M=12.4M

与前面网络作比较,计算成本从1.2亿下降到1240万。
所以1×1卷积核作为bottleneck layer”的过渡层能够有效减小卷积神经网的计算成本。事实证明,只要合理地设置“bottleneck layer”,既可以显著减小上层的规模,同时又能降低计算成本,从而不会影响网络的性能

7.Inception模块

Inception模块会将之前层的激活或者输出作为它的输入,将上面说介绍的两种主要思想和模式结合到一起构成 Inception 模块,如下:



多个Inception 模块的堆叠构成Inception Network,下面是GoogleNet的结构:


学会使用开源,例如github

从开源项目开始是一个好方法

8.迁移学习

小数据集:

如今在深度学习领域,许多研究者都会将他们的工作共享到网络上。在我们实施自己的工作的时候,比如说做某种物体的识别分类,但是只有少量的数据集,对于从头开始训练一个深度网络结构是远远不够的。

但是我们可以应用迁移学习,应用其他研究者建立的模型和参数,用少量的数据仅训练最后自定义的softmax网络。从而能够在小数据集上达到很好的效果。


假设要建立一个猫的检测器用来检测自己的宠物猫,在这个例子中,你只需要把前面这些层的权重都冻结,由于前面权重都冻结相当于一个固定函数,不需要改变。取输入图像X,将它映射到softmax层之前的激活函数层得到一个特征向量 ,然后用这个特征向量做预测。

大数据集:

如果我们在自己的问题上也拥有大量的数据集,我们可以多训练后面的几层。总之随着数据集的增加,我们需要“ freeze”的层数越来越少。最后如果我们有十分庞大的数据集,那么我们可以训练网络模型的所有参数,将其他研究者训练的模型参数作为参数的初始化来替代随机初始化,来加速我们模型的训练。


对于很多计算机视觉任务 ,如果你下载其他人的开源权重并用作你问题的初始化,你会做的更好,计算机视觉将会经常用到迁移学习,除非有一个极其大的训练集,可以从头开始训练所有东西,总之,迁移学习值得考虑。

9.数据扩充

与其他机器学习问题相比,在计算机视觉领域当下最主要的问题是没有办法得到充足的数据。所以在我们训练计算机数据模型的时候,数据的扩充就是会非常有用。
数据扩充的方法:

  • 镜像翻转(Mirroring);
  • 随机剪裁(Random Cropping);
  • 色彩转换(Color shifting):
    为图片的RGB三个色彩通道进行增减值,如(R:+20,G:-20,B:+20);PCA颜色增强:对图片的主色的变化较大,图片的次色变化较小,使总体的颜色保持一致。

计算机视觉现状

数据和手工工程:
不同问题当前的数据集大小:

在有大量数据的时候,我们更倾向于使用简单的算法和更少的手工工程。因为此时有大量的数据,我们不需要为这个问题来精心设计特征,我们使用一个大的网络结果或者更简单的模型就能够解决。
相反,在有少量数据的时候,我们从事更多的是手工工程。因为数据量太少,较大的网络结构或者模型很难从这些少量的数据中获取足够的特征,而手工工程实际上是获得良好表现的最佳方式。

对于机器学习应用,知识来源:

  • 标记数据,(x,y);
  • 手工特征工程/网络结构/其他构建。

在基准研究和比赛中,下面的tips可能会有较好的表现:

  • Ensembling:独立地训练多个网络模型,输出平均结果或加权平均结果;
  • 测试时的 Multi-crop:在测试图片的多种版本上运行分类器,输出平均结果。
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,456评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,370评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,337评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,583评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,596评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,572评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,936评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,595评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,850评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,601评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,685评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,371评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,951评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,934评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,167评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,636评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,411评论 2 342

推荐阅读更多精彩内容