深度学习(四)卷积神经网络CNN

由全连接层组成的网络,已经有了很强大的功能,可以表示出输入间的任意线性关系,但是在实际应用中,需要处理的数据不仅仅是简单二维数组,更多的是图片视频等。假设有一张512x512的图片,通过一个有8个神经元的隐藏层, 就有(512^2+1)\times8个参数需要计算(没有算上RGB通道), 很显然这是不现实的。

1. 卷积

卷积运算在图片上可以实现边缘检测,也就是通过不同的卷积核提取出不同的边缘特征,这些合在一起就能够提取出一张图片里的主要特征,从而判断图片所属的类别(对于图片分类而言)。
(f *g)(x,y) = \int\limits_\infty^\infty f(\tau)g(x-\tau) d\tau
卷积运算的过程,将卷积核与矩阵上对应位置的值相乘后的和,放在输出矩阵对应的位置,输出的矩阵也就是通过卷积得到的特征矩阵,不同的卷积核可以得到不同的特征输出。把不同的特征组合起来,就能得到输入图像的特征。
举个例子,有一个矩阵a,与垂直边缘检测的卷积核b做卷积,得到了c

import numpy as np
from scipy import signal
import matplotlib.pyplot as plt

a = np.zeros((6,6))
a[:,:3] = 10

b =  np.array([1,0,-1],[1,0,-1],[1,0,-1])

c = signal.correlate2d(a,b, mode='valid')

plt.imshow(a,cmap='gray')
plt.imshow(b,cmap='gray')
plt.imshow(c,cmap='gray')
卷积图示

从图上可以看出,在矩阵a对应的黑白图像中有一个垂直的边界,在与b做卷积之后,得到了一个中间有值边缘为0的矩阵,也就是一个中间有一条白色的图,说明矩阵a在中间的位置有一条垂直的边缘。这就是卷积能够提取特征的直观解释。(例子来自于吴恩达的视频:https://www.youtube.com/watch?v=XuD4C8vJzEQ, 代码自己写的)
顺便说一下在scipy.signal里有correlated2d和convolve2d。 correlated2d计算的是互相关(cross correlated),和直接手算的结果一样;convolve2d的结果会多一个负号。

2. 卷积神经网络

卷积神经网络主要包括了四个部分:

  • 卷积层:特征提取
  • 激活函数:提供非线性
  • 池化层:减少参数的数量
  • 最后的全连接层:分类

卷积层 就像上面所说的,将输入与卷积核进行运算,卷积核的大小一般有3\times 3, 5\times5, 7\times7...,在做卷积的时候,是同一个的卷积核遍历图片上的像素点,也就是在图片上一个地方重要的特征,在图片另一个地方同样也很重要,整个图片共享同样的权值。

Padding 在卷积运算的过程中,输出的尺寸往往会比输入小,比如假设输入大小7\times7,卷积核大小3\times3,输出大小5\times5,这种计算方式被称作Valid padding;如果想要输出和输入保持同样的大小,需要在输入矩阵周围加上一圈0,比如在刚刚7\times7的矩阵周围加上零,变成9\times9,那么输出的大小就是7\times7, 这种方式被称为Same padding

Stride 注意到卷积相当于一个二维的滑动窗口在图片上移动,就像在一维信号上的滑动窗口,二维的卷积也可以有移动的步长,具体的网上有动图。通过设置步长,可以减小输出的大小。还有一种方式叫做Dilated Convolution,在卷积核里跳过一些像素点,目的是扩大接受野。

上面讲到的例子里的卷积都是在二维图片上进行的,但是彩色的图片一般都是RGB三通道的,也就是有三个维度,长、宽、通道 X \times Y \times C, 假设现在我们有H个卷积核,每个卷积核大小为M \times N \times C,首先第一个卷积核与输入矩阵做卷积,得到一个X \times Y \times 1的矩阵(假设用的same padding),然后与剩下的卷积核挨个做卷积,将所有卷积得到的HX \times Y \times 1的薄片叠在一起,得到一个X \times Y \times H的新矩阵,这就是输出矩阵。

在多通道图片上的卷积

激活函数 一般用的都是ReLU。
池化层 目的是为了减少参数的数量,避免过拟合。通过卷积层可以提取出特征,但是并不是所有特征都是重要的,池化的思想就是提取出某一小块区域的主要特征传递给下一层。Max Pooling选取一个范围(),取其中的最大值作为输出矩阵对应位置的值,然后移动到下一个区域,是最常用的池化方法。Average Pooling是取区域内的均值。
全连接层 用于分类,但是可以被Global Average Pooling层代替,GAP可以减少参数,并且适用于任何大小的输入(论文 Network in Network)。

下一篇来写如何用python徒手实现CNN。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,504评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,434评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,089评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,378评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,472评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,506评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,519评论 3 413
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,292评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,738评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,022评论 2 329
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,194评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,873评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,536评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,162评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,413评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,075评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,080评论 2 352