详解卷积神经网络

在了解卷积神经网络之前,我们先了解一下什么是神经网络

推荐B站吴恩达的神经网络和深度学习视频  https://www.bilibili.com/video/av34661735

如果觉得视频太长,推荐文章  https://blog.csdn.net/qq_45021489/article/details/90286792#seventh

现在你对神经网络已经有了一些了解,你需要回答下面几个问题:

1、神经元的输入输出是什么,神经元都有哪些参数,参数的数量如何计算

2、什么是激活函数,为什么需要激活函数,什么是损失函数

3、什么是前向传播和反向传播,梯度下降法的作用,梯度下降法运用在什么过程

当你对这些概念有一些认知了的时候,我们开始学习卷积神经网络。


在卷积神经网络出现之前,我们对图片的处理是通过全连接进行的,即第一层的每一个神经元都与图片的每一个像素相连,假设图片大小为1000*1000,第一层有1000个神经元,那么就有1000*1000*1000个参数需要计算,这个参数的数量是极大的,这还只是第一层的参数。所以卷积神经网络一经提出就受到了广泛关注。

第一步,将每一个神经元与图片的某一固定大小区域的像素相连,而不是整个图片,我们以手写字母的识别为例讲解。

与神经网络不同的是卷积神经网络的神经元的数目不是随意决定的,而是由图像大小和卷积核大小共同决定的。前面说过每个神经元与部分区域相连,这个区域的像素大小就是神经元的输入,神经元对这些像素的操作即为卷积(卷积与滤波的差别?),对于一个32*32的图片,使用5*5的卷积核进行卷积,得到一个28*28大小的图片称为Feature Map,则神经元的数目等于Feature Map的大小,即28×28=784个,卷积核的数值也就是神经元的参数W,需要通过学习获得。此时我们还忽略了一个问题,每一个神经元都有25+1(偏置)个参数,784个神经元是不是就需要26*784个参数呢?答案是否定的,这里就要提到一个概念——权值共享,同一个Feature Map中所有神经元使用相同的权值,也就是所有神经元都是用的同一个卷积核,道理是很容易理解的,我们拿滤波举例,我们不可能用sobel算子把一张图像处理一半然后对剩下的一半改用candy算子。

此时你可能有一个困惑,为什么经过一次卷积(convolutions),C1的feature map竟然有6层,这是为了得到多样化的特征,我们使用了6个卷积核,同样以图像处理举例,对于一张图象,为了达到不同目的,我们可以用高斯滤波,也可以用中值滤波。这个滤波器的个数是需要我们认为指定的,人脸识别第一层的滤波器可能有上百个。现在第一层的参数的个数是多少呢?现在是(5*5+1)×6=156个。

现在轮到讲S2层了,这是一个池化层,池化的单词是pooling,这里为什么是subsampling呢,因为池化的本质是降采样,所以有6个14*14的Feature Map. 特征图中的每个单元与C1中相对应特征图的2*2邻域相连接,而且互不重回。S2层每个单元的4个输入相加,乘以一个可训练参数,再加上一个可训练偏置,也有不是4个输入相加而是取4个输入的最大值的。S2层有6*(1+1)=12个可训练参数。

同理,我们用16个5*5的卷积核对S2的6层Feature Map进行处理,得到16个10*10的特征图。现在我们来思考一个问题,S2有6层,当我们用16个卷积核来处理为什么得到的C3是16层而不是6*16=96层呢?用一个卷积核来处理6层为什么没有得到6层呢,这之间执行了什么操作呢?答案就是叠加操作,得到的这6层对应位置的结果相加,变为一层。事实上,C3中每个特征图由S2中所有6个或者几个特征map组合而成。为什么不把S2中的每个特征图连接到每个C3的特征图呢?原因有2点。第一,不完全的连接机制将连接的数量保持在合理的范围内。第二,也是最重要的,其破坏了网络的对称性。由于不同的特征图有不同的输入,所以迫使他们抽取不同的特征(希望是互补的)。

   例如,存在的一个方式是:C3的前6个特征图以S2中3个相邻的特征图子集为输入。接下来6个特征图以S2中4个相邻特征图子集为输入。然后的3个以不相邻的4个特征图子集为输入。最后一个将S2中所有特征图为输入。这样C3层有1516 (6*(3*25+1)+6*(4*25+1)+3*(4*25+1)+(25*6+1)=1516)个可训练参数

S4层是一个降采样层,由16个5*5大小的特征图构成。特征图中的每个单元与C3中相应特征图的2*2邻域相连接,跟C1和S2之间的连接一样。S4层有32个可训练参数(每个特征图1个因子和一个偏置16*(1+1)=32

 C5层是一个卷积层,有120个特征图。每个单元与S4层的全部16个单元的5*5邻域相连。由于S4层特征图的大小也为5*5(同滤波器一样),故C5特征图的大小为1*1,这构成了S4和C5之间的全连接。之所以仍将C5标示为卷积层而非全相联层,是因为如果LeNet-5的输入变大,而其他的保持不变,那么此时特征图的维数就会比1*1大。C5层有120*(16*5*5+1)=48120由于与全部16个单元相连,故只加一个偏置)个可训练连接。

F6层有84个单元(之所以选这个数字的原因来自于输出层的设计),与C5层全相连。有10164(84*(120*(1*1)+1)=10164)个可训练参数。如同经典神经网络,F6层计算输入向量和权重向量之间的点积,再加上一个偏置。

输出层和普通神经网络一致。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,406评论 6 503
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,732评论 3 393
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,711评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,380评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,432评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,301评论 1 301
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,145评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,008评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,443评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,649评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,795评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,501评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,119评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,731评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,865评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,899评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,724评论 2 354