卷积神经网络(卷积、池化)长度、宽度、深度计算

  卷积神经网络算是比较好理解的神经网络,说白了就是拿一堆小的矩阵去点乘(注意我说的是点乘,不是矩阵乘,这个很重要)一个大矩阵,最后得到局部信息。看图(来源于网络,只做说明用):

卷积神经网络示意图

  我稍微解释一下,平铺直叙的说,输入一张矩阵表示的图片,有3个通道(RGB),用两个卷积核去卷积它,每一个卷积核又是的,这个什么意思呢第一个3为通道数,要去卷积3个通道,是每一通道上的卷积核大小,最终得到的是什么呢,是一个的矩阵,2是前面说的2个卷积核,是卷积后的结果。中间只有一个疑问,为什么卷积核从三通道变成了二通道,那是因为在3进行3通道卷积后,最后的卷积结果加和了,并且加上了偏置。还不懂?你算一下FilterW0那一层和InputVolume那一层对应元素相乘之后加偏置1是不是等于6,所有的东西依此类推就计算出最后的输出矩阵了。
  下面来说一下卷积后的图像的深度(D)、宽度(W)、长度(L)都编程多少了。首先有一个概念,叫padding,实际上在tensorflow和Keras中关于卷积的时候都有两个方法可供选择,叫valid和same,所谓valid就是两边不补0,SAME就是两边补相同数目的0。好了那么问题来了,两边步几个0怎么计算啊,大家不要急这个是固定的。

  • 3*3,padding大小一般为1,两边的画就2*1=2
  • 5*5,padding大小一般为2,两边的画就2*2=4
  • 7*7,padding大小一般为3,两边的画就2*3=6
      卷积以后的卷积核大小怎么求呢,首先确定卷积以后的矩阵深度(W)等于卷积核大小,也是是说一个卷积核生成一个feature_map(这个不懂的话自己去百度,其实图中那个绿色的矩阵就是一个feature_map)。
      然后再来说说长度和宽度,这个玩意由于是正方形矩阵,其实是一回事,有个计算公式:
    W/H = \frac{padding后的数组长度 - 卷积核大小 }{S}+1
      是不是觉得好理解多了,转化成符号:
    W/H = \frac{W1/H1 +2*P - K }{S}+1
      其中W/H表示宽度/长度,P表示单边(画重点单边)补全数,K代表卷积核的大小(比如5*5就是5)。好了又有一个问题出来了,为啥要加1呢,这个你就这么理解吧 你算1-9之间有几个数是不是9-1+1共9个数啊。
      相信大家已经发现通过上面这个公式你也可以反推padding的大小,不过这个没啥意义啊,你都算出来feature_map尺寸了,你还管他padding大小呢。
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 笔记参考:https://zhuanlan.zhihu.com/p/22038289?refer=intellig...
    spectre_hola阅读 4,092评论 0 26
  • 「我來到這個世界 為的是看太陽 和蔚藍色的田 為的是看太陽 還有連綿的群山」
    憨憨爹阅读 87评论 0 0
  • 不知不觉中,我开始喜欢上了彩铅,因为当你画多了素描的时候,你就会觉得素描很枯燥,而且时间特长,所以适当的改变一下 ...
    肸月子阅读 410评论 7 14
  • 学生时代心宽,不如意时蒙头大睡,起来便好。而今,不顺时睡觉不大顶用,反倒是佛号香熏,宽慰许多。随记取京都名刹,以慰...
    沿途逆旅阅读 428评论 0 0