1*1卷积核作用之我见
1X1卷积顾名思义就是卷积核的尺寸为1,不同与2维或3等卷积核,没有考虑在前一特征局部信息之间的关系。这里首先回顾一下卷积核的一些概念:
卷积核:可以看作对某个局部加权求和,它是对应局部感知的。这是是CNN的三大特征之一的局部感知,它的原理类似于盲人摸象,或者我们观察物体的时我们即不能观察每个像素也不能一次观察整体,而是先从局部开始认识,卷积核的大小一般有11,33,5*5的尺寸(一般为奇数,不过现在也有人用偶数了)。卷积核的个数对应输出的通道数(channels),这里需要说明的是对于输入的每个通道,输出通道上的卷积核是不一样的。比如输入是28x28x192(WxDxK,K代表通道数),然后在3x3的卷积核,卷积通道数为128,那么卷积的参数为3x3x192x128,其中前两个对应的每个卷积里面的参数,后两个对应的卷积总的个数。
这里要盗用吴恩达老师的一张图片来说明1*1卷积是怎样计算的:
从上图中可以看出当通道数目为1的卷积核相当于直接在原图像的像素上进行加权求和,这时候只能起到升维的作用,这样的操作是没有太大的意义的。
1X1卷积核的作用
由于1X1的卷积核并不改变图片的长和宽,它只能在图片的通道上进行改变改变,改变通道的一个比较直观的结果,就是可以将原本的数据量进行增加或者减少。所以大家都称为它的作用就是升维和降维。但是我个人认为维度并没有改变,改变的只是h.w.channels中的channels这一个维度大小而已。实际上1*1卷积我认为本身就是一个全连接计算,通过下面的示意图我们也可以清楚的看到1X1卷积核主要做的操作。
此外它还能增加非线性的作用,在保持feature map尺度不变的(即不损失分辨率)的前提下大幅增加非线性特性,这样我们就可以把网络做的很deep。
所以这里归纳为1X1卷积核主要有如下的四个作用:
- 1 通道方向上的小型神经网络
- 2 网中网(Network in Network)
- 3 调整特征映射数量
- 4 整合通道方向
所以这里归纳一句就是1X1卷积核主要在通道上进行操作!