Pointwise Convolution,俗称叫做 1x1 卷积,简写为 PW,主要用于数据降维,减少参数量。
1、降维( dimension reductionality )。e.g. 200x200x50 的feature map(channels为50)在20个filter上做1x1的卷积,那么结果的大小为200x200x20。参数量是原来的2/5,减少了参数量。
2、加入非线性。卷积层之后经过激励层,1x1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的复杂度;可以在保持feature map 尺寸不变(即不损失分辨率)的前提下大幅增加非线性特性.
对于单通道的feature map和单个卷积核之间的卷积来说,CNN里的卷积大都是多通道的feature map和多通道的卷积核之间的操作(输入的多通道的feature map和一组卷积核做卷积求和得到一个输出的feature map),如果使用1x1的卷积核,这个操作实现的就是多个feature map的线性组合,可以实现feature map在通道个数上的变化。接在普通的卷积层的后面,配合激活函数,就可以实现network in network的结构了(来源:http://www.caffecn.cn/?/question/136
。)