1x1卷积核作用

Pointwise Convolution,俗称叫做 1x1 卷积,简写为 PW,主要用于数据降维,减少参数量。
1、降维( dimension reductionality )。e.g. 200x200x50 的feature map(channels为50)在20个filter上做1x1的卷积,那么结果的大小为200x200x20。参数量是原来的2/5,减少了参数量。
2、加入非线性。卷积层之后经过激励层,1x1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的复杂度;可以在保持feature map 尺寸不变(即不损失分辨率)的前提下大幅增加非线性特性.

对于单通道的feature map和单个卷积核之间的卷积来说,CNN里的卷积大都是多通道的feature map和多通道的卷积核之间的操作(输入的多通道的feature map和一组卷积核做卷积求和得到一个输出的feature map),如果使用1x1的卷积核,这个操作实现的就是多个feature map的线性组合,可以实现feature map在通道个数上的变化。接在普通的卷积层的后面,配合激活函数,就可以实现network in network的结构了(来源:http://www.caffecn.cn/?/question/136
。)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容