通道注意力模块为什么用两层1 * 1的卷积

在通道注意力模块中,先使用1*1的卷积进行通道下采样,再进行通道下采样,比使用一层1*1卷积层要好。其原因是(1) 增加非线性,更好拟合通道复杂的相关性 (2)减少参数量和计算量,例如假设通道数为c,缩放倍数为r,则前者的参数量为1 * 1 * c * 1 * 1 * c / r + 1 * 1 * c / r * 1 * 1 * c  = 2c^2 / r,而后者的参数量为1 * 1 * c * 1 * 1 * c = c^2,可以看到前者的参数量是后者的2 / r 倍。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。