【1】Non-local NN, CVPR2018
CNN中的 convolution单元每次只关注邻域 kernel size 的区域,就算后期感受野越来越大,终究还是局部区域的运算,这样就忽略了全局其他片区(比如很远的像素)对当前区域的贡献。
所以 non-local blocks 要做的是,捕获这种 long-range 关系:对于2D图像,就是图像中任何像素对当前像素的关系权值。
1. 首先对输入的 feature map X 进行线性映射(说白了就是 1*1*1 卷积,来压缩通道数),然后得到 θ,φ,g 特征;
2. 通过reshape操作,强行合并上述的三个特征除通道数外的维度,然后对θ和φ进行矩阵点乘操作,得到类似协方差矩阵的东西(这个过程很重要,计算出特征中的自相关性,即得到每帧中每个像素对其他所有帧所有像素的关系);
3. 然后对自相关特征进行 Softmax 操作,得到0~1的weights,这里就是我们需要的 Self-attention 系数;
4. 最后将 attention系数,对应乘回特征矩阵 g 中,然后再上扩展channel数(1*1卷积),与原输入 feature map X 做残差运算,获得non-local block的输出。
神经网络中还有一个常见的操作也是利用的全局信息,那就是Linear层,全连接层将feature map上每一个点的信息都进行了融合,Linear可以看做一种特殊的Non local操作。
Non-local Neural Networks模块依然存在以下的不足:
(1) 只涉及到了位置注意力模块,而没有涉及常用的通道注意力机制
(2) 可以看出如果特征图较大,那么两个(batch,hxw,512)矩阵乘是非常耗内存和计算量的,也就是说当输入特征图很大存在效率底下问题,虽然有其他办法解决例如缩放尺度,但是这样会损失信息,不是最佳处理办法。
【2】Dual Attention Network
position attention module(spatial attention)
把原信息流记作A,把后面新做出来的两个张量记作 B 和 C,首先,B 和 C 从3阶张量被reshape成了2阶张量,主要是把原先 H*W 的feature给flatten拉平了,然后再把其中一个转置,这样就形成了一个 (HW)*C 的矩阵和另一个 C*(H*W) 的矩阵, B, C 相乘得到 (HW)*(HW) 的矩阵,后面配上一个softmax,这下算出来的话,矩阵里的每个点就是原先feature map 里面两个position点的关系强度,as follows:
然后把 s ji(attention 系数) 乘回到原来的feature maps(D)上,只不过在前面又乘了一个从0 开始逐渐学习的权重,as follows:
这个多出来的权值 实际上是调控某些attentional value太小的情况,因为上面用的是softmax,容易出现一个很大,其他很小的value,但是按照原来不做attention的时候,按理来说相当于每个attentional value都是1,落差太大,信息损失太多,所以再设置一个权重来平衡一下。
channel attention module
基本复制上面的操作,唯一的不同是,这次反过来进行矩阵乘法 C*(HW) 乘 (HW)*C 得到 C*C 的邻接矩阵,代表一个通道和另一个通道间的关系,其余的统统一样,as follows:
attetion代码
因为使用的富文本编辑器没办法插入代码,想看代码的话转至https://www.jianshu.com/p/06742d8bd8ff
【3】Non-local U-Nets
1.该结构与Attention Is All You Need这篇文章的形式很相似。输入图为X(B*H*W*C),经过QueryTransform和1*1卷积,转换为Q(B*Hq*Wq*Ck),K(B*H*W*Ck),V(B*H*W*Cv)。QueryTransform可以为卷积,反卷积,插值等你喜欢的方法,此处简单理解为 1*1*1 即可,最后的输出结果的H与W将与这个值一致。
2.代码里在Unfold之前有Multi-Head(Attention Is All You Need)的操作,不过在论文中没有说明,实际上是把通道分为N等份。Unfold是把Batch,height,width,N通道合并,Q(B*Hq*Wq*N*ck),K(B*H*W*N*ck),V(B*H*W*N*cv)。
3.接下来是经典的点积attention操作,得到一个权值矩阵A((B*Hq*Wq*N)*(B*H*W*N)),用于self-attention的信息加权,分母Ck是通道数,作用是调节矩阵的数值不要过大,使训练更稳定(这个也是Attention Is All You Need提出的)。最后权值矩阵A和V点乘,得到最终的结果((B*Hq*Wq*N)*cv),可见输出的height和width由Q决定,通道数由V决定。
卷积网络上的attention,主要分为两种,一种是spatial attention, 另外一种是channel attention。
spatial attention就是对于所有的通道,在二维平面上,对H x W尺寸的图学习到一个权重,对每个像素都会学习到一个权重。你可以想象成一个像素是C维的一个向量,深度是C,在C个维度上,权重都是一样的,但是在这方面的论文已经很多了,重点关注一下image/video caption。
相反的,channel attention就是对每个C,在channel维度上,学习到不同的权重,平面维度上权重相同。
spatial 和 channel attention可以理解为关注图片的不同区域和关注图片的不同特征。
【4】Squeeze and Excitation Network
SE Net 是channel attention的典型代表,主要思想是卷积网络的卷积核所代表的特征之间存在冗余,他们起了个名字叫feature recalibration,可以看作是在不影响性能的前提下减少卷积核数量是等效的。
【5】GCNet
Non-local 和 SE block的结合
简化的Non-local模块
简化版的non-local block定义为:
为了进一步减少简化版non-local block的计算量,将 Wv 移到attention pooling的外面。
表示为:
不同于原始的non-local block,简化版non-local block的第二项是不受位置依赖的,所有位置共享这一项。因此,作者直接将全局上下文建模为所有位置特征的加权平均值,然后聚集全局上下文特征到每个位置的特征上。
简化版的non-local block可以抽象为3个步骤:
全局attention pooling:采用1x1卷积 Wk 和softmax函数来获取attention权值,然后执行attention pooling(就是那些1*H*W C*1*1等这中操作)来获得全局上下文特征。
特征转换:采用1x1卷积Wv 。
特征聚合:采用相加操作将全局上下文特征聚合到每个位置的特征上。
GC block的3个步骤为:
global attention pooling用于上下文建模。
bottleneck transform来捕获通道间依赖。
broadcast element-wise addition用于特征融合。
在简化版的non-local block中,transform模块有大量的参数。为了获得SE block轻量的优点,1x1卷积用bottleneck transform模块来取代,能够显著的降低参数量(其中r是降低率)。因为两层bottleneck transform增加了优化难度,所以在ReLU前面增加一个layer normalization层(降低优化难度且作为正则提高了泛化性)。
详细介绍和代码链接:https://zhuanlan.zhihu.com/p/111143631
参考链接:
Deformable Convolutional Networks
目前主流的attention方法都有哪些? - sean zhuh的回答 - 知乎
极简笔记 Pyramid Attention Network for Semantic Segmentation
视觉注意力机制 | Non-local模块与Self-attention的之间的关系与区别?