计算机视觉中的self-attention

  【1】Non-local NN, CVPR2018

CNN中的 convolution单元每次只关注邻域 kernel size 的区域,就算后期感受野越来越大,终究还是局部区域的运算,这样就忽略了全局其他片区(比如很远的像素)对当前区域的贡献。

所以 non-local blocks 要做的是,捕获这种 long-range 关系:对于2D图像,就是图像中任何像素对当前像素的关系权值。

Non-local block

1. 首先对输入的 feature map X 进行线性映射(说白了就是 1*1*1 卷积,来压缩通道数),然后得到 θ,φ,g 特征;

2. 通过reshape操作,强行合并上述的三个特征除通道数外的维度,然后对θ和φ进行矩阵点乘操作,得到类似协方差矩阵的东西(这个过程很重要,计算出特征中的自相关性,即得到每帧中每个像素对其他所有帧所有像素的关系);

3. 然后对自相关特征进行 Softmax 操作,得到0~1的weights,这里就是我们需要的 Self-attention 系数;

4. 最后将 attention系数,对应乘回特征矩阵 g 中,然后再上扩展channel数(1*1卷积),与原输入 feature map X 做残差运算,获得non-local block的输出。

神经网络中还有一个常见的操作也是利用的全局信息,那就是Linear层,全连接层将feature map上每一个点的信息都进行了融合,Linear可以看做一种特殊的Non local操作。

Non-local Neural Networks模块依然存在以下的不足

(1) 只涉及到了位置注意力模块,而没有涉及常用的通道注意力机制

(2) 可以看出如果特征图较大,那么两个(batch,hxw,512)矩阵乘是非常耗内存和计算量的,也就是说当输入特征图很大存在效率底下问题,虽然有其他办法解决例如缩放尺度,但是这样会损失信息,不是最佳处理办法。

【2】Dual Attention Network

整体结构

position attention module(spatial attention)

把原信息流记作A,把后面新做出来的两个张量记作 B 和 C,首先,B 和 C 从3阶张量被reshape成了2阶张量,主要是把原先 H*W 的feature给flatten拉平了,然后再把其中一个转置,这样就形成了一个  (HW)*C 的矩阵和另一个 C*(H*W) 的矩阵, B, C 相乘得到 (HW)*(HW)  的矩阵,后面配上一个softmax,这下算出来的话,矩阵里的每个点就是原先feature map 里面两个position点的关系强度,as follows:

然后把 s ji(attention 系数) 乘回到原来的feature maps(D)上,只不过在前面又乘了一个从0 开始逐渐学习的权重\alpha ,as follows:

这个多出来的权值 \alpha  实际上是调控某些attentional value太小的情况,因为上面用的是softmax,容易出现一个很大,其他很小的value,但是按照原来不做attention的时候,按理来说相当于每个attentional value都是1,落差太大,信息损失太多,所以再设置一个权重来平衡一下。

channel attention module

基本复制上面的操作,唯一的不同是,这次反过来进行矩阵乘法 C*(HW) 乘  (HW)*C 得到 C*C 的邻接矩阵,代表一个通道和另一个通道间的关系,其余的统统一样,as follows:

attetion代码

因为使用的富文本编辑器没办法插入代码,想看代码的话转至https://www.jianshu.com/p/06742d8bd8ff

【3】Non-local U-Nets

global aggregation block

1.该结构与Attention Is All You Need这篇文章的形式很相似。输入图为X(B*H*W*C),经过QueryTransform和1*1卷积,转换为Q(B*Hq*Wq*Ck),K(B*H*W*Ck),V(B*H*W*Cv)。QueryTransform可以为卷积,反卷积,插值等你喜欢的方法,此处简单理解为 1*1*1 即可,最后的输出结果的H与W将与这个值一致

2.代码里在Unfold之前有Multi-Head(Attention Is All You Need)的操作,不过在论文中没有说明,实际上是把通道分为N等份。Unfold是把Batch,height,width,N通道合并,Q(B*Hq*Wq*N*ck),K(B*H*W*N*ck),V(B*H*W*N*cv)。

3.接下来是经典的点积attention操作,得到一个权值矩阵A((B*Hq*Wq*N)*(B*H*W*N)),用于self-attention的信息加权,分母Ck是通道数,作用是调节矩阵的数值不要过大,使训练更稳定(这个也是Attention Is All You Need提出的)。最后权值矩阵A和V点乘,得到最终的结果((B*Hq*Wq*N)*cv),可见输出的height和width由Q决定,通道数由V决定。

卷积网络上的attention,主要分为两种,一种是spatial attention, 另外一种是channel attention

spatial attention就是对于所有的通道,在二维平面上,对H x W尺寸的图学习到一个权重,对每个像素都会学习到一个权重。你可以想象成一个像素是C维的一个向量,深度是C,在C个维度上,权重都是一样的,但是在这方面的论文已经很多了,重点关注一下image/video caption。

相反的,channel attention就是对每个C,在channel维度上,学习到不同的权重,平面维度上权重相同。

spatial 和 channel attention可以理解为关注图片的不同区域和关注图片的不同特征。

【4】Squeeze and Excitation Network

SE Net 是channel attention的典型代表,主要思想是卷积网络的卷积核所代表的特征之间存在冗余,他们起了个名字叫feature recalibration,可以看作是在不影响性能的前提下减少卷积核数量是等效的。

【5】GCNet

Non-local 和 SE block的结合

SE block

简化的Non-local模块

简化版的non-local block定义为:

为了进一步减少简化版non-local block的计算量,将 Wv 移到attention pooling的外面。

简化版non-local block

表示为:

不同于原始的non-local block,简化版non-local block的第二项是不受位置依赖的,所有位置共享这一项。因此,作者直接将全局上下文建模为所有位置特征的加权平均值,然后聚集全局上下文特征到每个位置的特征上

简化版的non-local block可以抽象为3个步骤:

全局attention pooling:采用1x1卷积 Wk 和softmax函数来获取attention权值,然后执行attention pooling(就是那些1*H*W C*1*1等这中操作)来获得全局上下文特征。

特征转换:采用1x1卷积Wv 。

特征聚合:采用相加操作将全局上下文特征聚合到每个位置的特征上。


GC block

GC block的3个步骤为:

global attention pooling用于上下文建模

bottleneck transform来捕获通道间依赖

broadcast element-wise addition用于特征融合

在简化版的non-local block中,transform模块有大量的参数。为了获得SE block轻量的优点,1x1卷积用bottleneck transform模块来取代,能够显著的降低参数量(其中r是降低率)。因为两层bottleneck transform增加了优化难度,所以在ReLU前面增加一个layer normalization层(降低优化难度且作为正则提高了泛化性)。

详细介绍和代码链接:https://zhuanlan.zhihu.com/p/111143631



参考链接:

计算机视觉技术self-attention最新进展

Deformable Convolutional Networks

目前主流的attention方法都有哪些? - sean zhuh的回答 - 知乎

Attention机制可以应用在图像分割的改善中吗?

极简笔记 Pyramid Attention Network for Semantic Segmentation

视觉注意力机制 | Non-local模块与Self-attention的之间的关系与区别?

视觉注意力机制 | Non-local与SENet、CBAM模块融合:GCNet、DANet

Dual Attention Network for Scene Segmentation

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,233评论 6 495
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,357评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,831评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,313评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,417评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,470评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,482评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,265评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,708评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,997评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,176评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,827评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,503评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,150评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,391评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,034评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,063评论 2 352

推荐阅读更多精彩内容