Attention

1.注意力Q,K,V来源,这个文章的讲自然语言的。

  • 注意力三个参数的来源


    self-attention-matrix-calculation.png

    什么是query“查询”、key“键”和values“值”向量?
    我感觉是因为用q*k时认为得到了单词两两的权重,然后用softmax计算得到概率模型,然后用乘以v得到了一部分注意力的样子。以下是原文:

The second step in calculating self-attention is to calculate a score. Say we’re calculating the self-attention for the first word in this example, “Thinking”. We need to score each word of the input sentence against this word. The score determines how much focus to place on other parts of the input sentence as we encode a word at a certain position.

The score is calculated by taking the dot product of the query vector with the key vector of the respective word we’re scoring. So if we’re processing the self-attention for the word in position #1, the first score would be the dot product of q1 and k1. The second score would be the dot product of q1 and k2

  • 注意力权重的计算方法:
    注意力入门
    self-attention-matrix-calculation-2.png

    Q*K相当于多个单词nn对应的权重关系,。

注意力

两种:

  • 自上而下(top-down)(focus): 主动有意识聚焦某一对象,又称聚焦式 (focus)
  • 自下而上(bottom-up):无意识,基于显著性的注意力。赢者通吃。
    soft attention :

文本翻译

soft attention :思是在求注意力分配概率分布的时候,对于输入句子
X中任意一个单词都给出个概率,是个概率分布。
hard attention: 对不齐的概率认为是0

global attention model : soft attention model
local attention model : soft attention model & hard attention model

计算机视觉

分类和mask解耦,

有多个类别的mask,反向传播只优化当前类别对应的mask.

混合注意力机制

不传递谁的损失函数,不更新谁的梯度。

残差注意力模型

每个注意力模块分为两部分:mask (M)和trunk(T),基于特征提取网络提取特征T,

H_i,c​ (x)=M_i,c​ (x)∗T_i,c​ (x)

注意力模块中,注意力掩膜在forward时作为特征选择器,在反向传播时则作为梯度更新的滤波器。

注意力残差学习

由于注意力用到了softmax 网络,如果太多的注意力模型会导致模型输出的响应变弱,可能对梯度也会产生一定的影响。
所以用残差的注意力:
H_i,c​ (x)=(1+M_i,c​ (x))∗T_i,c​ (x)
一般M的取值范围在[01,]之间,除了得到注意力之外还要把特征图加上。

这是学习到的注意力

软掩膜分支

掩膜分支包括了快速前馈扫描(fast feed-forward sweep)和自上而下的反馈(top-down feedback)步骤。前者快速收集整个图像的全局信息,后者将全局信息与原始特征图相结合。在卷积神经网络中,这两个步骤展开为bottom-up top-down的全卷积结构。

掩膜

先对原图下采样,得到主要特征后,在上采样使大小与原图一样,然后通过sigmoid 。

空间注意力

使用L2正则化约束每个位置上的所有通道,推测最终输出一个空间维度一致的Attention Map;


image.png

通道注意力

类似于SENet使用L2正则化约束每一个通道上的所有特征值,最后输出长度与通道数相同的一维向量作为特征加权;这个和公式里描述的是一样吗?

image.png

混合注意力

对通道和空间位置都是用


image.png

attention all you need

注意力

image.png

多头注意力机制

多头

自注意力

image.png

position Embedding

不知之处

  • 运算量大?

attention

Task 1

学习权重分布

任务2

  • 任务聚焦:
    将分类和分割任务进行解耦,当box branch已经分好类时,segment branch 就不用再关注类别,只需要关注分割,从而使网络更加容易训练。

    生成狗mask的那部分网络连接(卷积核)只需要聚焦于狗类的样本,然后将属于狗的像素目标凸显出来出来,训练其他类别时不会对这些连接权重进行更新。

  • 图像分割
    训练中,使用Attention Map对浅层网络的loss进行引导,只反传在粗的船头/船尾位置上的loss,其他地方的loss不反传。相当于,深层的网络能得到一个船头/船尾的大概位置,然后浅层网络只需要关注这些大概位置,然后预测出精细的位置,图像中的其他部分(如船身、海洋和陆地)都不关注,从而降低了学习的难度。

注意力和特征

image.png

ws -dan

通过1x1卷积产生注意力?这不是我常见的,我的疑惑就在这里。他既不是通道注意力,也不是空间注意力。

  • 针对ws-dan
    Attention 一个1x1的卷积,其实就是先在1维度计算均值,然后乘以一个固定通道数的值。
    然后计算feature_matrix 其实还是2,3维度做均值。
    根据我的观察,attention map应该在维度1上是成倍数的。
    feature matrix 应该是在N上成倍数的关系。
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,233评论 6 495
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,357评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,831评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,313评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,417评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,470评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,482评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,265评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,708评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,997评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,176评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,827评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,503评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,150评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,391评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,034评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,063评论 2 352

推荐阅读更多精彩内容