Attention注意力机制

网上的文章总把Attention注意力机制和Transformer模型结合来讲,看起来非常复杂。实际上Attention不仅作用于自然语言处理领域,目前已是很通用的技术。本篇来看看Attention的原理,以及在各个领域的典型应用。

原理

越来越多的模型用到注意力机制,它已成为与全连接,卷积,循环网络同等重要的技术。简单地说,当人观察图片时,一般先扫一眼,确定大概信息,然后聚焦在图中的重要区域,这个区域可能是某个物体,某种显著的特点,或者人脸等等。

机器视觉,自然语言模型,跨模态模型都越来越多地使用到注意力技术。其核心是通过当前数据决定更关注哪一部分数据,给数据加权。

那么,同样是给特征加权,注意力和普通的全连接网络到底有何差异?主要差异在于是否与位置相关。全连接网络与位置强相关(比如下图中W11描述了x1到y1的映射关系,如果特征x1改变了位置,结果就会不同)。

在使用Attention的过程中,我们希望聚焦于图中的动词,不管它出现在句中什么位置,希望聚焦于图中的人脸,而不管脸在图中的位置以及有几张脸……Attention计算出的也是权重,而这个权重可能是根据x1,x2,x3以及其它特征计算出来的。如:

此时的w不再是一个具体的权重值,而是根据x1的特征计算出来的是否需要更关注x1,比如当x1是人脸时,w1=f(x1)值较大,则给x1区域更大的权重。

上例是比较简单的情况,w1不仅可以使用x1的内容计算权重,还可以使用上下文数据(如在自然语言处理中使用附近的词计算某词权重,图片处理中使用周边内容给某区域加权),以及使用附加数据(如使用文字给图片某一区域加权,在翻译任务中在原文与译文之间通过注意力对齐)。

Attention与门控非常类似,比如LSTM中的输入门,输出门,遗忘门,都是利用当前时间步的输入x与之前激活层的状态,通过模型参数w,b以及sigmoid激活函数计算权重,用于确定对之前状态的遗忘,对当前输入的接纳,以及是否输出。与Attention一样,它们使用的都是数据加权的方法。

使用场景

全连接网络可视为一个空间到另一空间的映射,它倾向于保持全局,只加入形变,相对地一视同仁;而Attention更关注局部特征,近似于筛选器。下面介绍使用注意力的几种典型场景。

文字处理:划重点词

计算词之间的关系,划出重点词是Attention的一个重要应用,无论词在句中的任何位置都能将其识别出来。比如句中有五个词,分别计算每四个词对另一个词的贡献度,然后给该词加权。此时Attention的输入是所有词特征,输出是每个词的权重。

图片处理:重点区域

图片注意力与文字注意力类似,通过图片各区域特征之间的关系,给某一区域,或某一通道加权也可以提升模型效果。图像处理中主要使用两种Attention,空间注意力和通道注意力。

图文结合:用文字加强图片

用文字给图片加权,比如可从网店下载商品图片和简单描述,通过文字描述,如“一字领”、“蕾丝花边”重点关注图片中某个区域,使图像处理更有针对性。模型的输入是文字w和图像中的区域v,通过计算它们之间的关系f(w,v),给各个区域v加权。其中的f(w,v)一般使用全连接网络实现。

具体方法

Attention计算的权值大小f(x)是特征x的函数,而x中的数据(如图中小区域的内容)由于代入模型的实例不同,各有差异。重点是一定要把自己的值****x****代进去,用文字t加强图片x时,把文字t也代入f()函数的计算。如果用t加强x时只使用y=x*f(t),那么无论x是什么都进行同样的乘f(t)处理,忽略了x与t间的关系,这样就起不到加强局部的作用了。

下面看最简单的情况,x是输入,y是输出,z是用于修饰x的附加数据,a为attention值(假设attention的计算方法是一个简单的线性变换,不考虑过程中使用的激活函数)。

只使用全连接:

y=w*x+b

使用z给x加权

y=x*(zw+b)=x*z*w+x*b

使用attention

y=xa
a=(x+z)*w+b
y=x*((x+z)*w+b)=x*x*w+x*z*w+x*b

从上面公式可以看出一阶和二阶的差异,且加入了条件z。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342