NLP - Transformer模型

1. 简介

Transformer模型由Google提出,发表在NIPS 2017会议上。是一种完全基于注意力机制的模型,摒弃了RNN和CNN结构。并且很容易并行,训练速度较快,在WMT14 英语- 德语、英语 - 法语翻译任务上获得了SOTA的效果。

  • RNN缺点: 很难并行化,每一个时刻的输出,需要依赖上一个时刻的结果;
  • CNN优缺点: 很容易实现并行化;想要获取更多的上下文信息,需要叠多层卷积网络;
image.png

2. 模型结构

  • Transformer模型由 Encoder 和 Decoder 组成,并且分别堆叠了N层;注意:输入经过N层 Encoder 之后输入到每一层 Decoder 计算Attention;
  • Encoder 包括两个子层:(1)Self-Attention子层;(2)FNN子层;
  • Decoder 包括三个子层:(1)Mask Self-Attention子层;(2)Self-Attention子层;(3)FNN子层;
  • 每个子层后面,都加上了 残差连接(residual connection)层正则化(layer normalization),则最终的输出为:LayerNorm(x + Sublayer(x))
transformer模型结构.png

2.1 Self Attention

  • Transformer在RNN模型的基础上进行改进,使得计算每一个输出,可以并行;


    使用Self-Attention优势.png

2.1.1 Scaled dot-product attention

  • Attention机制的本质是:给定一个query,和一系列<key, value>对,需要计算得到一个输出得分;注意:query, key, value都是向量;query, key维数为d_kvalue的维数为d_v
  • Scaled dot-product attention计算公式如下:
    Attention(Q, K, V) = softmax(\frac{QK^T}{\sqrt{d_k}}) V
    上式中Q, K, V是矩阵;

注意:除以\sqrt{d_k},是为了防止d_k变化很大的时候,最终qk^T的计算结果变化较大;

例子:计算x_1和其他词的Attention,得到输出b^1
1. 每个输入,计算得到q, k, v
image.png
2. q, k做内积
image.png
3. 计算softmax值,得到注意力权重
image.png
4. 注意力权重和v,加权平均得到Attention输出
image.png

得到输出b^1, b^2, b^3, b^4,可并行计算:

image.png

2.1.2 Mask说明

  • Decoder第一个子层使用了Mask self-attention子层:主要是为了防止标签泄露,即在 t 时刻不能看到 t 时刻之后的信息;因为在infer阶段,只能看到已经生成的序列;
  • 一般使用一个上三角矩阵实现:即在计算softmax之前,将qk^T的计算结果赋值为-inf,这样经过softmax之后计算得到的注意力权重趋于0;
    image.png

    image.png

2.2 Multi-Head Attention

  • 每一个头都是一个Scaled dot-product attention的计算;
  • 最终多个头的输出concat在一起,再经过一个linear层得到 Multi-Head Attention 输出;
image.png

2.3 Positional Encoding

  • transformer模型完全基于注意力机制,没有考虑序列顺序信息,因此引入的positional encoding;
  • 在得到每个词的Embedding之后,与位置编码向量相加;并且每个词的位置编码向量是固定的;
  • 位置编码向量,具体计算公式如下:
    PE(pos, 2i) = sin(pos/10000^{2i/d_{model}}) \\ PE(pos, 2i+1) = cos(pos/10000^{2i/d_{model}})
    上式中,d_{model}代表词向量维度;pos代表单词的位置,i代表第几维;
image.png

参考资料

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,402评论 6 499
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,377评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,483评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,165评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,176评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,146评论 1 297
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,032评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,896评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,311评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,536评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,696评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,413评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,008评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,659评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,815评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,698评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,592评论 2 353