Attention & Memory

没有原创,都是各处粘贴汇总的,只是为了自己梳理以下结构。

Attention

monotonic attention

一、原理

Attention Mechanism可以帮助模型对输入的X每个部分赋予不同的权重,抽取出更加关键及重要的信息,使模型做出更加准确的判断,同时不会对模型的计算和存储带来更大的开销,这也是Attention Mechanism应用如此广泛的原因。

An attention function can be described as mapping a query and a set of key-value pairs to an output,where the query, keys, values, and output are all vectors

1. Recurrent Models of Visual Attention - deepmind 2014

    在RNN模型上使用了attention机制来进行图像分类

2.Neural Machine Translation by Jointly Learning to Align and Translate.

    这篇论文算是在NLP中第一个使用attention机制的工作。

3.Effective Approaches to Attention-based Neural Machine Translation.

    这篇论文是继上一篇论文后,一篇很具代表性的论文,他们的工作告诉了大家attention在RNN中可以如何进行扩展,这篇论文对后续各种基于attention的模型在NLP应用起到了很大的促进作用。在论文中他们提出了两种attention机制,一种是全局(global)机制,一种是局部(local)机制。

4.ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs

    这篇论文是attention在CNN中较早的探索性工作.ABCNN笔记

5.A Structured Self-attentive Sentence Embedding ICLR-2017

keywords:[self attention]

    这篇文章提出了使用self-attention技术来生成可解释句子向量的模型。通常我们使用向量(vector)来表示单词、短语或者句子向量,在这篇文章中,作者提出可以使用二维句子来表示句子,矩阵的每一行表示句子的不同部分.

Self Attention与传统的Attention机制非常的不同:传统的Attention是基于source端和target端的隐变量(hidden state)计算Attention的,得到的结果是源端的每个词与目标端每个词之间的依赖关系。但Self Attention不同,它分别在source端和target端进行,仅与source input或者target input自身相关的Self Attention,捕捉source端或target端自身的词与词之间的依赖关系;然后再把source端的得到的self Attention加入到target端得到的Attention中,捕捉source端和target端词与词之间的依赖关系。因此,self Attention Attention比传统的Attention mechanism效果要好,主要原因之一是,传统的Attention机制忽略了源端或目标端句子中词与词之间的依赖关系,相对比,self Attention可以不仅可以得到源端与目标端词与词之间的依赖关系,同时还可以有效获取源端或目标端自身词与词之间的依赖关系

5.Attention is all you need

    笔记

6.Show, Attend and Tell: Neural Image Caption Generation with Visual

     [image caption]    

    基于序列生成的Attention机制可以应用在计算机视觉相关的任务上,帮助卷积神经网络重点关注图片的一些局部信息来生成相应的序列,典型的任务就是对一张图片进行文本描述。给定一张图片作为输入,输出对应的英文文本描述。Attention机制被用在输出输出序列的每个词时会专注考虑图片中不同的局部信息。Show, Attend and Tell 论文阅读笔记

6.2 Image Captioning with Semantic Attention.

    加入attention机制的image caption问题

7.Reasoning about Entailment with Neural Attention, 2016

    Attention机制被用于关联假设和前提描述文本之间词与词的关系。我们提出了一种基于LSTM的神经网络模型,和把每个输入文本都独立编码为一个语义向量的模型不同的是,该模型同时读取前提和假设两个描述的文本序列并判断假设是否成立。我们在模型中加入了Attention机制来找出假设和前提文本中词/短语之间的对齐关系。

8.Attention-Based Models for Speech Recognition, 2015.

    Attention机制被用于对输出序列的每个音素和输入语音序列中一些特定帧进行关联。一种基于Attention机制的端到端可训练的语音识别模型,能够结合文本内容和位置信息来选择输入序列中下一个进行编码的位置。该模型有一个优点是能够识别长度比训练数据长得多的语音输入。

9.A Neural Attention Model for Abstractive Sentence Summarization, 2015

    给定一篇英文文章作为输入序列,输出一个对应的摘要序列。Attention机制被用于关联输出摘要中的每个词和输入中的一些特定词。在最近神经网络翻译模型的发展基础之上,提出了一个用于生成摘要任务的基于Attention的神经网络模型。通过将这个概率模型与一个生成式方法相结合来生成出准确的摘要。

10.Attention and Augmented Recurrent Neural Networks

    Attention和增强RNN

11.Hierarchical Attention Networks for Document Classification

    本文采用document级分类,即document由sentence组成,而sentence由word组成,因此天然的具有层级关系。以word为粒度输入网络抽取word级特征得到表示sentence的特征向量;然后将sentence级向量输入网络抽取sentence级特征得到最终的document级特征,然后将document特征通过一个线性表示和softmax。为了给与不同的word和不同的sentence分配不同的权重,论文设计一个层级架构的attention机制用于提升模型的性能。

12.Look Closer to See Better: Recurrent Attention Convolutional Neural Network for Fine-grained Image Recognition

这种网络可以更精准地找到图像中有判别力的子区域,然后采用高分辨率、精细化特征描述这些区域,进而大大提高精细化物体分类的精度。

12.list

    从2017年顶会论文看Attention Model

    http://mini.eastday.com/mobile/171011124829097.html

    ICLR 2017:注意力与记忆网络

    http://baijiahao.baidu.com/s?id=1562210686081237&wfr=spider&for=pc

13.CVPR 2017: Attention Models

https://github.com/ArcherFMY/Paper_Reading_List/tree/master/CVPR2017-Attention-model

14.Attentive Memory Networks: Efficient Machine Reading for Conversational Search


rest:

Attention and memory in deep learning and NLP

Attention Mechanism

Survey on Attention-based Models Applied in NLP

What is exactly the attention mechanism introduced to RNN(Quora问答)

What is Attention Mechanism in Neural Networks?


14.Gentle Introduction to Global Attention for Encoder-Decoder Recurrent Neural Networks

https://machinelearningmastery.com/global-attention-for-encoder-decoder-recurrent-neural-networks/



list:

模型汇总24 - 深度学习中Attention Mechanism详细介绍:原理、分类及应用https://zhuanlan.zhihu.com/p/31547842


Attention!神经网络中的注意机制到底是什么https://mp.weixin.qq.com/s/VotQNDmJiBUnNS116IzaLQ



Memory:

1.Structured Attention Networks

2.Neural Turing Machines-NTM系列

http://blog.csdn.net/rtygbwwwerr/article/details/50548311

读《Neural Turing Machines》:  https://zhuanlan.zhihu.com/p/22513016

3.A Closer Look at Memorization in Deep Networks

4.记忆网络之Memory Networks

https://zhuanlan.zhihu.com/p/29590286

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,287评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,346评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,277评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,132评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,147评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,106评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,019评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,862评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,301评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,521评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,682评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,405评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,996评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,651评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,803评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,674评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,563评论 2 352

推荐阅读更多精彩内容