「自然语言处理(NLP)论文解读」BAMnet QA【IBM】&& Multi-View Attention QA【北大】

来源:AINLPer微信公众号
编辑: ShuYini
校稿: ShuYini
时间: 2019-8-22

引言

    本次两篇文章都是关于问答(QA)的。其中第一篇主要是提出了一种基于知识库的双向注意力记忆网络(BAMnet),建立问题和知识库之间的关系,从而提高了问答性能。第二篇主要提出多视角注意力机制(Multi-View Attention),并以此链接不同的任务,将任务特定层的重要信息集成到共享层中,使模型能够交互式地学习单词级和知识级表示,从而提高问答性能。

First Blood

TILE: Bidirectional Attentive Memory Networks for Question Answering over Knowledge Bases.
Contributor : 伦斯勒理工学院 && IBM研究院
Paper: https://arxiv.org/pdf/1903.02188v3.pdf
Code: https://github.com/hugochan/BAMnet

文章摘要

    大多数现有的基于嵌入式的知识库问答方法忽略了问题和知识库之间微妙关系(例如,实体类型、关系路径和上下文),为此本文提出通过一个新的双向注意力记忆网络(BAMnet)来直接模拟问题和知识库之间的双向交互。该方法不需要外部资源,只需要很少的手工特性,在Web问题基准测试中,我们的方法显著优于现有的基于信息检索的方法,并且与(手工的)基于语义解析的方法相比具有一定的竞争力。

本文三大看点

    1、提出了一种基于知识库的双向注意力记忆网络,旨在直接模拟问题与知识库之间的双向交互。
    2、该方法由于采用了注意力机制,提供了良好的解释性;
    3、在WebQuestions基准测试中,该方法显著优于以前的基于信息检索的方法,同时与(手工)基于语义解析的方法相比具有竞争力。

BAMnet模型结构介绍

BAMnet模型结构

    可以看到该模型由输入模块、存储模块、推理模块和回答模块四部分组成。

输入模块

    输入NL问题Q = {q_i}^{|Q|}_{i=1}通过单词嵌入层表示为单词嵌入序列(q_i)

记忆力模块

    候选答案:尽管知识库中的所有实体原则上都可以是候选答案,但这样计算代价比较大,而且在实际应用中是没有必要的。所以只考虑那些“接近”问题主题实体的实体。答案是实体节点的文本描述(例如,名称)。在获得主题实体之后,我们在h跃点内收集与之相关的所有实体作为候选答案。
    知识库表示对于来自知识库的每个候选答案,我们编码三种类型的信息:答案类型、路径和上下文。其中:
    答案类型:实体类型信息是对答案进行排序的重要线索
    答案路径:将答案路径定义为从候选答案到主题实体的一系列关系。
    答案上下文:答案上下文被定义为候选答案的周围实体,这些实体可以帮助回答带有约束的问题。
    键值记忆模块在该模型中使用key-value memory network (Miller et al., 2016)来存储候选答案。与基本内存网络不同(Weston et al., 2014),它的寻址阶段基于键内存,而读取阶段使用值内存,这使得通过功能分离对先验知识进行编码具有更大的灵活性。

推理模块

    推理模块由泛化模块和二层双向注意力网络组成,其目的主要是捕捉问题与知识库之间的双向互动。注意力网络包括基于知识库的知识库感知注意力模块和基于问题知识库的知识库感知注意力模块。二次注意网络(图1中的增强模块)是为了进一步利用双向注意来增强问题和知识库向量。
    知识库感知注意力模块并不是所有的单词都是一样的。我们使用意识到kb的注意机制来关注问题的重要组成部分,如下图3所示。


    重要性模块 重要性模块侧重于重要的KB方面,主要是通过它们与问题的相关性来衡量。
    增强模块我们利用双向注意力进一步增强问题和知识库表示。
    泛化模块 在回答问题之前添加了一个one-hop注意力过程。我们使用问题表示通过一个注意力机制查询键存储,并从值存储中获取最相关的信息,然后用于更新问题向量。最后,我们应用一个残差层(和批量归一化(BN)来保证模型在实践中的性能。
    回答模块通过计算候选答案的匹配得分进行排序,然后得到最终的答案。

实验结果

    在WebQuestion测试上结果对比

    假定Gold主题实体已知,网络问题测试集的消融结果。
    推理模块注意力热图。彩色效果最佳

Double Kill

TILE: Multi-Task Learning with Multi-View Attention for Answer Selection and Knowledge Base Question Answering.
Contributor : 北京大学深圳研究生院
Paper: https://arxiv.org/pdf/1812.02354v1.pdf
Code:https://github.com/dengyang17/dengyang17.github.io

文章摘要

    答题选择和基于知识库的问答是问答系统中两项重要任务。现有的方法分别解决这两个任务,需要大量的重复工作,而忽略了任务之间丰富的相关信息。 为此本文提出一种新的多任务学习方案,利用从不同角度学习的多视角注意力,使这些任务相互作用,学习更全面的句子表示。在多个实际数据集上的实验验证了该方法的有效性,提高了答案选择和KBQA的性能。同时,多视点注意方案被证明能够有效地从不同的表征角度组合注意信息。

本文三大看点

    1、探讨了多任务学习方法的答案选择和基于知识库的问答。知识级的KBQA任务有助于答案选择任务,而单词级的答案选择任务可以有助于KBQA任务。
    2、提出了一种新的多任务学习方案,该方案利用多视图注意力机制来连接不同的任务,将任务特定层的重要信息集成到共享层中,使模型能够交互式地学习单词级和知识级表示。
    3、实验结果表明,答案选择和KBQA的多任务学习优于目前最先进的单任务学习方法。此外,基于多视图注意力的MTL方案进一步提高了性能。

本文模型介绍(Multi-Task Model with Multi-View Attention )

多任务问答模型

    基本的多任务学习模型是一种深度神经网络,采用分层特定的共享机制(Guo, Pasunuru, Bansal 2018),在不同的任务之间共享一些高层信息,剩余的层是并行的、独立的,学习任务特定的低层信息。

    上图展示了用于选择答案(AS)和知识库问答(KBQA)的多任务QA网络(MTQA-net)的总体架构。

多视角注意力模型

    多视角注意力模型如下图所示:
Multi-View Attention

    如上图所示,与其他注意力共享方案不同,我们不仅从任务特定层吸引注意力,还结合了来自共享层的信息。此外,我们从词汇和知识两个角度获取注意力信息,因为词汇级别和知识级别的信息对表征性学习有共同的贡献。具体来说,我们计算了五种注意力的视角,包括单词、知识、语义、知识语义和注意力。

多视角注意力共享

    由于多视图注意力应用于共享表示层的隐藏状态,计算注意力权重的参数也应该在任务之间共享。同时,由于多视图注意方案从任务特定层和共享层收集信息,因此不同的任务通过多视图注意连接起来。

实验结果

    多任务学习结果

    多视觉注意力消融分析
    多视觉注意力案例研究

ACED

Attention

更多自然语言处理相关知识,还请关注AINLPer公众号,极品干货即刻送达。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,100评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,308评论 3 388
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,718评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,275评论 1 287
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,376评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,454评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,464评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,248评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,686评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,974评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,150评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,817评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,484评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,140评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,374评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,012评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,041评论 2 351

推荐阅读更多精彩内容