简评《A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task》

论文来源:ACL2016

作者:Danqi Chen and Jason Bolton and Christopher D. Manning

Computer Science Stanford University    

问题:机器阅读理解问题(Reading Comprehension)

主要方法:

1.提取特征构建传统的分类器,这里其实是转换成了候选实体的ranking问题,即将ranking得分最高的实体作为答案。这里主要用了以下八个特征

(1)Whether entity e occurs in the passage

(2)Whether entity e occurs in the question

(3)The frequency of entity e in the passage.

(4)The first position of occurence of entity e in the passage.

(5)n-gram exact match

(6)Word distance

(7)Sentence co-occurrence

(8)Dependency parse match

2.End-to-end Neural Network,利用带attention的神经网络去训练并预测正确答案。


这里的神经网络模型主要是利用双向LSTM对passage和question分别进行encoding,并利用词与问题之间的相关性得到attention值,利用这个attention值对passage的embedding进行加权,得到一个最终的输出向量o,用于答案的预测。具体公式如下:

Encoding:

(i)p: p1,...,pm∈Rd and q : q1,...,ql∈Rd.

(ii)a shallow bi-directional LSTM with hidden size h ̃ to encode contextual

embeddings  of each word in the passage


(iii) another bi-directional LSTM to map the question q1,...,ql toan embedding q∈Rh.

Attention:


Prediction:


相关工作:

1. AttentiveReader(Hermann et al., 2015) based on CNN and Daily Mail datasets

2. MCTest (Richardson et al., 2013)主要是短篇的小说故事,并带有what, why, how, whose, which这些类型的问题,数据集共有660篇,每篇带有四个问题,对于这个数据集,目前比较好的方法还是依赖于人工构建出来的句法和语义特征并结合上一些附加的先验知识

3. Children Book Test (Hill et al., 2016)从儿童故事书中抽出连续的21个句子,将前20句作为passage,目标是预测出第21句中缺失的词。对于预测动词和介词,利用语言模型或rnn并结合词的上下文信息是比较有效的,但对命名实体以及普通名词则需要利用全文的信息去做预测。对于该数据集,目前比较好的方法是基于窗口的记忆网络(window-based memory networks)

4. bAbI (Weston et al., 2016)人工构建的数据集,包含20种不同的推理类型,主要侧重于推理、归纳、演绎的能力,目前许多种类型的记忆网络在这个数据集上能获得比较好的效果。但是这个数据集的词表很小,只有100~200个词,而且语言变化相对简单,与实际数据有一定差距。

简评:

这篇论文主要是基于Hermann的《Teaching Machines to Read and Comprehend》更深入地做了一些研究工作。对于CNN/Daily Mail数据集,作者提出了两种模型,一种基于特征去做ranking,另一种就是带attention的神经网络模型。神经网络模型主要基于Hermann的模型并做了一些改进,最主要的一个改进是在计算question embedding和passage embedding的相关度,即attention值的时候,用bilinear term代替了tanh层,结果表明,用bilinear term能够有效地提升模型效果,第二个改进主要是对模型的简化,原有模型在得到了带attention的embedding o之后,用了一层非线性层对embedding o和question embedding进行结合,再做预测,实验结果表明,去掉该非线性层对模型效果影响不大,还有一点改进就是预测所用的词表只使用在passage中出现过的entity。从结果上看,基于特征的模型已经超过之前的大多数模型,而end-to-end神经网络更是将state-of-the-art提高了5%以上。

除了模型方面的改进,作者另一个重要的工作是对数据进行了分析。作者抽取了100个样例进行具体分析,将100样本按照问题的类型划分成了六类,并分析了模型解决每一类问题的准确率。数据集的构成方式决定了该数据集有一定的噪声,分析结果显示,100个样本中有8%的指代错误,17%的样本语义模糊不清或者人都难以回答,因此作者认为模型达到72.4%的准确率已经基本达到了这个数据集的最佳结果。

深度学习需要有足够的训练数据才能训练出有效的模型,之前的阅读理解任务受限于数据量的大小,基本上都是用基于特征的方法来解决问题。而随着CNN/Daily Mail数据集及Children Book Test (Hill et al., 2016)等数据集的出现,解决了训练数据量的问题,使得深度学习方法在阅读理解任务上也取得了很好的效果。但是由于这些数据是通过一些方法自动生成的,没有经过严格的人工标注,因而存在一些噪声,正如本文中对数据样本的分析可以看到,这些噪声一定程度上限制了模型的效果,因而对这部分数据进行校正和修改,对提升模型效果有一定的帮助。阅读理解任务有难易之分,目前机器对语义的理解能力还不够,推理、演绎的能力不足,要想真正达到理解语义的程度,我想不仅需要对数据集有一定的要求,对模型的改进也是必不可少的。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342

推荐阅读更多精彩内容