论文笔记 --《Get To The Point: Summarization with Pointer-Generator Networks》

作者:himon
时间:2021.1.6
来源: ACL 2017
关键词:NLG,Pointer-Generator Networks


1.背景及问题描述

seq2seq模型的出现给生成式摘要(abstractive text summarization)的实现提供了更好的方案,但是seq2seq常常出现的两点弊端:1. 它容易生成不准确的细节 2. 容易重复 3.不能处理OOV问题。作者提出了两个方法来提升seq2seq模型的表现,一个是将PointerNetwork与seq2seq中的encoder结合起来,使得生成的结果中既有seq2seq从全部词典中生成的,也有从源文本中copy的,这样即可以帮助生成准确的词语,同时也可以处理OOV的问题。第二点是使用coverage机制来追踪摘要的部分,一次来避免重复(repetition)。

2.已有的解决方案

seq2seq+attention是处理此类问题的baseline:

seq2seq

seq2seq模型分为encoder和decoder。在encoder端,需要将文章w_i中的单词一个一个的fed到encoder中(LSTM或者Transformer),经过encoder得到文章i的编码状态 h_i (encoder hidden states),在decoder端,在每一个时刻t,decoder接收前一个时刻单词的词向量,求得解码状态s_t(decoder hidden state ),然后计算得到注意力权重a^t
e^t_i=v^T tanh_{(W_hh_i+W_ss_t+b_{atn})} \\ a^t=softmax(e^t)
公式中v,W_h, W_s以及b_{attn}都是可学习的参数。
这里得到的注意力权重a^t可以看作是关于source中所有词语的关注度概率,用来告诉decoder应该关注那一个word来生成下一个词语。

然后使用注意力权重a^t和编码状态 h_i计算得到加权的编码状态,看作是上下文向量h^*_t
h^{*}_t = \sum_i{a^t_ih_i}

将上面得到的上下文向量h^*_t送入到两层线性层,计算softmax得到单词表概率分布P_{vocab},概率值表示词典中所有vocab被选中的概率。

P(w) = P_{vocab}=softmax_{(V^{'} (V[s_t, h^{*}_t] + b)+b^{'} )}

最后使用交叉熵计算loss,完整的loss就是序列每个位置loss的平均值:
loss_t = -log_{P(w^{*}_t)} \\ loss = \frac{1}{T}\sum^{T}_{t=0}{loss_t}

3.解决方案概述

本篇论文是在seq2seq基础上提出了Pointer-Generator Networks,也就是seq2seq+PointerNetwork:

PGN
  1. Pointer-Generator Networks

在解码阶段,如何确定是从source中copy还是生成,作者引入一个权重p_{gen} \in [0,1]来决定。具体的计算,在t时刻:
p_{gen}= sigmoid(W^{T}_{h^{*}}h^{*}_t + w^{T}_ss_t + w^{T}_xx_t+b_{ptr})
其中,W_{h^{*}},w_s, s_x以及b_{ptr}是可学习参数,解码状态s_t,上下文向量h^*_t,decoder的输入x_t
在解码阶段需要维护一个扩展的词典,即原本词典加上source中出现的所有词语,我们在这个扩展的词典上计算所有token的概率:

P(w) = p_{gen}P_{vocab}(w) + (1-p_{gen})\sum_{i:w_i=w}{a^{t}_i}
在这里,如果w是OOV,则P_{vocab}为0,相同的,如果w没有出现在source中,则后面一项也为0.

loss的定义与seq2seq中相同。

2.Coverage mechanism

重复是seq2seq模型经常出现的问题,本文引入 Coverage model来解决这个问题,这也是本文的主要亮点。具体实现上,就是将之前所有step的注意力权重相加到一个覆盖向量(coverage vector) c^{t} 上。就是用先前的注意力权重决策来影响当前注意力权重的决策,这样就避免在同一位置重复,从而避免重复生成文本。具体计算如下:
c^{t}=\sum^{t-1}_{t^{'}=0}{a^{t^{'}}}
然后将覆盖向量添加到注意力权重的计算过程中:
e^t_i=v^T tanh_{(W_hh_i+W_ss_t+w_cc^{t}_i +b_{atn})}
这就可以使得在计算注意力权重时,当前的决定是受到历史决定影响的,这样就可以让注意力机制避免重复关注某个位置,也就可以避免生成重复词语。

作者发现引入 coverage loss 是很有必要的,coverage loss的计算方式如下:
covloss_t=\sum_i{min(a^{t}_i c^{t}_i)}

模型最终的loss为,其中\lambda是超参数:
loss_t = -log_{P(w^{*}_t)} + \lambda \sum_i{min(a^{t}_i c^{t}_i)}

4.结果分析

图1

在abstractive摘要的评测中,本文提出的方法在ROUGE这个指标上提升比较明显。
此外,作者发现,lead-3的实验设置,也就是只取文章的前3句话进行抽取生成,ROUGE得分明显更高,这是因为新闻的关键信息一般出现在文章开头。实际上,作者实验发现,只使用前400个token效果更好。

此外作者还分析了,本文模型与seq2seq+attentoin模型生成很少见n-gram的比例:

图二

少见n-gram的定义是没有出现在原本的n-gram。从上图可以发现,本文模型生成比较少的少见n-gram,seq2seq+attentoin模型生成的比较多,并且大多数都是错误的。

5.创新点或贡献

  1. 文本提出了一种引入覆盖机制的混合指针模型,可以有效缓解生成模型不准确和重复的问题。
  2. 在长文抽取任务中,本模型结果大大超出当时的SOTA。
  3. 本文是在seq2seq模型基础上加入的PointerNetwork和Coverage model,效果提升很多,但是模型参数没有增加很多。详细的,baseline模型参数共有21,499,600参数,pointer-generator增加1153参数,coverage增加512参数

6.个人思考

经典的文章,经典的思路,值得深入学习!

[参考]
paper
code-pytorch

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,658评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,482评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,213评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,395评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,487评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,523评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,525评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,300评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,753评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,048评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,223评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,905评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,541评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,168评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,417评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,094评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,088评论 2 352