ACL | 自然语言处理(NLP)之多轮对话建模优化(Utterance ReWriter)

引言

    最近2019年新鲜的ACL论文出来了,发现了一篇关于多轮对话模型的文章还不错,其题目为:Improving Multi-turn Dialogue Modelling with Utterance ReWriter。文章单位:微信人工智能模式识别中心(腾讯)。文章的背景为:当前我们在日常多轮交流的时候,经常会出现前后相互参照和信息遗漏的问题,这对于人来说能够正确的理解出说话人的意图,但是对于机器来说,这是比较困难的。为此该篇文章提出了:为提高多轮会话模型水平,将重写人类的话语作为其一个预处理过程。每句话都要重写一遍,以恢复所有相关和省略的信息。然后根据重写的话语执行下一步处理步骤。为了更好地训练语音重写器,文章收集了一个带有人工注释的新数据集,并利用指针网络引入了一种基于转换的语音重写体系结构。

本文概述

    当前对话系统中,对于单轮对话的模型建模来说已经相对比较成熟一点,但是对于多轮对话来说仍然具有比较大的挑战。其最大的挑战就是在多轮对话中存在共指关系和信息缺失。如下图所示:
多轮对话的例子

    为了解决多轮对话中的共指关系和信息缺失的问题,本文的思路是训练一个言语重写器将多轮对话转换成单轮对话,其目的就和上图所示,将Utterance3改成Utterrance3`。由于把信息补全了,所以此时的多轮就相当于单轮对话了,将其输入到对话系统中,就可以按照单轮对话来处理了。为了训练言语重写器,文章创建了包含2万个多轮对话数据集,并且每句话都是成对的存在的;提出了一种高效的基于转换的话语改写器,其性能优于其它几个比较强的基线版本;最后将话语改写器应用到现实生活中的在线聊天机器人中,得到比较显著的改进效果。

数据集介绍

    为了获得句子改写器模型的并行训练数据,我们从几个流行的中国社交媒体平台上抓取了200k个候选的多轮会话数据,供标注者使用。敏感信息会预先过滤,以便以后处理。在开始标注之前,我们随机抽取了2000个会话数据,并分析了多轮对话中出现共引用和省略的频率。
多轮对话特征统计

    表2列出了统计数据。可以看出,只有不到30%的话语既没有共参也没有省略,相当多的话语既没有共参也没有省略。这进一步证实了在多轮对话中处理这些情况的重要性。

模型介绍

问题定义

    定义每个训练样本为:(H,U_n \to{R} ) ,其中H=\left\{U_1,U_2,...,U_{n-1}\right\}表示前n-1轮的会话历史,U_n表示第n轮的会话前,R表示消除共指关系和信息缺失后输出的言语。训练Utterance ReWriter目标根据会话历史数据自动推断出重写的U_n。该过程首先将(H,U_n)编码为向量s序列,然后利用指针网络对R进行解码。整个模型架构图如下所示:

模型架构图

编码器

    我们将(H,U_n)中的所有token展开为(w_1,w_2,\ldots,w_m)。m是整个对话中的token数量。在每两个会话之间插入一个会话结束分隔符。然后用转换器对展开的token序列进行编码。我们将(H,U_n)中的所有token连接起来作为输入,希望转换器能够通过self-attention机制在其中学习基本的共指信息。对于每个tokenw_i,其输入嵌入量为其单词嵌入、位置嵌入和轮数嵌入之和:

    单词嵌入和位置嵌入与一般的转换结构相同[1]。我们添加一个附加的轮数嵌入来表示每个token属于哪一轮数。来自相同回合的token将共享相同轮的嵌入。然后将输入嵌入转发到堆叠编码器中,得到最终的编码表示形式。每个编码器包含一个自我注意层,并且携带着一个前馈神经网络。
    FNN是一个前馈神经网络,MultiHead(Q,K,V)是一个多头注意力函数,它的输入为查询矩阵Q,键矩阵K以及值矩阵V。每个自注意和前馈组件都有一个剩余连接和分层归一化步骤[2]。

解码器

    解码器也包含L层,每层由三个子层组成。第一个子层是多头self-attention:

。第二个子层是编码器-解码器注意,它将集成到解码器中。在我们的任务中,由于和的用途不同,我们使用单独的键值矩阵来表示来自对话历史H和来自的标记。从上一节得到的编码序列被分解为 (的令牌编码)和(的tokensen编码),然后分别处理。编码器和解码器的矢量计算如下:
第三个子层是位置全连通的前馈神经网络:

输出分布

    在解调过程中,我们希望我们的模型可以在不同的步骤中学习从HU_n复制单词。因此,我们施加一个软门控权重λ来做出决定。结合最后一层的译码层的注意分布计算译码概率。

    其中和分别是和中token上的注意分布。, 和是需要学习的参数,是sigmod函数。门权重的工作原理就像哨兵一样,通知解码器是否从对话中提取信息历史或直接在拷贝。如果Un既不包含共指信息也不包含信息遗漏。就总是1复制最初的作为输出。否则当检测到共指信息和信息遗漏的时候,就会变成0,此时注意机制负责从对话历史中找到适当的共指信息或缺省信息。整个模型是端到端进行训练,来最大化。

实验结果

    我们训练我们的模型在收集的数据集上执行话语重写任务。在本节中,我们将重点回答以下两个问题:(1)您所提出的模型分别能在多大程度上准确地执行共参照解析和信息补全;(2)训练有素的话语改写者在帮助离线对话系统提供更合适的回答方面有多出色。为了回答第一个问题,我们将我们的模型与几个强基线进行比较,并通过自动评估和人工判断对它们进行测试。对于第二个问题,我们整合了我们的两个在线对话系统模型,并分析了它是如何影响人机交互的。下面的部分将首先介绍比较的模型和基本设置,然后报告我们的评估结果。
    实验结果我看了一下,主要是针对论文主审的问题进行做的实验,这里我就不多说了。有兴趣的同学可以下载原文看一下。
原文地址:https://github.com/yinizhilian/ACL_Paper

主要参考文献

[1]Nikola Mrkˇ si´c, Diarmuid ´O S´eaghdha, Tsung-Hsien Wen, Blaise Thomson, and Steve Young. 2017. Neural belief tracker: Data-driven dialogue state tracking. In Proceedings of the 55th Annual MeetingoftheAssociationforComputationalLinguistics (Volume 1: Long Papers), pages 1777–1788.
公众号:AINLPer

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 228,835评论 6 534
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 98,676评论 3 419
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 176,730评论 0 380
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 63,118评论 1 314
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 71,873评论 6 410
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 55,266评论 1 324
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 43,330评论 3 443
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 42,482评论 0 289
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 49,036评论 1 335
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 40,846评论 3 356
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 43,025评论 1 371
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 38,575评论 5 362
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 44,279评论 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 34,684评论 0 26
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 35,953评论 1 289
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 51,751评论 3 394
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 48,016评论 2 375

推荐阅读更多精彩内容