学界 | 百度AAAI 2018论文提出新型NMT模型,性能堪比深层模型

姓名:张萌          学号17021211113

转自:http://mp.weixin.qq.com/s/4fYvp9XFyJP4fE9BYvYLBw

【嵌牛导读】:近日,AAAI 2018 公布论文接收列表,百度机器翻译团队的论文《Multi-channel Encoder for Neural Machine Translation》上榜。文章提出了一种多信道编码器(MCE)模型,可改进传统神经机器翻译(NMT)模型单一信道编码的缺点。该模型在中英翻译上的 BLEU 值提升了超过 6 个百分点,在英法翻译上用单层模型取得了可与深层模型媲美的效果。本文对该论文的主要内容做了介绍。

【嵌牛鼻子】:NMT模型

【嵌牛提问】:新的NMT模型是什么?

【嵌牛正文】:

基于注意力的神经机器翻译无疑成为 NMT 最有效的架构,在许多语言对上超越了传统的统计机器翻译(SMT)系统(Sen-nrich et al. 2017)。基于注意力的模型之所以能够大大超越典型的编码器-解码器模型,在于它能够通过一个相对简单的匹配函数动态检索相关联的源语块(类似 SMT 中的对齐)。换言之,基于注意力的模型受益于丰富的源语句表征及其表示局部结构的灵活性。

在典型的基于注意力的 NMT 系统中,使用双向循环神经网络(biRNN) 对源语句进行编码,利用 RNN 生成向量序列,粗略来说这些向量就是源语句单词的上下文感知嵌入(context-aware embedding)。这种设计下,编码器学习相对一致的句子组合。如今,编码器中的 RNN 已经被一些先进的门控机制变体所替代,例如 LSTM 和 GRU。对翻译来说,普遍希望解码器采用极其符合自己语言架构的语句组合块。

在此需求下,百度研究员提出了一种多信道编码模型(MCE),采用不同层次组合的编码组件。更具体而言,除了编码 RNN 的隐态,MCE 为不带组合的原始编码采取了原始词嵌入,并在 NTM 中以类似于带有不同频率的视觉信道的方式为更复杂的组合专门设计了外部存储器。所有三个编码策略在由参数控制的解码过程中被适当混合,并能够以端到端的方式被学习。更具体说,百度设计了一个可以自动调节不同编码信道权重的门控机制。

在此论文中,作者们也调查了 MCE 在不同的翻译任务上的表现。首先,在 NIST 中翻英任务上测试了该模型,相比于强大的 DL4MT 系统平均提升了 6.52 的 BLEU 得分。此外,在 WMT 2014 英翻法任务上,单个浅层模型获得了 38.8 的 BLEU 得分,可媲美于顶级模型。

论文:Multi-channel Encoder for Neural Machine Translation

图片发自简书App

论文链接:https://arxiv.org/abs/1712.02109

摘要:基于注意力的编码器-解码器是非常有效的神经机器翻译(NMT)架构,它通常依赖于循环神经网络(RNN)在解码过程中构建由 attentive reader 调用的块。尽管使用门控机制编码 RNN,但这种编码器的设计在源语句上产生了相对一致的组合。另一方面,我们常常希望解码器能够在不同层次上采取若干个源语句来匹配其自身语言结构:比如,我们也许想采取原始形式的实体名,同时采取一个习语(idiom)作为一个完美的组成单元。受此需求启发,我们提出了多信道编码器(Multi-channel Encoder/MCE),它增强了不同层面组合的编码组件。更具体的是,除却编码 RNN 的隐藏状态,1)MCE 为不带组合的原始编码采取了原始词嵌入;2)神经图灵机(NTM)专门设计的外部存储器用于更加复杂的组合,而所有三种编码策略在解码时被恰当地混合。汉英翻译的实证研究表明,我们的模型在强大的开源 NMT 系统 DL4MT1 上实现了 6.52 个 BLEU 百分点的提升。在 WMT14 英法语翻译务中,我们的单一浅层系统达到了 38.8 的 BLEU 值,与当前最优的深度模型相当。

图片发自简书App


图 1:左图是传统的基于注意力的 NMT 模型,包含编码器、解码器和一个注意力机制。右边是我们的全新 NMT 模型,带有多个信道编码器,包含来自双向 RNN 的隐藏状态、NTM 中的外部存储和直接来自输入序列的嵌入,并设计了一种门控注释(gated annotation)自动学习不同解码组件的权重。

图片发自简书App

图 2:编码器中 NTM 的图示,每一时间步上 RNN 在 NTM 中的读和写。

图片发自简书App

表 1:不同系统在中翻英任务上的表现。相比于强大的开源系统 DL4MT,我们的模型有极大的改进。我们也列出了与近期开源的两个工具包 T2T、ConvS2S 的对比。要知道,T2T 和 ConvS2S 都是多层的深度模型。

图片发自简书App

表 2:英翻法任务:BLEU 得分。其中 RNN 表示基础的循环神经网络模型,MCE 模型结合了从 RNN 的嵌入、隐藏状态以及 NTM 中的外部存储三种编码组件。注意,我们的模型不执行 PosUNK,且使用小型词汇量。

图片发自简书App

图 3:不同语句长度下的性能。

百度机器翻译简介:百度机器翻译团队继 2015 年推出全球首个 NMT 线上翻译服务之后,通过持续不断的技术创新,在 NMT 模型研究和产品商业化应用上屡创佳绩。在今年的百度世界大会上成功展示了自动同声传译系统,语音识别和机器翻译技术无缝衔接,翻译结果流畅自然。同时,百度也在今年推出了一键式多语种 WIFI 翻译机,产品自带 80 多个国家的 4G 网络、语种自动识别,提供多语种高质量语音翻译。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,029评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,395评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,570评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,535评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,650评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,850评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,006评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,747评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,207评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,536评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,683评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,342评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,964评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,772评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,004评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,401评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,566评论 2 349

推荐阅读更多精彩内容