MetaMT

前置学习:

  元学习,迁移学习,Few-shot learning,life-long learning等区别和联系,台大李宏毅https://blog.csdn.net/weixin_41684423/article/details/115480637

MetaMT:

问题是什么?

在机器翻译任务中,特殊领域的数据集不易收集,限制了神经机器翻译模型的性能,

为什么问题重要?

利用多个领域域的数据开发稳健的翻译系统可以容易的迁移到特殊领域,(涉及到元学习,域适应,迁移学习等)。

为什么问题困难?

在神经机器翻译(NMT)中,从一个域到另一个域的迁移的挑战是域间的差异,主要由两个方面:

1)域间存在含义相同但表示不同的词,导致数据稀疏。

2)因为词的多义性问题,不同域的相同的词的含义不同,在特殊域的机器翻译上会导致严重后果。

别人做了什么?

存在的域适应NMT主要分为两类。

1)以数据为中心

聚焦在从语料库中创造特殊域的数据

2)以模型为中心

以模型为中心的类别侧重于专门用于领域适应的NMT模型,如微调和实例/成本加权。前者将目标域的数据放到训练数据流的末尾来微调模型参数。后者在训练时为目标域数据分配高权重。

核心贡献是什么?

操作多个领域的数据去模仿域适应并且训练一个新颖的模型,解决大词典,词稀疏和多义性的问题。

不采用查询表来存储词的表示,而是模型首先映射所有的词到一个所有域都共享的语义空间。

然后在每个域中重复的训练大量数据,然后在小数据集域上微调。

定义了模型参数元参数,模型参数用来学习从原句子到目标句子的翻译。元参数用于提高所学习模型的泛化能力。在微调阶段冻结模型参数并仅仅调整元参数。元学习策略用于学习参数初始化,可以快速采用于新领域。

主要的成果有哪些?

模型可以运用到任何一种语言。在最常用的英语到西班牙语的翻译上进行实验。实验表明,与现有的迁移学习NMT方法相比,进行评估时,改进了结果。为了进一步验证所提出的模型的有效性,使用了一个只有3000句电子健康记录的小数据集。实验表明,该模型在数千个句子上进行训练时,可以对特定领域产生高质量的结果。

第一,提出了一个基于元学习原则的新颖的域适应训练策略用于神经机器翻译。

第二,一种新的词嵌入转换技术处理域差距。

获得好结果的前提假设是什么?


NMT背景:

backbone :Encoder-Decoder:meta-NMT模型基于Transformer模型。

预适应用于NMT:

fine-tuning:缺点:需要大量样本避免过拟合,且导致其他域性能下降。

curriculum learning: 调整训练数据的顺序来提升收敛速度和性能。

DeNero等人研究微调并指出仅通过调整一小部分模型参数就可以实现域自适应。本文的工作也运用跟这个策略,划分参数到元参数和模型参数。

Vilar等人提出不同的神经元在不同的域扮演不同的角色,因此根据数据去调整神经元的权重是有必要的。于操作神经元和词表示不同,metaNMT使用神经映射去考虑域的差异。

元学习:

分为两类:一、作为一种原则:例如迁移学习和课程学习。二、元学习作为一种参数更新算法

下图展示了元学习的参数学习和调整过程:

元学习寻找参数过程,更容易调整到新领域

从图中可以看到,特殊域的寻参过程更快且准确。

Meta-NMT背景:

Meta-NMT

模型训练更新模型参数,红色虚线指向红框中的参数均为模型参数。元训练更新元参数,包括黑色虚线指向的两个框的参数。

第一步,先学习统一的词表示

Map Embedding to a New space:

映射公式

A矩阵(d*d)在训练中学习,E矩阵为挑选的频繁词的词嵌入域空间,由普通域训练得到。EG为n*d的矩阵。

Learning Policy:

模型训练过程

实验分析:

数据:

公开数据集网址

                  http://opus.nlpl.eu/

词频统计:byte pair encoding (BPE)进行分词

                  介绍:https://zhuanlan.zhihu.com/p/448147465

词嵌入:fastText

                  介绍:https://blog.csdn.net/feilong_csdn/article/details/88655927

分析:

评价指标:BELU

                  https://zhuanlan.zhihu.com/p/657704483

在7个公开数据集上的对比和消融实验:

实验结果,-enc&-dec为消融实验,对应去掉encoder前和decoder前的嵌入过程

在非常小的数据集上的实验(特殊域)

EHR(英语和西班牙语的电子健康记录),说明了很专业的构建了数据集(描述得很好)

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,142评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,298评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,068评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,081评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,099评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,071评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,990评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,832评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,274评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,488评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,649评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,378评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,979评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,625评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,643评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,545评论 2 352

推荐阅读更多精彩内容