NLP论文解读:XLNet

摘要

通过双向文本预训练模式,以BERT为代表的基于自编码(autoencoding)的预训练模型在各类任务上表现突出,超越了传统的单向训练的自回归(autoregressive)语言模型。但由于使用mask进行训练,输入与下游任务的fine-tunning不一致,这种不一致使得BERT在生成类任务上相对较弱。
综合考虑自编码(autoencoding)模型BERT与自回归(autoregressive)模型transformer-XL的优缺点,作者提出了XLNet,它具有以下优势:

  • 能够学习双向的文本信息,得到最大化期望似然(对所有随机排列,解决mask导致的问题)
  • 使用自回归的方程解决BERT存在的问题,同时将最好的自回归模型transformer-XL的思想应用于pre-train中
    最终,XLNet在20个NLP任务中打败large-BERT,其中18个取得了state-of-the-art。

1 介绍

传统无监督表征学习(Unsupervised representation learning)被成功应用在大量无标注文本的预训练上,其中AR(自回归)与AE(自编码)是最成功的两种预训练语言模型。
AR方法学习文本序列的条件概率,即学习已知上文预测下一个词或一直下文预测上一个词。但是这样预训练的语言模型与一些不需要“重写”(rewrite)下游任务不匹配,如情感分析,摘要提取等。
AE方法则重构数据,mask部分token,用上下文的双向信息来预测被mask的token,由于训练时使用了【MASK】,而在下游任务中input并没有【MASK】,因而存在pretrain-finetune discrepancy,同时BERT同时mask15%的token这个操作实际上做了一个有风险的假设:假设每一个被mask的token之间是相互独立的。
XLNet综合AE与AR的优点,同时在一定程度上避免了两者的缺点:

  • 通过打乱文本sequence的token顺序,使得用前n-1的token来预测第n个token时,同时能用到上下文的信息。对所有可能的token排列(all possible permutations of the factorization order)来求期望的对数似然函数。
  • XLNet是一种广泛意义上的AR模型,每次只预测一个token,所以避免了mask多个token而难以判断被mask的多个token之间的联系。

同时,XLNet使用了一些小trick,改善了Transformer-XL的一些问题:

  • 使用片段复发机制(segment recurrence mechanism),使得它在长文本的任务中表现更好。
  • 直接使用Transformer-XL来训练基于排序的语言模型(permutation-based language model)是不行的,会得到不确定的结果,作者重新设置了Transformer-XL的网络与参数,去除了这种随机性。

相关工作
基于排序的语言模(permutation-based language model)的想法已经被其他人提出过,但是他们的模型缺乏位置编positional encodings,目标是通过无序的模型来提高估计效果,但作者的模型则是用来学习双向的文本信息(bidirectional contexts),提高预训练与下游任务的匹配。

2 方法的提出

2.1 背景

AR方法可以直接求最大化对数似然,可以逐步拆解条件概率,公式如下:


f1.png

AE方法通过随机将一定比例(常为15%)的token换成【MASK】,求上下文已知情况下,被MASK的词的条件概率,其中必须假设被msak的词之间互不相关,才能将其拆开,公司如下:


f2.png

作者从独立性假设(Independence Assumption)、输入噪音(Input noise)、文本依赖(Context dependency)三个方面比较了两种方法的优缺点。

2.2 目标:PLM(Permutation Language Modeling)
p1.png

简单来说,就是一种广义的AR方法(避免了AE的不合理的独立性假设),通过重新排序的方法,使得预训练得到双向的文本信息。但为了使输入与其后的fine-tunning阶段相同,重新排序的过程在transformer层内部实现,具体结构在2.3节有详细说明。
举个例子,比如输入为(x1,x2,x3,x4),重新排序有4!种情况。按照传统AR的方法的方法从左到右预测的话,只能通过x1,x2预测x3,则损失了x4的信息,如果得到的排序是(x4,x1,x3,x2)的话,则通过x4,x1来预测x3。当然句子长度非常长时,是不可能穷举的,通过抽样的方法来求期望,并最大化以下似然函数:


f3.png

在具体实现过程中,作者采用了特别的结果以解决使用transformer训练PLM的问题。

2.3 结构:双流自注意力

由于PLM任务有特殊的性质,简单的Transformer无法有效工作。由于随机排列求期望的影响,简单应用标准Softmax方程求期望时,h_{\theta}(x_{z<t})就不依赖于位置信息(随机打乱求期望,实际上抹杀了位置信息的影响),导致模型无法学习到有用的表征。以下第一个公式为普通transformer应用的公式,第二个公式为作者为了PLM任务设计的公式。

f3.5.png

f4.png

仔细考虑Transformer的结构,当它用来解决PLM预训练任务时必须解决以下两个问题:

  • 当预测x_{z_t}时只使用位置信息z_t和上文信息,不能看到自己本身,即x_{z_t},否则求条件概率g_{\theta}(x_{z<t},z_t)的问题将会变成一个平凡的问题。
  • 当预测x_{z_j}时,其中j>t,则能看到x_{z_t}信息。
    考虑具体的注意力机制,只需在QUERY矩阵上做文章即可,当QUERY矩阵没有对角线时,显然是无法看到自己的。根据这样的思路,作者设计了双流自注意力模型,query流与content流共享参数\theta,但query流QUERY矩阵没有对角线。为了实现排序效果,query流必须初始化为可训练的向量即,n行必须分别为0,1,2,......,n-1个点,且符合贝叶斯网络,即相当于实现只看到特定排序的mask矩阵。以下为更新公式与网络示意图:
    f5.png

    p2.png

部分预测当t比较小,仅得到t-1个token的信息,这样的预测比较难,很难收敛,所以模型设计了一个超参数K,只对后1/K的tokens进行预测。

2.4 2.5 借鉴Transformer-XL

作者团队半年前发表的Transformer-XL中使用了很多有效的trick,使得Transformer-XL做到了AR模型中的state-of-the-art。本文中也借鉴使用了相对位置编码和片段复发机制分别解决绝对位置编码无法处理的2个以上文本对应输入的task和算法效率问题,详见Transformer-XL文章。
2.5主要具体阐述了Multiple Segments无法用绝对位置编码解决的问题

2.6.1 与BERT对比

文章举了一个简单的例子,预训练中使用New York is a city。加入New和York为预测目标,由于BERT做了独立性假设,将两者同时mask住,所以只能通过is a city分别对两个词进行预测,而XLNet由于特殊的重新排序求期望的操作,使得XLNet在预测出New后,在预测York时能得到New的信息。

2.6.2与其他语言模型对比

一种AR标准模型GPT只建立了下文对上午的依赖,也就是说根据New能预测York,但根据York无法预测New。在解决阅读理解task时,如果给了内容Thom Yorke is the singer of Radiohead,但问的问题是Who is the singer of Radiohead,经典的AR模型是不能根据Radiohead预测出Thom Yorke的。

3 实验部分

这一部分不再详细解释,但是值得一提的是BERT-base使用的是经典的13G数据集进行预训练,XLNet-base使用的是GPT 2.0构建的优质的19G数据集进行训练,大部分比较中XLNet大幅度超越BERT其中存在水分,最后一个实验中抹平数据和trick进行比较,提升幅度虽然有,但就不那么明显了,说明XLNet使用的PLM方法虽然有用,但贡献没有大家想象的夸张,XLNet能取得优异的成果,还在于结合了BERT出现后1年来发展的各种trick和数据质量的提升。

论文地址与代码地址

论文:https://arxiv.org/pdf/1906.08237.pdf

代码:https://github.com/zihangdai/xlnet

公众号:六点一刻研习室
(兴趣使然进行更新,没有质量保障)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,294评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,493评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,790评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,595评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,718评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,906评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,053评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,797评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,250评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,570评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,711评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,388评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,018评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,796评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,023评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,461评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,595评论 2 350

推荐阅读更多精彩内容