基于BERT Adapter的词汇增强型中文序列标注模型

©原创作者|疯狂的Max

论文Lexicon Enhanced Chinese Sequence Labelling Using BERT Adapter 解读

01 背景与动机

近年来,多项研究致力于将词汇信息融入中文预训练模型中以提升命名实体识别、分词和词性标注等序列标注类任务的效果。

但其中的大多数方法为都是直接在预训练模型中加入浅层的且随机初始化的序列层,其局限性在于不能在BERT模型的底部的层中加入词汇信息,导致BERT的表征能力得不到充分利用。

因此,本文作者提出Lexicon Enhanced BERT (LEBERT) ,该模型在BERT底部的层中加入一个Lexicon Adapter层来融合文本的词汇特征。实验结果表明该模型在序列标注类任务的10个数据集上的表现超越了业界现有的其他模型。

由于中文词汇没有明显的分界,所以中文的序列标注任务相较英文难度更大,虽然预训练模型在序列标注任务上的表现超越了传统的如LSTM,CRF等模型,但由于其仍是基于单个字符的,因此可以很自然的想到在这个基础上引入词汇的信息,更有助于提升模型效果。

目前可以将相关的改进方向分成两类:

一类是通过在character-level的序列编码器上融入词语的信息,这样可以显性的对词汇特征建模,也可以看做是通过改进模型结构来融入离散的结构化的外部知识;

另一类则是将词汇信息融入到预训练模型的embedding中去,而这两类方法是互补的。

最近的研究更多的考虑将词汇特征和BERT结合起来,主要的思想就是把BERT获取到上下文表征和词汇特征融合起来,一起进入一个神经网络的序列标注模型,作者定义为Model-level fusion,如下图Figure 1(a)所示。

然而这种方法并没有充分利用BERT的表征能力,因为词语特征没能融入到BERT模型的底层。

基于以上描述的现有研究的局限,同时受到BERT Adapter[2]的启发,本文作者提出LEBERT,直接在BERT的Transformer层之间加入额外的层,也就是作者定义的lexicon adapter来融入词汇信息,作者定义为BERT-level fusion,如下图Figure 1(b)所示。

具体来说,需要先将中文句子转换为char-words对的序列进入模型,lexicon adapter通过char-to-word的双线性注意力机制来动态的获取每个字符的最相关的词语。

这个lexicon adapter设置在BERT里的相邻层之间,使得词汇特征和BERT的表征可以在BERT模型中得到充分的交互。

不同于BERT Adapter在fine-tune的时候固定了BERT模型的参数只更新adapter的参数,LEBERT将两者同时更新。

02 模型方法

LEBERT相较BERT主要有两点不同:

一是LEBERT通过将中文句子转换为char-words对序列,把字符和词汇特征都作为输入喂进模型;

二是LEBERT在Transformer层之间加入了lexicon adapter,使得词汇知识更有效的融入BERT模型。

1.字符-词语对序列

对于每一个输入的句子,先找出潜在的所有可能的句子中包含的词汇,然后将每个字符与对齐所有可能的词汇。

比如“美国人民”这个句子,所有可能的词汇有“美国”,“美国人”,“国人”,“人民”,每个字符对应其所在所有可能的词汇,数量不足的用补齐,如下图Figure 3所示:

2.lexicon adapter结构

把输入的句子转换成char-words pair sequence之后,句子中的每个位置都包含了其对应的字符特征和词汇特征。

以上整个计算过程可以参见下图 Figure 4:

3.LEBERT模型整体框架

正如前文描述,lexicon adapter是加在BERT的两个Transformer层之间的,本质可以看做是Lexicon Adapter 和BERT的组合。可以直观的表示为下图,即在第k和k+1层之间加入了lexicon adapter:

4.训练过程和解码过程

考虑到序列标注任务的前后依赖性,LEBERT在最终的输出层上加了一个线性变换层和CRF层来进行标签解码。

03 实验结果分析

1.实验结果

作者将LEBERT与4种baseline模型和6种前沿的运用了词汇增强的模型进行了比较,4种baseline模型分别是BERT,BERT+word(在BERT预训练时直接拼接词向量的基线模型),ERNIE[3],ZEN[4],另外6种模型见下表前6行。

结果表明,在NER,分词和词性标注三种类型的序列标注任务上,LEBERT效果都是最好的。实验结果具体如下面三个表所示:

2.分析与讨论

句子长度:无论是BERT,BERT+word这两个基线模型,还是LEBERT都会随着输入句子长度的增长效果有所下降。这是因为随着更长的句子意味着更复杂的语义,模型的学习难度变大。

但是从下图的比对结果来看LEBERT相较另外两个极限模型,随着句子长度的增加,模型鲁棒性更强,也由此证明了LEBERT更充分的利用到了词汇信息。

不同层添加lexicon adapter:作者实验了只添加一层lexicon adapter在BERT层的不同位置,和在不同位置添加多层lexicon adapter,以及在每一层都添加lexicon adapter的效果,结果如下表所示:

f以上结果表明,在越底层添加lexicon adapter效果越好,添加多层反而导致过拟合。

04 结论和研究思考

LEBERT与传统的在BERT模型之上添加模型结果以融合词汇知识的模型改进方法不同,通过改造BERT模型内部结构,实现深层次的词汇信息融合。

个人认为这种融合方式也可以扩展到词汇增强以外的外部知识融入的研究。

毕竟词汇也可以看做一种外部知识,与之相关的序列标注任务使用LEBERT都有所提升的话,同理推断,将一些知识图谱的知识通过这种方式进行融合,也可以以提高与知识图谱相关的下游任务的效果。

参考文献

[1]中文NER最新屠榜力作——LEBERT

https://zhuanlan.zhihu.com/p/374720213

[2] Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin De Laroussilhe, Andrea Gesmundo, Mona Attariyan, and Sylvain Gelly. 2019. Parameter-effificient transfer learning for NLP. In Proceedings of the 36th International Conference on Machine Learning.

[3] Yu Sun, Shuohuan Wang, Yukun Li, Shikun Feng, Xuyi Chen, Han Zhang, Xin Tian, Danxiang Zhu, Hao Tian, and Hua Wu. 2019a. Ernie: Enhanced representation through knowledge integration. arXiv preprint arXiv:1904.09223.

[4] Shizhe Diao, Jiaxin Bai, Yan Song, Tong Zhang, and Yonggang Wang. 2020. ZEN: Pre-training Chinesetext encoder enhanced by n-gram representations. In Findings of the Association for Computational Linguistics: EMNLP 2020, pages 4729–4740, Online. Association for Computational Linguistics. 

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,524评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,869评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,813评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,210评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,085评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,117评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,533评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,219评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,487评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,582评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,362评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,218评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,589评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,899评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,176评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,503评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,707评论 2 335

推荐阅读更多精彩内容