【NLP论文】中文实体抽取: LEAR

摘要

Span extraction旨在从原始文本中抽取出一些文本span (如单词或短语)。引入标签信息(如实体的tag)有助于提升文本表示,可以将span extraction任务看作一个问答任务,同时输入问句和标签信息。但问答的形式没有充分利用标签信息,且训练和预测的效率都比较低。为了解决这些问题,论文提出了一种新的融合标签信息的方式,该模型分开编码原始文本和标签,并通过一个融合模块将标签融入进文本表示中。

相关背景/动机

1. 为什么要将span extraction任务转换为问答形式?

传统的span extraction可以看作是一个序列标注问题,序列标注给文本中的每一个token打一个标签。但是这种方式将每个label看作是独立且没有意义的one-hot编码,忽略了标签的先验知识。而将span extraction看作问答形式可以将标签信息引入进来。QA形式将标签的描述文本和原始文本进行整合作为模型的输入文本。

拿NER举个例子,若要抽出"PERSON"实体,模型的任务便为找出问题"which person is mentioned in the text, in which a person represents a human or individual?"的答案。

2. QA形式的span extraction有什么缺陷?

- Inefficiency: QA形式将question(question中包含标签信息)与text拼接作为输入 ([CLS]question[SEP]text[SEP])并共同编码question和text。这就需要将每个text编码转换为C个<question, text>对(C为标签个数),这大大增加了样本数量和句子长度,也就消耗更多训练和预测时间。

- Underutilization: 我们一般通过自注意力机制将标签信息融合进文本表示,但将注意力可视化后可以看到,注意力更多的放在了text而不是question,因此标签信息没有被充分利用。

图1

3. 针对上述缺点,该模型提出的优化点

- 用两个编码器分别对question和text进行编码 (如图2),这样样本量不会变为原来的C倍。由于标签样本量太少,从头开始训练question的编码器比较有挑战, 所以论文采用了两个编码器权重共享的方式,通过预训练模型来学习标签知识,也不会增加额外的参数。

图2

- 提出了一个融合模块来整合标签信息和文本表示,该融合模块本质上是一个语义导向的注意力模块。

模型结构

LEAR模型(图3)包括三个主要模块:

1. 语义编码模块

2. 语义融合模块

3. span解码模块

图3

模型输入为text X, label annotations (question) Y (类别集合C的标签描述)。这两个输入分别由权重共享的两个编码器编码,得到的两个向量再经过语义融合模块,生成融合了标签知识的文本表征,该表征用来预测每个token是否是某类别标签的起始位置或结束位置。下面将详细地介绍这三个模块。

Semantics Encoding Module

两个权重共享的编码器分别编码文本和标签描述,

h_X=f_1(X),  \qquad  h_X\in R^{n\times d} \\h_Y=f^{\prime}_1(Y),  \qquad  h_Y\in R^{|C|\times m\times d}

Q: 两个编码器为什么要权重共享?

A: 因为label annotation的样本量相对文本样本来说较少,从头训练label annotation的编码器的话难以达到理想的效果,通过共享text encoder的权重的方式,可以得到较好的表征,同时也没有额外的参数产生。

Semantic Fusion

该模块的目的是将标签知识引入文本表征,为了实现这个目的,论文设计了一个语义导向的注意力机制。

首先将h_Xh_Y输入一个全连接阶层,两个表征映射到同样的特征空间:

h^{\prime}_X=U_1  h_X, \qquad U_1\in R^{d\times d} \\h^{\prime}_Y=U_2  h_Y, \qquad U_2\in R^{d\times d}

接下来,利用注意力机制计算每个label annotation对文本中每个token的重要程度

其中,x_i是文本X的第i个token, y^c_j是标签类别c的第j个token。

再通过计算得到的注意力将标签信息加入到文本表示中:

V\in R^{d\times d}, b\in R^d

对于每个category c, 都有不同的token embedding. 最终的文本表示为\hat{h}_{x_i}=(\hat{h}^1_{x_i},...,\hat{h}^{|C|}_{x_i})

Span Decoding

我们采用start/end tagging的方式来标注要提取的span。对于每个token, 计算

M_s\in R^{|C|\times d}, b_s\in R^df_o是对输入矩阵的每一行求和的函数。start_{x_i}\in R^{|C|}, 每个元素表示token x_i是类别c的起始位置的概率。同样的方式,我们可以得到end_{x_i}.然后我们根据相同类别的span是否会嵌套(这里指包含和重合)来提取结果。

Flat Span Decoding 这是相同类别的span不嵌套的情况。一般采取最近匹配原则 (near matching principle) - 类别c的起始位置对应的结束位置是离它最近的类别c的结束位置。而论文采用的是启发式匹配原则 (heuristic matching principle) - 也就是对同一类别匹配概率高的起始位置和结束位置(更多细节件论文附录A.1和A.2)。

Nested Span Decoding 这是相同类别的span嵌套或重合的情况。这时启发式匹配不再适合,论文采用了和BERT-MRC相同的方式,用一个二分类器预测候选的start/end位置对能够匹配为一个span的概率:

M\in R^{1\times 2d}, 当P^c_{i,j}>0.5时可看作一个span.

Loss Function

对于输入文本X=(x_1, x_2,...,x_n), 定义集合S^c\in \{0,1\}, 表示文本的每个位置是否是类别c的起始位置,同样的道理定义集合E^c\in \{0,1\}. 根据这两个集合定义start loss L_s和end loss L_e.

对于Flat Span Extraction, 总的损失函数为L=L_s+L_e.

对于Nested Span Extraction, 首先定义

其中,P^c\in R^{n,n}是上面计算的start/end对可以作为类别c的span的概率,M^c\in R^{d,d}定义了一个0/1矩阵,M^c_{i,j}=1表示x_ix_j是类别c的真实span。W^c\in R^{d,d}也是一个0/1矩阵,当P^c_{i,j}>0.5M^c_{i,j}=1W^c_{i,j}=1

最终损失函数为L=\alpha(L_s+L_e)+\beta L_{match}\alpha\beta都是超参数。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,451评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,172评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,782评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,709评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,733评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,578评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,320评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,241评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,686评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,878评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,992评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,715评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,336评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,912评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,040评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,173评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,947评论 2 355

推荐阅读更多精彩内容