论文-BERT for Joint Intent Classification and Slot Filling

1. 简称

论文《BERT for Joint Intent Classification and Slot Filling》,作者Qian Chen(Speech Lab, DAMO Academy, Alibaba Group),经典的NLU论文(Semantic Frame)

2. 摘要

意图分类和空位填充是自然语言理解的两个基本任务。他们经常遭受小规模的人工标签训练数据的折磨,导致泛化能力差,尤其是对于稀有单词。

最近,一种新的语言表示模型BERT(来自变压器的双向编码器表示)有助于在大型未标记的语料库上进行预训练深层的双向表示,并为广泛的语言模型创建了最新的模型。经过简单的微调,可以完成各种自然语言处理任务。但是,在探索BERT以获得自然语言理解方面并没有付出太多努力。

在这项工作中,我们提出了一种基于BERT的联合意图分类和广告位填充模型。实验结果表明,与基于注意力的递归神经网络模型基于槽门控方法相比,我们提出的模型在多个公共基准数据集上的意图分类精度,时隙填充F1和句子级语义框架精度均取得了显着提高。

3. 引言

近年来,已经部署了各种智能扬声器并取得了巨大的成功,例如Google Home,Amazon Echo,Tmall Genie,它们促进了面向目标的对话并帮助用户通过语音交互来完成任务。自然语言理解(NLU)对于面向目标的口语对话系统的性能至关重要。 NLU通常包括意图分类和时段填充任务,旨在为用户话语形成语义解析。意图分类侧重于预测查询的意图,而槽位填充则提取语义概念。表1给出了用于用户查询“Find me a movie by Steven Spielberg”的意图分类和槽位填充的示例。


意向分类是一个预测意向标签yi的分类问题,槽位填充是一个序列标签任务,该标签将输入单词序列x =(x_1,x_2,···,x_T)标记为槽标签序列y^s =(y_1^s,y_2^s,···, y_T^s)。基于递归神经网络(RNN)的方法,尤其是门控递归单元(GRU)和长短期记忆(LSTM)模型,已经实现了意图分类和时隙填充的最新性能。最近,提出了几种用于意图分类和槽位填充的联合学习方法,以利用和建模两个任务之间的依赖关系,并提高独立模型的性能。先前的工作表明,注意力机制可帮助RNN处理长期依赖关系。因此,提出了基于注意力的联合学习方法,并实现了联合意图分类和空缺填充的最新性能。

缺少用于NLU和其他自然语言处理(NLP)任务的人类标记数据会导致泛化能力较差。为了解决数据稀疏性挑战,提出了多种技术,可使用大量未注释的文本来训练通用语言表示模型,例如ELMo(Peters等人,2018)和Generative Pre-trained Transformer(GPT)(Radford等人,2018)。可以针对NLP任务对预训练的模型进行微调,并且与在NLP上进行训练相比已经取得了显着改进特定于任务的注释数据。最近,有人提出了一种预训练技术,即来自Transformer(BERT)的双向编码器表示法(Devlin等人,2018年),并为各种NLP任务创建了最先进的模型,包括问题解答(SQuAD v1.1),自然语言推论等。

但是,在将BERT用于NLU方面并没有付出太多努力。这项工作的技术贡献有两个方面:1)我们探索了BERT预训练模型来解决NLU泛化能力差的问题; 2)我们提出了一种基于BERT的联合意图分类和空位填充模型,并证明了与相比,该模型在多个公共基准数据集上的意图分类准确性,槽位填充F1和句子级语义框架准确性上有了显着提高比基于注意力的RNN模型和时隙门模型。

4. 核心

4.1 BERT

BERT的模型架构是基于原始Transformer模型的多层双向Transformer编码器(Vaswani et al. 2017)。输入表示是WordPiece嵌入(Wu et al. 2016),位置嵌入段嵌入的串联。特别是,对于单句分类和标记任务,句段嵌入没有区别。插入特殊分类嵌入([CLS])作为第一个标记,并添加特殊标记([SEP])作为最终标记。给定输入令牌序列x =(x_1,...,x_T),BERT的输出为H =(h_1,...,h_T)

BERT模型已针对大型未标记文本采用两种策略进行了预训练,即屏蔽语言模型下一句预测。预训练的BERT模型提供了功能强大的上下文相关语句表示,并且可以通过微调过程用于各种目标任务,即意图分类和槽位填充,类似于其用于其他NLP任务的方式。

4.2 Joint Intent Classification and Slot Filling

BERT可以轻松扩展到联合意图分类和插槽填充模型。根据第一个特殊令牌([CLS])的隐藏状态(表示为h_1),可将意图预测为:

y^i=softmax(W^ih_1+b^i)\tag{1}

对于槽填充,我们将其他令牌的最终隐藏状态h_2,...,h_T馈送到Softmax层以在槽填充标签上进行分类。为了使此过程与WordPiess标记化兼容,我们将每个标记化的输入字提供给WordPiess标记器,并使用与第一子标记器相对应的隐藏状态作为SoftMax分类器的输入。

y_n^s=softmax(W^sh_n+b^s),n \in 1 ... N\tag{2}

其中h_n是与单词x_n相对应的隐藏状态的第一个子标记。

为了联合建模意图分类和广告位填充,目标制定为:

p(y^i,y^s|x)=p(y^i|x)\prod_{n=1}^Np(y_n^s|x)\tag{3}

学习目标是使条件概率$p(yi,ys | x)最大化。通过最小化交叉熵损失来对模型进行端到端微调。

4.3 Conditional Random Field

插槽标签预测取决于周围单词的预测。已经表明,结构化预测模型可以改善时隙填充性能,例如条件随机字段(CRF)。通过为BiLSTM编码器添加CRF层来改善语义角色标记。在这里,我们研究了在联合BERT模型的基础上添加CRF来建模插槽标签依赖性的功效。

5. 实验

我们在两个公共基准数据集(ATIS和Snips)上评估了提出的模型。

5.1 Data

ATIS数据集(Tür等人,2010)被广泛用于NLU研究,其中包括预订航班的人的录音。我们使用与Gooet al. (2018) 相同的数据划分方法,训练集,开发集和测试集分别包含4,478、500和893种话语。有120个插槽标签和21种意图类型用于训练集。我们还使用Snips(Coucke et al. 2018),该软件是从Snips个人语音助手收集的。训练集,开发集和测试集分别包含13,084、700和700种话语。训练集有72个插槽标签和7种意图类型。

5.2 Training Details

我们使用英语无大小写的BERT-Base模型,该模型具有12层,768个隐藏状态和12个头。 BERT在BooksCorpus(8亿字)(Zhu等人,2015)和English Wikipedia(25亿字)上接受了预训练。为了进行微调,所有超参数都在开发集上进行了微调。最大长度为50。批量大小为128。Adam(Kingma和Ba,2014)用于优化,初始学习率为5e-5。辍学概率为0.1。最大轮数选自[1、5、10、20、30、40]。

5.3 Results

表2显示了Snips和ATIS数据集的模型性能,如槽位填充F1,意图分类精度和句子级语义框架精度。

第一组模型是基线,它由最新的联合意图分类和空位填充模型组成:使用BiLSTM的基于序列的联合模型(Hakkani-Tür et al. 2016),基于注意力的(Liu and Lane,2016)和槽门控模型(Goo et al. 2018)。

第二组模型包括提出的联合BERT模型。从表2中可以看出,联合BERT模型在两个数据集上的性能均明显优于基线模型。在Snips上,联合BERT的意图分类准确度达到98.6%(原为97.0%),插槽填充F1为97.0%(原为88.8%)和句子级语义框架准确度为92.8%(原为75.5%)。在ATIS上,联合BERT的意图分类准确度达到了97.5%(原为94.1%),槽位填充F1为96.1%(原为95.2%)以及句子级语义帧准确度为88.2%(原为82.6%)。联合BERT + CRF用CRF取代了softmax分类器,它的性能与BERT相当,这可能是由于Translator中的自注意机制所致,该机制可能已经对标签结构进行了充分建模。

与ATIS相比,Snips包含多个域,并且词汇量更大。对于更复杂的Snips数据集,联合BERT在句子级语义框架准确性上获得了很大的提高,从75.5%到92.8%(相对值为22.9%)。这表明联合BERT模型具有很强的泛化能力,考虑到它是对来自不匹配的域和类型(书籍和维基百科)的大规模文本进行预训练的。在ATIS上,联合BERT的句子级语义框架准确性也得到了显着提高,从82.6%提高到88.2%(相对为6.8%)。

5.4 Ablation Analysis and Case Study(消融分析与案例研究)

我们对Snip进行了消融分析,如表3所示,在没有联合学习的情况下,意图分类的准确率从98.6%下降到98.0%,缝隙填充F1下降到95.8%(从97.0%)。我们还比较了不同微调时期的联合BERT模型。仅用1个轮次微调的联合BERT模型已经胜过表2中的第一组模型。

我们进一步从Snips中选择一个案例,如表4所示,该案例通过利用BERT的语言表示能力来提高泛化能力,显示联合BERT如何胜过时隙门控模型(Goo et al. 2018)。在这种情况下,时隙门控模型错误地预测了“mother joan of the angels”作为对象名称,并且意图也是错误的。但是,联合BERT可以正确预测插槽标签和意图,因为“mother joan of the angels”是维基百科中的电影条目。 BERT模型已在Wikipedia上进行了部分训练,并且有可能通过此稀有短语学习了此信息。

未来的工作包括对其他大规模和更复杂的NLU数据集上所提出的方法进行评估,并探索将外部知识与BERT结合的功效。

6. 重点论文

  • Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2018. BERT: pre-training of deep bidirectional transformers for language under- standing. CoRR, abs/1810.04805.
  • Chih-Wen Goo, Guang Gao, Yun-Kai Hsu, Chih-Li Huo, Tsung-Chieh Chen, Keng-Wei Hsu, and Yun- Nung Chen. 2018. Slot-gated modeling for joint slot filling and intent prediction. In NAACL-HLT, New Orleans, Louisiana, USA, June 1-6, 2018, Volume 2 (Short Papers), pages 753–757.
  • Daniel Guo, Go ̈khan Tu ̈r, Wen-tau Yih, and Geoffrey Zweig. 2014. Joint semantic utterance classification and slot filling with recursive neural networks. In 2014 IEEE Spoken Language Technology Workshop, SLT 2014, South Lake Tahoe, NV, USA, December 7- 10, 2014, pages 554–559.
  • Dilek Hakkani-Tu ̈r, Go ̈khan Tu ̈r, Asli C ̧elikyilmaz, Yun-Nung Chen, Jianfeng Gao, Li Deng, and Ye- Yi Wang. 2016. Multi-domain joint semantic frame parsing using bi-directional RNN-LSTM. In Inter- speech 2016, San Francisco, CA, USA, September 8-12, 2016, pages 715–719.
  • Lin Zhao and Zhe Feng. 2018. Improving slot filling in spoken language understanding with joint pointer and attention. In ACL 2018, Melbourne, Australia, July 15-20, 2018, Volume 2: Short Papers, pages 426–431.
  • Zhiwei Zhao and Youzheng Wu. 2016. Attention- based convolutional neural networks for sentence classification. In Interspeech 2016, San Francisco, CA, USA, September 8-12, 2016, pages 705–709. ISCA.

7. 代码编写

# 后续追加代码分析

参考文献

  1. Chen, Q., Zhuo, Z., & Wang, W. (2019, February 28). BERT for Joint Intent Classification and Slot Filling. arXiv.org.
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,033评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,725评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,473评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,846评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,848评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,691评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,053评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,700评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,856评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,676评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,787评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,430评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,034评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,218评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,174评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,526评论 2 343

推荐阅读更多精彩内容