prompt-based learning 文本分类实战

大约一年未动笔写学习笔记了,但这一年NLP学术领域可谓是飞速发展。其中最火的两个概念就是contrastive Learning(对比学习,simcse 是对比学习框架下较为出名的算法)和 prompt-based learning(模板学习)。我们都知道AI领域除了算力贵,其实有价值的标注数据也非常昂贵。而无论是对比学习还是模板学习都开始解决少量标注样本,甚至没有标注样本时,让模型也能有不错的效果。这里我通过一个简单的文本分类任务介绍一下传说中的prompt-based learning。

NLP 领域中的四范式

学术界将NLP任务的发展过程,分为下方四个阶段,又称为NLP四范式。

  • 第一范式: 基于传统机器学习模型的范式:比如 tfidf 特征 + 朴素贝叶斯的文本分类任务

  • 第二范式 : 基于深度学习 模型的范式:比如word2vec 特征 + LSTM的文本分类任务。
    相比于第一范式,模型准确有所提高,特征工程的工作也有所减少。

  • 第三范式: 基于预训练模型+ fine-tune 的范式: 比如 BERT + finetune 的文本分类任务。
    相比于第二范式,模型准确度显著提高,但是模型也变得更大,小数据集可以训练出好模型。

  • 第四范式:基于预训练模型+ Prompt + 预测的范式: 比如 BERT + Prompt 的文本分类任务
    相比于第三范式,模型训练所需的训练数据显著减少。

从整个发展过程来看,整个NLP领域,朝着 精度更高,少监督,甚至无监督的方向发展。


image.png

而prompt-based learning 算是目前学术界向少监督,无监督,高精度的方向发展 最新的研究成果。(毕竟标注数据很贵,也很难拿到)

prompt baesed learing

prompt baesed learing 本质上就是设计一个比较契合上游预训练模型的模板,让上游的预训练模型在尽量不需要标注数据的情况下比较好的完成下游的任务
主要包括3个最关键的步骤。

1.设计预训练的语言模型的任务(Pretrained Models)
2.设计输入模板样式 (Prompt Engineering)
3.设计label样式 ,以及模型的输出映射到label的方式 (Answer Engineering)

其核心奥义通过模板的设计就是挖掘出上游预训练模型的潜力
下面我们通过一个文本分类任务详细的了解一下prompt baesed learing 是如何操作的。

prompt 文本分类

整个prompt 文本分类任务大致分为如下四个步骤:

  • (1)加载预训练的语言模型:
    本实验加载了bert-wwm模型
  • (2)设计一个符合进行下游任务的输入模板,设计一个符合下游的label样式:本实验的输入模板和预测label的样式如下,
    输入模板: '接下来报导一则xx新闻,'+ 待预测的文本
    输出label :["文化","娱乐","体育"......]
  • (3)将自己的数据填充到模板,并进行预处理:
    这里就是将文本需要 处理成Bert的输入格式,然后将 "xx新闻" 的xx 用mask_id 替换掉即可(原因:后续的预测任务采样的bert 的MLM任务)
  • (4)设计一个将模型输出映射到自己label的得分公式,然后进行预测。
    本实验是采样的bert MLM的输出直接预测被mask的字
代码截图

其实不难发现这里的文本分类任务,就是设计了一个类完形填空的模板去挖掘出上游Bert 模型的潜力(Bert的预训练任务中有MLM 训练)。

代码详解

整个代码其实参考苏神的 https://github.com/bojone/Pattern-Exploiting-Training
有兴趣的同学可以去上方链接学习更多的知识。

加载预训练的语言模型

导入必要的包,同时加载bert-wwm预训练模型

import json
import numpy as np
from bert4keras.backend import keras, K
from bert4keras.layers import Loss
from bert4keras.tokenizers import Tokenizer
from bert4keras.models import build_transformer_model
from bert4keras.optimizers import Adam
from bert4keras.snippets import sequence_padding, DataGenerator
from bert4keras.snippets import open
from keras.layers import Lambda, Dense
# 加载预训练模型和分词器
config_path = './model/bert_config.json'
checkpoint_path = './model/bert_model.ckpt'
dict_path = './model/vocab.txt'
maxlen = 50

# 这里with_mlm 打开预测单字模式
model = build_transformer_model(
    config_path=config_path, checkpoint_path=checkpoint_path, with_mlm=True
)
tokenizer = Tokenizer(dict_path, do_lower_case=True)

定义好输入模板和预测结果

# 定义好模板
prefix = u'接下来报导一则xx新闻。'
mask_idxs = [8, 9]

# 定义类别
labels = [
    u'文化', u'娱乐', u'体育', u'财经', u'房产', u'汽车', u'教育', u'科技', u'军事', u'旅游', u'国际',
    u'证券', u'农业', u'电竞', u'民生'
]

输入数据预处理

将xx位置编码成mask_id ,表示这两个字是什么需要mlm去做预测

##将xx这两个字符 用[mask]的id 代替
text =  prefix + "长沙驿路高歌路虎极光汽车音响改装升级雷贝琴——纯净圆润" 
token_ids, segment_ids = tokenizer.encode(text, maxlen=maxlen)
token_ids[8] = tokenizer._token_mask_id
token_ids[9] = tokenizer._token_mask_id
token_ids = sequence_padding([token_ids])
segment_ids = sequence_padding([segment_ids])

输出后处理以及结果预测

把label中的两个字 带入到 模型在 mask位置输出中,计算得分,然后将两个字得分相乘,得分label的词语即为分类结果。
注:mask 位置输出的是两个 2w多维的向量。 每个index中的值 ,代表预测的字 是词典中对映该 index 的字的可能性的大小

label_ids = np.array([tokenizer.encode(l)[0][1:-1] for l in labels])
y_pred = model.predict([token_ids,segment_ids])[:, mask_idxs]
y_pred = y_pred[:, 0, label_ids[:, 0]] * y_pred[:, 1, label_ids[:, 1]]
y_pred = y_pred.argmax(axis=1)
labels[y_pred[0]]

结语

整个过程,我没有使用任何标注数据,就能成功完成一个文本分类任务,这确实证明了模板学习的有效。我没做定量的准确度评估,从这篇文章的定量结论可以看出,模板学习表现其实并不差,但是目前的水准还达不到工业应用的水准。但通过模板发挥出预训练模型的潜力,这个方向还是不错的。 笔者曾经做过实验在 有监督finetune的时候加上模板,也能够让模型的效果变得更好。看来挖掘预训练模型的潜力,还有很多工作可以做。

参考文献:

https://spaces.ac.cn/archives/7764
https://arxiv.org/pdf/2107.13586.pdf

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,590评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,808评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,151评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,779评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,773评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,656评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,022评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,678评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,038评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,756评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,411评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,005评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,973评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,053评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,495评论 2 343

推荐阅读更多精彩内容