基于GPT2的中文聊天机器人,模型构建采用transformers,提供预训练模型与训练语料。
GPT2 For Chinese Chitchat
UPDATE 2020.01.09
添加50w闲聊语料与预训练模型的GoogleDrive的下载地址
UPDATE 2019.12.17
基于微软的论文DialoGPT:Large-Scale Generative Pre-training for Conversational Response Generation添加了MMI Model(maximum mutual information scoring function),对dialogue model生成的多个response进行筛选
项目描述
本项目使用GPT2模型对中文闲聊语料进行训练,使用 HuggingFace的transformers实现GPT2模型的编写与训练。
在闲暇时间用 GPT2-Chinese模型训练了几个长文本的生成模型,并且精读了一遍作者的源码,获益匪浅,加深了自己对GPT2生成模型的一些理解,于是将GPT2模型用于闲聊对话的生成,非常感谢作者的分享。
本项目中沿用了原项目中的部分结构和一些命名方式,同时也对很多代码细节做出了自己实现。
解码器的逻辑使用了Temperature、Top-k Sampling和Nucleus Sampling等,可参考论文The Curious Case of Neural Text Degeneration
根据微软的DialoGPT的思想,在项目中添加了互信息。训练了两个模型:Dialogue Model与MMI Model(maximum mutual information scoring function)。首先使用Dialogue Model生成多个候选response,然后使用MMI Model从候选response中,选取loss最小的作为最终的response
代码中给出了许多详细的中文注释,方便大家更好地理解代码(能力有限,可能有些代码或注释有误,望大家不吝赐教)
运行环境
python3.6、 transformers==2.1.1、pytorch==1.3.1
项目结构
config:存放GPT2模型的参数的配置文件
data
train.txt:默认的原始训练集文件,存放闲聊语料
train_tokenized.txt:对原始训练语料进行顺序tokenize之后的文件,用于dialogue model的训练
train_mmi_tokenized.txt:对原始训练语料进行逆序tokenize之后的文件,用于mmi model的训练
dialogue_model:存放对话生成的模型
mmi_model:存放MMI模型(maximum mutual information scoring function),用于预测P(Source|response)
sample:存放人机闲聊生成的历史聊天记录
vocabulary:存放GPT2模型的字典
train.py:训练代码
interact.py:人机交互代码
模型参数(详见Config/Model_config_dialogue_small.Json文件)
initializer_range: 0.02
layer_norm_epsilon: 1e-05
n_ctx: 300
n_embd: 768
n_head: 12
n_layer: 10
n_positions: 300
vocab_size: 13317
Dialogue Model
Dialogue Model是基于GPT2模型的生成模型,对每条训练数据进行"顺序"拼接,然后将其输入到网络中,进行训练(此处的"顺序"是相对于MMI Model的"逆序")
例如存在如下多轮闲聊训练数据,在训练Dialogue Model时,将上述训练数据进行如下拼接:"[CLS]想看你的美照[SEP]亲我一口就给你看[SEP]我亲两口[SEP]讨厌人家拿小拳拳捶你胸口[SEP]"。然后将上述拼接结果作为Dialogue Model的输入,对模型进行训练
想看你的美照
亲我一口就给你看
我亲两口
讨厌人家拿小拳拳捶你胸口
MMI Model
MMI Model的思想基于微软的论文DialoGPT:Large-Scale Generative Pre-training for Conversational Response Generation
MMI Model也是一个基于GPT2的生成模型,将每条训练数据进行"逆序"拼接,然后输入到网络中。该模型主要用于计算Dialogue Model生成的所有候选response相对于dialogue history的loss。
训练时,将一条训练语料进行逆序拼接,如 "[CLS]讨厌人家拿小拳拳捶你胸口[SEP]我亲两口[SEP]亲我一口就给你看[SEP]想看你的美照[SEP]",并作为MMI Model的输入进行训练
想看你的美照
亲我一口就给你看
我亲两口
讨厌人家拿小拳拳捶你胸口
Response生成步骤
假设当前dialogue history=["你好","你好呀","你在干嘛呢"]
首先使用Dialogue Model根据dialogue history生成n个候选response:["在看电视","我在上课啊","人家在想你啊","我不知道"]
使用MMI Model将每个候选response分别与dialogue history进行逆序拼接,如 "[CLS]在看电视[SEP]你在干嘛呢[SEP]你好呀[SEP]你好[SEP]"
将上述拼接结果作为MMI Model的输入,计算每个response的loss
选择loss最小的response作为最终的结果进行回复
闲聊语料分享
中文闲聊语料数据集地址语料描述
常见中文闲聊chinese_chatbot_corpus包含小黄鸡语料、豆瓣语料、电视剧对白语料、贴吧论坛回帖语料、微博语料、PTT八卦语料、青云语料等
50w中文闲聊语料百度网盘【提取码:jk8d】 或 GoogleDrive由作者GaoQ1提供的比较高质量的闲聊数据集,整理出了50w个多轮对话的语料
50w中文闲聊语料的内容样例如下:
谢谢你所做的一切
你开心就好
开心
嗯因为你的心里只有学习
某某某,还有你
这个某某某用的好
你们宿舍都是这么厉害的人吗
眼睛特别搞笑这土也不好捏但就是觉得挺可爱
特别可爱啊
今天好点了吗?
一天比一天严重
吃药不管用,去打一针。别拖着
模型分享
闲聊语料大小为67M,包含50w个多轮对话。使用该语料训练了两个模型dialogue_model与mmi_model
模型百度网盘GoogleDrive模型描述
dialogue_model百度网盘【提取码:osi6】GoogleDrive使用闲聊语料训练了40个epoch,最终loss在2.0左右,继续训练的话,loss应该还能继续下降。
mmi_model百度网盘【提取码:1j88】GoogleDrive以dialogue_model作为预训练模型,使用上述闲聊语料,训练了40个epoch,最终loss在1.8-2.2之间,继续训练的话,loss也能继续下降。
模型使用方法
把下载好的模型文件夹dialogue_model与mmi_model放在项目根目录下(否则需要通过--dialogue_model_path与--mmi_model_path参数指定对应模型的路径),执行如下命令:
仅使用Dialogue_model进行生成
pythoninteract.py--no_cuda(使用默认参数,不使用GPU。由于闲聊对话生成的内容长度不是很长,因此生成部分在CPU上跑速度也挺快的)或pythoninteract.py--no_cuda--dialogue_model_pathpath_to_dialogue_model--max_history_len5(自定义--max_history_len参数,即对话历史的长度)或pythoninteract.py--no_cuda--dialogue_model_pathpath_to_dialogue_model--max_history_len5--topp0.8--topk0(--topp为0到1之间的小数,用于调用NucleusSampling)或pythoninteract.py--no_cuda--max_history_len5--topk8(未指定--dialogue_model_path参数,默认为dialogue_model)
输入Ctrl+Z结束对话之后,聊天记录将保存到sample目录下的sample.txt文件中
使用Dialogue_model生成多个候选Response,然后使用Mmi_model选取互信息Loss最小的Response
interact_mmi.py的用法与interact.py类似
pythoninteract_mmi.py--no_cuda(使用默认的model路径)或pythoninteract_mmi.py--no_cuda--batch_size5(指定生成候选response的个数)或pythoninteract_mmi.py--no_cuda--debug(debug模式,可以看到生成的所有候选response及其通过mmi_model的loss)或pythoninteract_mmi.py--no_cuda--dialogue_model_pathpath_to_dialogue_model--mmi_model_pathpath_to_mmi_model(自定义模型路径)
输入Ctrl+Z结束对话之后,聊天记录将保存到sample目录下的mmi_samples.txt文件中
更多的参数介绍,可直接看interact.py和interact_mmi.py中的setup_train_args()函数中的参数说明
Interact.Py与Interact_mmi.Py的参数
执行interact.py时,可以尝试通过调整topk、topp、repetition_penalty、max_history_len等参数,调整生成的效果。详细的参数描述可以查看interact.py的set_interact_args()函数
训练模型
在项目根目录下创建data文件夹,将原始训练语料命名为train.txt,存放在该目录下。train.txt的格式如下,每段闲聊之间间隔一行。
训练模型:
# 若是训练mmi_model则需要指定--train_mmi参数;若是训练dialogue_model,则不需要指定--train_mmi参数#训练dialogue_modelpythontrain.py --epochs 30 --batch_size 8 --device 0,1 --raw(若要对原始训练语料进行tokenize,则要指定--raw参数。若要用GPU训练,则通过--device指定GPU)或pythontrain.py --epochs 30 --batch_size 8 --no_cuda --raw(指定--no_cuda参数,则使用CPU训练,速度要慢得多)或pythontrain.py --epochs 30 --batch_size 8 --no_cuda(若已经对原始语料进行tokenize,可以不用指定--raw,避免重复tokenize,节约时间)#训练mmi_model,要指定--train_mmi参数pythontrain.py --epochs 30 --batch_size 8 --device 0,1 --raw --train_mmi(对原始训练语料进行逆序拼接,tokenize,并且训练mmi_model)或pythontrain.py --epochs 30 --batch_size 8 --device 0,1 --train_mmi(若已经对原始训练语料tokenize,则直接训练mmi_model)或pythontrain.py --epochs 30 --batch_size 8 --device 0,1 --train_mmi --pretrained_model path_to_pretrained_model(在与训练模型基础上继续训练)
更多的参数介绍,可直接看train.py中的setup_train_args()函数中的参数说明
Interact.Py生成样例
Sample 1:
user:你好啊chatbot:你好,请问您是?user:我是你的主人啊 chatbot:你是狗吗?user:你才是狗chatbot:你不是狗我是你的小主人user:你这个大笨蛋chatbot:你大笨蛋,你是想挨打了user:你全家都是大笨蛋chatbot:我是你爸爸user:算了,不跟你吵了,你在干嘛呢chatbot:我在上班啊,你还没下班呢啊你user:我周末要做作业啊chatbot:不是才交了吗,早晚做完啊user:好多作业啊,还没做完呢chatbot:我在抄,我妈让我周五交,还有事user:你就不怕被你妈妈骂吗chatbot:不怕user:你周末有去哪里玩吗chatbot:没时间啊,忙得很啊user:忙着干嘛呢chatbot:不知道啊,我周末没有作业,我想睡觉,然后还得找人
Sample 2:
user:你好啊chatbot:你好我好大家好user:你在干嘛呢chatbot:你不上课啊user:今天是周末啊,笨蛋chatbot:我在学校呢user:我也是,周末还要做作业chatbot:我还没写呢我们都还没写user:周末你有去哪里玩吗chatbot:没有去南京user:南京有什么好玩的啊chatbot:我们没去南京user:你刚刚又说你去了南京,你是不是耍我啊chatbot:我刚刚才到南京user:你好笨啊chatbot:我没有user:你是大笨蛋chatbot:你才是大笨蛋user:你全家都是大笨蛋chatbot:你个傻冒user:你个智障chatbot:哈哈哈
Sample 3:
user:在干嘛chatbot:睡觉user:这么早就睡觉啦chatbot:嗯啊你也早点睡啊user:我再玩一会儿手机chatbot:早点休息晚安user:拜拜啦chatbot:晚安晚安user:多喝热水chatbot:哈哈哈user:多喝热水chatbot:好的咯
Sample 4:
user:在吗chatbot:在user:我不开心chatbot:怎么啦user:最近好累啊chatbot:是挺累的user:作业好多啊chatbot:还好还好user:我觉得我快要挂科了chatbot:我也是啊,但是我觉得我快熬出头了user:不说了,我还有好多作业没写chatbot:我也是啊好多啊user:那先这样,下次再聊,再见了chatbot:好哒
Sample 5:
user:你去过广州吗chatbot:去过呀,但是没有找到工作呢user:那你去过北京吗chatbot:没有啊user:北京有什么好玩的chatbot:没有你想象的那么好user:是吗,我还没过北京chatbot:那里我也不怎么熟,我去过北京user:北京天安门呢chatbot:没去过,不过可以去玩玩
Sample 6:
user:你好chatbot:你好user:在干嘛呢chatbot:在想你呢user:好害羞啊chatbot:害羞什么啊user:你这样夸我,我觉得不好意思呀chatbot:我夸你你还不好意思呢user:是啊,哈哈哈chatbot:你是不是在考验我user:你怎么会这样想呢chatbot:我说我在夸你,这么客气,user:你有睡午觉吗chatbot:有啊user:我现在有点困呢chatbot:我也是user:等下还要去上课,好烦啊chatbot:我们不用上课的呀
Interact_mmi.Py生成样例(Debug模式下)
添加了MMI Model之后,效果确实提高了许多,可以看到,使用loss越小的response进行回复,对话越流畅
每个Sample为完整的一段对话,为了方便阅读,每轮对话之间加上了换行符。candidate response为dialogue model生成的候选response
需要指定--debug参数才会输出候选response及其loss
Sample 1:
user:你好candidateresponse:你好loss:1.8774782419204712你好!loss:2.1092255115509033你好loss:1.8774782419204712你好,朋友loss:1.9210820198059082你好!loss:2.1092255115509033chatbot:你好user:在干嘛呢candidateresponse:上课玩手机loss:1.8411542177200317上班呢loss:1.8623629808425903上班啊loss:1.8383764028549194刚吃完饭,你呢,我今天吃饱了没事,后天出去吃宵夜,loss:2.471815586090088刚刚搬家loss:2.341609239578247chatbot:上班啊user:周末要一起出去玩吗candidateresponse:可以呀loss:2.0150623321533203可以呀loss:2.0150623321533203可以,你还是做老师吗loss:2.2639517784118652可以啊loss:1.9695569276809692周末要loss:2.1701855659484863chatbot:可以啊user:我好想你啊candidateresponse:我也好想你啊loss:1.8660272359848022那我们就可以一起出来玩呀loss:2.046417236328125我也好想你啊loss:1.8660272359848022我也很久没出去玩啦loss:2.17940354347229来找我吧loss:2.14339542388916chatbot:我也好想你啊user:爱你么么哒candidateresponse:么么哒loss:1.6875463724136353好想你可是也不着急了loss:2.2054319381713867么么哒loss:1.6875463724136353你会爱上新花园的人吗loss:2.521526575088501我也爱你loss:1.6839145421981812chatbot:我也爱你user:你喜欢我吗candidateresponse:那必须是啊loss:1.545378565788269喜欢你啊loss:1.4527238607406616喜欢喜欢loss:1.4971727132797241还行吧loss:1.5946317911148071你是我的小公举么么哒你还不睡觉啊loss:1.6506415605545044chatbot:喜欢你啊
Sample 2
user:亲爱的在干嘛呢
candidateresponse:刚看了一个小片段子,好难过loss:2.541116714477539你猜呀loss:2.1126084327697754亲爱的休息啊loss:2.073425054550171在家里玩儿loss:1.9639413356781006我在等你啊loss:1.9869526624679565chatbot:在家里玩儿user:作业写完了吗candidateresponse:没啊,你呢loss:2.01458477973938没有今天刚写完loss:2.0036869049072266没,今天刚写完loss:2.0473012924194336没有loss:1.9207587242126465没呢,明天上午没课loss:1.943585753440857chatbot:没有user:还不快滚去写作业candidateresponse:我们还没写呢loss:2.271885871887207我还没写呢loss:2.1460421085357666哈哈哈我还没loss:2.2205970287323去死loss:2.469320058822632我们还要写作业loss:2.247976779937744chatbot:我还没写呢user:你个大笨蛋candidateresponse:我就说loss:2.052217483520508你个大傻纸loss:1.9332027435302734可以loss:2.0493569374084473你才是loss:1.8672529458999634我们五月五号才放寒假loss:2.1910266876220703chatbot:你才是user:你是傻子吧candidateresponse:是你是你loss:2.3064982891082764你是大傻loss:2.4247941970825195好好上课loss:2.4157748222351074你是傻子你说谁是傻子loss:2.1408958435058594是你才是loss:2.4862639904022217chatbot:你是傻子你说谁是傻子user:说的就是你,怎样candidateresponse:傻子,你才傻loss:2.2158799171447754我不傻loss:2.188838005065918傻的跟你一样loss:2.3169684410095215那你是聪明的小孩,你想怎样?loss:2.2750229835510254你才傻loss:2.262368679046631chatbot:我不傻user:不和你玩了candidateresponse:你怎么那么傻loss:2.126516819000244我是傻子loss:2.044743061065674我不和你说话了loss:2.107841730117798不要loss:2.124176502227783我不和你玩你说我傻loss:2.1581454277038574chatbot:我是傻子
不足之处
没有对chatbot生成的response的内容进行检测,有时会生成一些敏感、略带玩笑性质的辱骂内容
Future Work
对生成内容进行控制
Reference
The Curious Case of Neural Text Degeneration
DialoGPT:Large-Scale Generative Pre-training for Conversational Response Generation