从零搭建一个BERT服务

凡对本文有任何疑惑可加QQ群交流:1081332609

BERT是Google于2018年10月开源的一个自然语言的预训练模型,并在NLP的11项任务上取得了卓越的表现。在网络上拥有大量的模型训练的文章,然而鲜有关于其在生产上部署方法的说明,本文将从零开始,搭建一个BERT+TFserving的从数据准备,到模型训练,到服务端实现,再到客户端实现的全流程模型构建说明。(本文以垃圾邮件分类为例)
项目地址:https://github.com/lvjianjin/bert-tfserving.git

目录结构

bert-tfserving--|--bert(geogle发布的bert项目)
                |--chinese_L-12_H-768_A-12(下载的预训练文件)
                |--data(训练数据)
                |--output(保存的结果)
                |--client(客户端)
                |--readme.md

数据准备

生成三个训练文件train.csv、dev.csv、test.csv,放在./data文件夹下。其中第一列为训练文本,第二列为文本标签,形式如下图所示。本人也提供了一个从将MySQL数据库获取数据,直接生产三个训练文件的方法,具体实现方式可参见create_data.py

训练数据示例

新增数据处理方法

下载BERT官方代码至项目路径的bert文件夹下,并在run_classifier.py中添加新的数据读取类,用以读取刚才生成的训练数据集。示例代码如下(针对不同模型需要修改最后get_labels中的标签取值):

class EmailProcessor(DataProcessor):
    """
    垃圾邮件(敏感信息)数据处理
    用于获取训练集,验证集,测试集和标签的方法
    """
    def get_train_examples(self, data_dir):
        file_path = os.path.join(data_dir, 'train.csv')
        train_df = pd.read_csv(file_path, encoding='utf-8')
        train_data = []
        for index, train in enumerate(train_df.values):
            guid = 'train-%d' % index
            text_a = tokenization.convert_to_unicode(str(train[0]))
            label = str(train[1])
            train_data.append(InputExample(guid=guid, text_a=text_a, text_b=None, label=label))
        return train_data

    def get_dev_examples(self, data_dir):
        file_path = os.path.join(data_dir, 'dev.csv')
        dev_df = pd.read_csv(file_path, encoding='utf-8')
        dev_data = []
        for index, dev in enumerate(dev_df.values):
            guid = 'dev-%d' % index
            text_a = tokenization.convert_to_unicode(str(dev[0]))
            label = str(dev[1])
            dev_data.append(InputExample(guid=guid, text_a=text_a, text_b=None, label=label))
        return dev_data

    def get_test_examples(self, data_dir):
        file_path = os.path.join(data_dir, 'test.csv')
        test_df = pd.read_csv(file_path, encoding='utf-8')
        test_data = []
        for index, test in enumerate(test_df.values):
            guid = 'test-%d' % index
            text_a = tokenization.convert_to_unicode(str(test[0]))
            label = str(test[1])
            test_data.append(InputExample(guid=guid, text_a=text_a, text_b=None, label=label))
        return test_data

    def get_labels(self):
        return ["0", "1"]

并将新增的数据方法加入执行代码中,

  processors = {
      "cola": ColaProcessor,
      "mnli": MnliProcessor,
      "mrpc": MrpcProcessor,
      "xnli": XnliProcessor,
      "email": EmailProcessor,#垃圾邮件分类
  }

模型训练

训练前请先下载官方提供的预训练模型参数,可至本人百度云盘上进行下载(链接:https://pan.baidu.com/s/1QYc5X1aNHRKEmp6mg7nCZA
提取码:qtsb),也可到google官方自行下载其他版本。
预训练文件准备完成之后,即可在项目根路径下执行如下训练语句。

python3 ./bert/run_classifier.py \
        --data_dir=./data/ \
        --task_name=email \
        --vocab_file=./chinese_L-12_H-768_A-12/vocab.txt \
        --bert_config_file=./chinese_L-12_H-768_A-12/bert_config.json \
        --output_dir=./output/ \
        --do_train=true \
        --do_eval=true \
        --init_checkpoint=./chinese_L-12_H-768_A-12/bert_model.ckpt \
        --max_seq_length=128 \
        --train_batch_size=32 \
        --learning_rate=5e-5 \
        --num_train_epochs=2.0

模型训练完成会显示整体准确率及损失函数的值,训练结果位于output/文件夹中。

TFserving部署前的准备

Tensorflow serving是官方推荐的一种高效的专门用于部署Tensorflow服务的工具。接下来,我将详细说明如何将上述训练好的模型部署成生产环境的服务。首先,我们需要先将训练所生产的ckpt文件转换为TFserving部署所需文件格式。具体代码可参见save_model.py

其中,请自行修改max_seq_len(最大文本长度)、num_labels(标签个数)。
修改完成后,请在项目根目录下执行该程序,执行命令如下:

python3 ./bert/save_model.py

完成后,即可于output/文件夹下看到一个versions文件夹。

TFserving服务端部署

TFserving服务端的部署推荐使用Docker进行部署,关于Docker的安装可自行百度。安装完docker后,只需先拉取所需镜像:

docker pull tensorflow/serving

然后,即可启动Docker容器服务,其中source后接的是刚才模型生成的versions文件夹对应路径:

docker run --name tfserving-bert \
        --hostname tfserving-bert \
        -tid \
        --restart=on-failure:10 \
        -v  /etc/timezone:/etc/timezone \
        -v  /etc/localtime:/etc/localtime \
        -p 8501:8501 \
        -p 8502:8502 \
        --mount type=bind,source=/opts/python-project/bert-class/output/versions,target=/models/versions \
        -e MODEL_NAME=versions \
        -t tensorflow/serving &

见到如下输出即为服务端建立完成。


docker实现bert服务端

客户端实现

TFserving支持两种调用方式,本人实现了对于http的调用方式的封装,代码请见https://github.com/lvjianjin/bert-tfserving/blob/master/client/client.py
,运行该客户端我们就能获得服务端的响应了。

客户端结果

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,657评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,889评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,057评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,509评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,562评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,443评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,251评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,129评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,561评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,779评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,902评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,621评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,220评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,838评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,971评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,025评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,843评论 2 354

推荐阅读更多精彩内容