百度飞桨 AI Studio 上的 ChatGLM-6B 初探

本文作者:啊阿伟啊

前言

ChatGLM-6B 由清华大学知识工程和数据挖掘团队是开源对话语言模型,支持中英双语,具有 62 亿参数。

运行大模型需要一定的计算资源,由于其依赖的矩阵计算的特点,GPU目前是最主要的计算资源。 对于资源有限,但是还想尝试大模型的同学,可以使用百度飞桨的AI Studio。AI Studio 的入门请看:百度飞桨薅羊毛入门教程

接下来,我们就来看看如何使用百度飞桨 AI Studio 来使用 ChatGLM 吧。访问飞桨 AI Studio 项目:ChatGLM-6B体验本地化对话(transformers版本)可以查看实例。

一、模型准备文件

薅羊毛是要付出一些代价的,那么使用飞桨 AI Studio 的代价就是,从 Huggingface 下载模型,经常失败,会得到如下异常:

❗ OSError: We couldn't connect to 'https://huggingface.co' to load this file, couldn't find it in the cached files and it looks like THUDM/chatglm-6b is not the path to a directory containing a file named config.json.
Checkout your internet connection or see how to run the library in offline mode at 'https://huggingface.co/docs/transformers/installation#offline-mode'.

不要担心,接下来我们就来解决这个问题。

由于无法直接从 Huggingface 下载,就需要使用 Huggingface 离线模式,手动下载模型了。

由于 ChatGLM-6B 模型体积较大,建议使用清华大学云盘来下载模型:chatglm-6b,下载速度可以在 20M/s 左右。

方便大家批量下载,整理了下载模型的命令,大家在飞桨 AI Studio 运行环境中用notebook直接执行,可以直接下载到运行环境的磁盘上,模型文件会下载到目录 model。整个模型下载时间在10分钟左右。

!wget -P 'ChatGLM-6B/model' --no-check-certificate --content-disposition 'https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/files/?p=%2Fpytorch_model-00001-of-00008.bin&dl=1'
!wget -P 'ChatGLM-6B/model' --no-check-certificate --content-disposition 'https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/files/?p=%2Fpytorch_model-00002-of-00008.bin&dl=1'
!wget -P 'ChatGLM-6B/model' --no-check-certificate --content-disposition 'https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/files/?p=%2Fpytorch_model-00003-of-00008.bin&dl=1'
!wget -P 'ChatGLM-6B/model' --no-check-certificate --content-disposition 'https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/files/?p=%2Fpytorch_model-00004-of-00008.bin&dl=1'
!wget -P 'ChatGLM-6B/model' --no-check-certificate --content-disposition 'https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/files/?p=%2Fpytorch_model-00005-of-00008.bin&dl=1'
!wget -P 'ChatGLM-6B/model' --no-check-certificate --content-disposition 'https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/files/?p=%2Fpytorch_model-00006-of-00008.bin&dl=1'
!wget -P 'ChatGLM-6B/model' --no-check-certificate --content-disposition 'https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/files/?p=%2Fpytorch_model-00007-of-00008.bin&dl=1'
!wget -P 'ChatGLM-6B/model' --no-check-certificate --content-disposition 'https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/files/?p=%2Fpytorch_model-00008-of-00008.bin&dl=1'

二、下载模型配置

使用 transformers 库加载模型,需要有模型的配置文件。

现在我们先把 ChatGLM-6B 模型的配置文件从 Huggingface 仓库中下载到本地。

  1. 进入模型仓库,点击 Files and versions

  1. 下载模型的配置文件到本地(蓝色矩形标注文件)

  2. 上传本地配置文件到飞桨 AI Studio 运行环境

    上传到model目录,和上面模型文件在同一个目录下

这样,我们的模型就准备好了,可以进行加载使用了。

三、体验ChatGLM-6B

  1. 安装依赖

    !pip install protobuf==3.20.0 transformers==4.27.1 icetk cpm_kernels
    
  2. 导入依赖

    from transformers import AutoTokenizer, AutoModel
    
  3. 实例化 Tokenizer 并加载模型

    前面我们把模型和模型配置放到了 model 目录下,就需要配置加载路径为 model

    MODEL_PATH = 'model'
    
    # 实例化 tokenizer
    tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH, trust_remote_code=True)
    
    # 加载模型
    model = AutoModel.from_pretrained("/home/aistudio/ChatGLM-6B/model", trust_remote_code=True).half().cuda()
    
  4. 进行对话

    response, history = model.chat(tokenizer, "你好", history=[])
    print(response)
    response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
    print(response)
    

好了,几秒钟后,你就可以看到 ChatGLM 的响应了。

计算资源的使用情况

运行 ChatGLM-6B,使用 V100 16G 的 GPU,进行简单的对话,是完全没有问题的。

在10轮对话内的资源使用情况:

结语

大家可以直接访问飞桨 AI Studio 项目:ChatGLM-6B体验本地化对话(transformers版本)。这个项目有Notebook,可以供大家自由尝试,也有根据飞桨官方课程提供的 Streamlit 界面,供大家使用。

Notebook
Streamlit界面

其实,模型的使用不是很难,只需要实例化Tokenizer和加载模型就行,但是,由于访问Huggingface仓库受限,使用飞桨 AI Studio 就需要需要手动获取模型。

只要了解 Huggingface 的离线模式,并知道如何手动准备模型文件,我们就可以在飞桨 AI Studio 上愉快的体验ChatGLM-6B了。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,539评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,594评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,871评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,963评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,984评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,763评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,468评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,357评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,850评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,002评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,144评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,823评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,483评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,026评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,150评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,415评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,092评论 2 355

推荐阅读更多精彩内容