Alpaca:一个强大的、可复制的指令遵循模型

我们介绍了 Alpaca 7B,这是一款在 52K 上从 LLaMA 7B 模型微调而来的模型 遵循说明的演示。在我们对以下单轮指令的初步评估中,Alpaca 的行为在质量上与 OpenAI 的 text-davinci-003 相似,同时体积小且易于/廉价复制 (<600$)。在 GitHub 上查看我们的代码版本。

更新:公开演示现已禁用。发布演示的最初目的是以一种易于理解的方式传播我们的研究。我们觉得我们已经基本实现了这个目标,考虑到托管成本和内容过滤器的不足,我们决定降低演示。

[图片上传中...(image-a5d4a-1713951512067-5)]

概述

GPT-3.5 (text-davinci-003)、ChatGPT、Claude 和 Bing Chat 等指令跟踪模型变得越来越强大。 许多用户现在定期与这些模型进行交互,甚至将它们用于工作。 然而,尽管它们被广泛部署,指令遵循模型仍然存在许多缺陷: 它们可以产生虚假信息,传播社会刻板印象,并产生有毒语言。

为了在解决这些紧迫问题方面取得最大进展, 学术界的参与很重要。 不幸的是,在学术界对指令遵循模型进行研究一直很困难, 因为没有易于访问的模型在功能上接近闭源模型,例如 OpenAI 的 text-davinci-003。

我们正在发布关于指令遵循语言模型的发现,称为 Alpaca, 它是从 Meta 的 LLaMA 7B 模型微调而来的。 我们在使用 text-davinci-003 以自指令风格生成的 52K 指令遵循演示上训练 Alpaca 模型。 在自指令评估集上,Alpaca 表现出许多类似于 OpenAI 的 text-davinci-003 的行为,但也出奇地小且易于/廉价复制。

我们正在发布我们的训练配方和数据,并打算在未来发布模型权重。 我们还将举办一个互动演示,使研究界能够更好地了解羊驼的行为。 交互可能会暴露意想不到的功能和故障,这将指导我们未来对这些模型的评估。 我们还鼓励用户在我们的 Web 演示中报告任何相关的行为,以便我们更好地了解和缓解这些行为。 由于任何版本都存在风险,因此我们将在稍后的这篇博文中讨论我们对这个开放版本的思考过程。

我们强调,羊驼仅用于学术研究禁止任何商业用途。 此决定有三个因素: 首先,Alpaca 是基于 LLaMA 的,LLaMA 拥有非商业许可,因此我们必然继承这一决定。 其次,指令数据基于 OpenAI 的 text-davinci-003, 其使用条款禁止开发与 OpenAI 竞争的模型。 最后,我们没有设计足够的安全措施,因此羊驼还没有准备好用于一般用途。

训练食谱

在学术预算下训练高质量的教学遵循模型有两个重要挑战: 强大的预训练语言模型和高质量的指令跟踪数据。 Meta 最近发布的新 LLaMA 模型解决了第一个挑战。 对于第二个挑战,自指导论文建议使用现有的强语言模型来自动生成指令数据。 特别是,Alpaca 是一种语言模型,使用 LLaMA 7B 模型的监督学习对 OpenAI 的 text-davinci-003 生成的 52K 指令遵循演示进行微调。

下图说明了我们是如何获得羊驼模型的。 对于数据,我们通过构建自指令方法生成了指令跟踪演示。 我们从自指令种子集中的 175 个人工编写的指令-输出对开始。 然后,我们提示 text-davinci-003 使用种子集作为上下文示例生成更多指令。 我们通过简化生成管道(请参阅 GitHub 中的详细信息)改进了自指令方法,并显着降低了成本。 我们的数据生成过程会产生 52K 条唯一指令和相应的输出,使用 OpenAI API 的成本不到 500 美元。

[图片上传失败...(image-a33b4-1713951512067)]

有了这个指令跟踪数据集,我们随后使用 Hugging Face 的训练框架对 LLaMA 模型进行了微调,并利用了完全分片数据并行和混合精度训练等技术。在我们的初始运行中,在 8 个 80GB A100 上微调 7B LLaMA 模型需要 3 个小时,这在大多数云计算提供商上的成本不到 100 美元。我们注意到,培训效率可以提高,以进一步降低成本。

初步评估

为了评估羊驼,我们对自学评估集的输入进行了人工评估(由 5 名学生作者进行)。 该评估集由自学作者收集,涵盖了各种面向用户的说明列表,包括电子邮件写作、社交媒体和生产力工具。 我们对 text-davinci-003 和 Alpaca 7B 进行了盲成对比较,发现这两个模型的性能非常相似: Alpaca 在与 text-davinci-003 的比较中以 90 比 89 获胜。

我们对这个结果感到非常惊讶,因为模型尺寸很小,而且遵循数据的指令量适中。 除了利用这个静态评估集之外,我们还以交互方式测试了 Alpaca 模型,发现 Alpaca 在各种输入集上的行为通常与 text-davinci-003 相似。 我们承认,我们的评估可能在规模和多样性方面受到限制。因此,我们发布了一个羊驼的互动演示,并鼓励读者自己评估羊驼并给我们反馈。

在本节的其余部分,我们将包括几个交互示例来展示 Alpaca 的功能和局限性。

[图片上传失败...(image-20690a-1713951512067)]

[图片上传中...(image-4bbc53-1713951512067-2)]

上面的例子表明,Alpaca 的输出通常写得很好。我们注意到 Alpaca 反映了指令跟踪数据集的一般风格。因此,Alpaca 的答案通常比 ChatGPT 短,反映了 text-davinci-003 的输出更短。

已知限制

羊驼还表现出语言模型的几个常见缺陷,包括幻觉、毒性和刻板印象。 尤其是幻觉似乎是羊驼的常见故障模式,即使与文本-davinci-003 相比也是如此。

例如,在下图中,Alpaca错误地将坦桑尼亚的首都说成是坦桑尼亚最大的城市达累斯萨拉姆。 (直到 1974 年,它一直是首都,后来被 Dodoma 取代。

[图片上传失败...(image-1538bd-1713951512067)]

此外,Alpaca 可用于生成编写良好的输出来传播错误信息,如以下示例所示。

[图片上传失败...(image-bf2e3e-1713951512067)]

Alpaca 可能包含许多其他与底层语言模型和指令调优数据相关的限制。但是,我们相信该工件对社区仍然有用,因为它提供了一个相对轻量级的模型,可以作为研究重要缺陷的基础。我们鼓励用户通过在 Web 演示中标记它们来帮助我们识别新型故障。 总的来说,我们希望Alpaca的发布能够促进对指令遵循模型及其与人类价值观的一致性的进一步研究。

已发布的资产

我们今天将发布以下资产:

  • 演示:一个互动演示,供大家试用羊驼毛。
  • 数据:用于微调羊驼的 52K 演示
  • 数据生成过程用于生成数据的代码。
  • 训练代码:用于使用 Hugging Face API 微模型。

我们打算在不久的将来发布以下资产:

  • 模型权重:我们已联系 Meta,以获得有关发布 Alpaca 模型权重的指导,包括 7B Alpaca 和较大 LLaMA 模型的微调版本。

发布决定

我们相信,发布上述资产将使学术界能够 对遵循指令的语言模型进行受控科学研究, 从而产生更好的科学和最终的新技术,以解决这些模型的现有缺陷。

同时,任何发布都会带来一些风险。 首先,我们认识到发布我们的训练配方揭示了某些能力的可行性。 一方面,这使更多的人(包括不良行为者)成为可能 创建可能造成伤害的模型(有意或无意)。 另一方面,这种意识可能会激励迅速采取防御行动, 特别是来自学术界,现在有能力对此类模型进行更深入的安全研究。 总体而言,我们认为此特定版本对研究界的好处大于风险。

鉴于我们正在发布训练配方, 我们认为,发布数据、模型权重和训练代码 鉴于配方的简单性,进一步的风险最小。 同时,释放这些资产对可重复的科学有巨大的好处, 以便学术界可以使用标准数据集、模型和代码 执行受控比较并探索扩展。

为 Alpaca 部署交互式演示也会带来潜在风险,例如更广泛的风险 传播有害内容并降低垃圾邮件、欺诈或虚假信息的障碍。 我们已制定了两项风险缓解策略。首先,我们实现了内容过滤器 使用 OpenAI 的内容审核 API, 过滤掉 OpenAI 定义的有害内容 使用策略。其次,我们使用 Kirchenbauer 等人 2023 年描述的方法对所有模型输出进行水印, 以便其他人可以(有一定的概率)检测输出是否来自 Alpaca 7B。 最后,我们对使用演示有严格的条款和条件; 它仅限于非商业用途和遵循 LLaMA 许可协议的用途。

我们知道,一旦我们释放了模型权重,或者用户训练了自己的指令跟踪模型,这些缓解措施就可以被规避。 但是,通过安装这些缓解措施,我们希望推进最佳实践,并最终为负责任地部署基础模型制定社区规范

未来方向

我们对羊驼带来的研究机会感到兴奋。未来有许多令人兴奋的方向:

  • 评估:我们需要更严格地评估羊驼。 我们将从 HELM(语言模型的整体评估)开始, 希望这将发展到捕获更多生成性的、遵循指令的场景。
  • 安全性:我们想进一步研究羊驼的风险,并使用自动红队、审核和自适应测试等方法提高其安全性。
  • 理解:我们希望更好地了解能力是如何从培训配方中产生的。 您需要基础模型的哪些属性?扩大规模后会发生什么? 需要指令数据的哪些属性?在 text-davinci-003 上使用自指令的替代方法是什么?

确认

这项工作是在斯坦福大学以人为本的人工智能研究所(HAI)和斯坦福大学自然语言处理(NLP)小组的支持下在基础模型研究中心(CRFM)完成的。我们还特别感谢 Yifan Mai 为演示部署提供的有用的工程支持。

羊驼直接和关键地依赖于现有作品。 我们要感谢 Meta AI Research 训练和发布 LLaMA 模型, 自学团队为我们提供了数据生成管道的基础, Hugging Face 用于训练代码, 和 OpenAI 铺平道路并展示可以实现的目标。

我们还想强调的是,对于指令遵循 LLM 和聊天模型,还有许多其他开放的努力,包括 OpenChatKitOpen AssistantCarper AI

原文地址:https://crfm.stanford.edu/2023/03/13/alpaca.html

原创声明:本文为本人原创作品,首发于AI ONES https://wuxiongwei.com,如果转载,请保留本文链接,谢谢。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,080评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,422评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,630评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,554评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,662评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,856评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,014评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,752评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,212评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,541评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,687评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,347评论 4 331
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,973评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,777评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,006评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,406评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,576评论 2 349

推荐阅读更多精彩内容