LLM 大语言模型后缀含义

LLM模型名称的后缀通常用于区分模型的不同版本、用途或特性。

类别 后缀 含义
功能优化类 Instruct 经过指令微调,优化遵循人类指令的能力
Chat 针对对话场景优化,适合多轮交互和自然对话
Few-shot 强调模型在少量示例(Few-shot Learning)下的推理能力
性能优化类 Turbo 速度或效率优化,可能通过模型压缩、架构调整实现快速响应
Quantized 模型经过量化处理,降低计算资源需求(如4-bit/8-bit量化)
FP16/FP32 数值精度标识(半精度/全精度浮点数),影响推理速度和显存占用
规模标识类 Base 未经微调的基础预训练模型,通用性强但未针对特定任务优化
Large/XL/XXL 表示模型参数量级(Large > Base,XL/XXL为超大版本)
Small/Medium 轻量级版本,适合资源有限场景
技术特性类 Uncensored 模型未经过内容过滤,可能生成更自由但风险更高的输出
RL-tuned 通过强化学习(Reinforcement Learning)进一步微调
GGML 使用ggml库优化的格式,支持CPU推理和内存优化
场景/数据类 Multilingual 支持多语言处理
Code 专门针对代码生成和理解任务训练
版本标识类 Beta 测试版本,可能存在不稳定特性
v1/v2/v3 迭代版本号,如llama-1, llama-2
厂商特定后缀 Sonnet/Opus/Haiku Anthropic Claude系列,区分模型规模:Haiku(小)< Sonnet(中)< Opus(大)
Dolly/Alpaca/Vicuna 基于特定数据集或方法微调的衍生模型(如Dolly由Databricks发布)

具体可分为:

一、功能优化类

  1. Instruct

    • 代表模型经过指令微调(Instruction Tuning),专门优化了遵循人类指令的能力(如写邮件、回答问题)。
    • 例子:flan-t5-instruct, falcon-instruct
  2. Chat

    • 针对对话场景优化,适合多轮交互和自然对话。
    • 例子:llama-2-chat, mpt-chat
  3. Few-shot

    • 强调模型在少量示例(Few-shot Learning)下的推理能力。

二、性能优化类

  1. Turbo

    • 强调速度或效率优化,可能通过模型压缩、架构调整实现快速响应。
    • 例子:gpt-3.5-turbo, claude-2.1-turbo
  2. Quantized

    • 模型经过量化处理,降低计算资源需求(如4-bit/8-bit量化)。
    • 例子:llama-7b-quantized
  3. FP16/FP32

    • 数值精度标识(半精度/全精度浮点数),影响推理速度和显存占用。

三、规模标识类

  1. Base

    • 指未经微调的基础预训练模型,通用性强但未针对特定任务优化。
    • 例子:bert-base-uncased
  2. Large/XL/XXL

    • 表示模型参数量级(Large>Base,XL/XXL为超大版本)。
    • 例子:gpt-4-xl, bloom-176b
  3. Small/Medium

    • 轻量级版本,适合资源有限场景。
    • 例子:stability-ai/stablelm-small

四、技术特性类

  1. Uncensored

    • 模型未经过内容过滤,可能生成更自由但风险更高的输出。
    • 例子:wizard-vicuna-uncensored
  2. RL-tuned

    • 通过强化学习(Reinforcement Learning)进一步微调。
    • 例子:claude-2-rl-tuned
  3. GGML

    • 使用ggml库优化的格式,支持CPU推理和内存优化。
    • 例子:llama-2-7b-ggml

五、场景/数据类

  1. Multilingual

    • 支持多语言处理。
    • 例子:bloomz-multilingual
  2. Code

    • 专门针对代码生成和理解任务训练。
    • 例子:code-llama, starcoder

六、版本标识类

  1. Beta

    • 测试版本,可能存在不稳定特性。
  2. v1/v2/v3

    • 迭代版本号,如llama-1, llama-2

厂商特定后缀

  • Sonnet/Opus/Haiku(Anthropic Claude系列)
    • 区分模型规模:Haiku(小)< Sonnet(中)< Opus(大)
  • Dolly/Alpaca/Vicuna
    • 基于特定数据集或方法微调的衍生模型(如Dolly由Databricks发布)。

⚠️ 注意:不同厂商的命名规则可能有差异,部分后缀含义重叠(如turboquantized都可能涉及性能优化)。具体技术细节建议参考模型官方文档。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,492评论 6 513
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,048评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,927评论 0 358
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,293评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,309评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,024评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,638评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,546评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,073评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,188评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,321评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,998评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,678评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,186评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,303评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,663评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,330评论 2 358

推荐阅读更多精彩内容