LLM模型名称的后缀通常用于区分模型的不同版本、用途或特性。
类别 | 后缀 | 含义 |
---|---|---|
功能优化类 | Instruct |
经过指令微调,优化遵循人类指令的能力 |
Chat |
针对对话场景优化,适合多轮交互和自然对话 | |
Few-shot |
强调模型在少量示例(Few-shot Learning)下的推理能力 | |
性能优化类 | Turbo |
速度或效率优化,可能通过模型压缩、架构调整实现快速响应 |
Quantized |
模型经过量化处理,降低计算资源需求(如4-bit/8-bit量化) | |
FP16/FP32 |
数值精度标识(半精度/全精度浮点数),影响推理速度和显存占用 | |
规模标识类 | Base |
未经微调的基础预训练模型,通用性强但未针对特定任务优化 |
Large/XL/XXL |
表示模型参数量级(Large > Base,XL/XXL为超大版本) | |
Small/Medium |
轻量级版本,适合资源有限场景 | |
技术特性类 | Uncensored |
模型未经过内容过滤,可能生成更自由但风险更高的输出 |
RL-tuned |
通过强化学习(Reinforcement Learning)进一步微调 | |
GGML |
使用ggml 库优化的格式,支持CPU推理和内存优化 |
|
场景/数据类 | Multilingual |
支持多语言处理 |
Code |
专门针对代码生成和理解任务训练 | |
版本标识类 | Beta |
测试版本,可能存在不稳定特性 |
v1/v2/v3 |
迭代版本号,如llama-1 , llama-2
|
|
厂商特定后缀 | Sonnet/Opus/Haiku |
Anthropic Claude系列,区分模型规模:Haiku(小)< Sonnet(中)< Opus(大) |
Dolly/Alpaca/Vicuna |
基于特定数据集或方法微调的衍生模型(如Dolly由Databricks发布) |
具体可分为:
一、功能优化类
-
Instruct
- 代表模型经过指令微调(Instruction Tuning),专门优化了遵循人类指令的能力(如写邮件、回答问题)。
- 例子:
flan-t5-instruct
,falcon-instruct
-
Chat
- 针对对话场景优化,适合多轮交互和自然对话。
- 例子:
llama-2-chat
,mpt-chat
-
Few-shot
- 强调模型在少量示例(Few-shot Learning)下的推理能力。
二、性能优化类
-
Turbo
- 强调速度或效率优化,可能通过模型压缩、架构调整实现快速响应。
- 例子:
gpt-3.5-turbo
,claude-2.1-turbo
-
Quantized
- 模型经过量化处理,降低计算资源需求(如4-bit/8-bit量化)。
- 例子:
llama-7b-quantized
-
FP16/FP32
- 数值精度标识(半精度/全精度浮点数),影响推理速度和显存占用。
三、规模标识类
-
Base
- 指未经微调的基础预训练模型,通用性强但未针对特定任务优化。
- 例子:
bert-base-uncased
-
Large/XL/XXL
- 表示模型参数量级(Large>Base,XL/XXL为超大版本)。
- 例子:
gpt-4-xl
,bloom-176b
-
Small/Medium
- 轻量级版本,适合资源有限场景。
- 例子:
stability-ai/stablelm-small
四、技术特性类
-
Uncensored
- 模型未经过内容过滤,可能生成更自由但风险更高的输出。
- 例子:
wizard-vicuna-uncensored
-
RL-tuned
- 通过强化学习(Reinforcement Learning)进一步微调。
- 例子:
claude-2-rl-tuned
-
GGML
- 使用
ggml
库优化的格式,支持CPU推理和内存优化。 - 例子:
llama-2-7b-ggml
- 使用
五、场景/数据类
-
Multilingual
- 支持多语言处理。
- 例子:
bloomz-multilingual
-
Code
- 专门针对代码生成和理解任务训练。
- 例子:
code-llama
,starcoder
六、版本标识类
-
Beta
- 测试版本,可能存在不稳定特性。
-
v1/v2/v3
- 迭代版本号,如
llama-1
,llama-2
。
- 迭代版本号,如
厂商特定后缀
-
Sonnet/Opus/Haiku(Anthropic Claude系列)
- 区分模型规模:Haiku(小)< Sonnet(中)< Opus(大)
-
Dolly/Alpaca/Vicuna
- 基于特定数据集或方法微调的衍生模型(如Dolly由Databricks发布)。
⚠️ 注意:不同厂商的命名规则可能有差异,部分后缀含义重叠(如turbo
和quantized
都可能涉及性能优化)。具体技术细节建议参考模型官方文档。