LLM 大语言模型后缀含义

LLM模型名称的后缀通常用于区分模型的不同版本、用途或特性。

类别 后缀 含义
功能优化类 Instruct 经过指令微调,优化遵循人类指令的能力
Chat 针对对话场景优化,适合多轮交互和自然对话
Few-shot 强调模型在少量示例(Few-shot Learning)下的推理能力
性能优化类 Turbo 速度或效率优化,可能通过模型压缩、架构调整实现快速响应
Quantized 模型经过量化处理,降低计算资源需求(如4-bit/8-bit量化)
FP16/FP32 数值精度标识(半精度/全精度浮点数),影响推理速度和显存占用
规模标识类 Base 未经微调的基础预训练模型,通用性强但未针对特定任务优化
Large/XL/XXL 表示模型参数量级(Large > Base,XL/XXL为超大版本)
Small/Medium 轻量级版本,适合资源有限场景
技术特性类 Uncensored 模型未经过内容过滤,可能生成更自由但风险更高的输出
RL-tuned 通过强化学习(Reinforcement Learning)进一步微调
GGML 使用ggml库优化的格式,支持CPU推理和内存优化
场景/数据类 Multilingual 支持多语言处理
Code 专门针对代码生成和理解任务训练
版本标识类 Beta 测试版本,可能存在不稳定特性
v1/v2/v3 迭代版本号,如llama-1, llama-2
厂商特定后缀 Sonnet/Opus/Haiku Anthropic Claude系列,区分模型规模:Haiku(小)< Sonnet(中)< Opus(大)
Dolly/Alpaca/Vicuna 基于特定数据集或方法微调的衍生模型(如Dolly由Databricks发布)

具体可分为:

一、功能优化类

  1. Instruct

    • 代表模型经过指令微调(Instruction Tuning),专门优化了遵循人类指令的能力(如写邮件、回答问题)。
    • 例子:flan-t5-instruct, falcon-instruct
  2. Chat

    • 针对对话场景优化,适合多轮交互和自然对话。
    • 例子:llama-2-chat, mpt-chat
  3. Few-shot

    • 强调模型在少量示例(Few-shot Learning)下的推理能力。

二、性能优化类

  1. Turbo

    • 强调速度或效率优化,可能通过模型压缩、架构调整实现快速响应。
    • 例子:gpt-3.5-turbo, claude-2.1-turbo
  2. Quantized

    • 模型经过量化处理,降低计算资源需求(如4-bit/8-bit量化)。
    • 例子:llama-7b-quantized
  3. FP16/FP32

    • 数值精度标识(半精度/全精度浮点数),影响推理速度和显存占用。

三、规模标识类

  1. Base

    • 指未经微调的基础预训练模型,通用性强但未针对特定任务优化。
    • 例子:bert-base-uncased
  2. Large/XL/XXL

    • 表示模型参数量级(Large>Base,XL/XXL为超大版本)。
    • 例子:gpt-4-xl, bloom-176b
  3. Small/Medium

    • 轻量级版本,适合资源有限场景。
    • 例子:stability-ai/stablelm-small

四、技术特性类

  1. Uncensored

    • 模型未经过内容过滤,可能生成更自由但风险更高的输出。
    • 例子:wizard-vicuna-uncensored
  2. RL-tuned

    • 通过强化学习(Reinforcement Learning)进一步微调。
    • 例子:claude-2-rl-tuned
  3. GGML

    • 使用ggml库优化的格式,支持CPU推理和内存优化。
    • 例子:llama-2-7b-ggml

五、场景/数据类

  1. Multilingual

    • 支持多语言处理。
    • 例子:bloomz-multilingual
  2. Code

    • 专门针对代码生成和理解任务训练。
    • 例子:code-llama, starcoder

六、版本标识类

  1. Beta

    • 测试版本,可能存在不稳定特性。
  2. v1/v2/v3

    • 迭代版本号,如llama-1, llama-2

厂商特定后缀

  • Sonnet/Opus/Haiku(Anthropic Claude系列)
    • 区分模型规模:Haiku(小)< Sonnet(中)< Opus(大)
  • Dolly/Alpaca/Vicuna
    • 基于特定数据集或方法微调的衍生模型(如Dolly由Databricks发布)。

⚠️ 注意:不同厂商的命名规则可能有差异,部分后缀含义重叠(如turboquantized都可能涉及性能优化)。具体技术细节建议参考模型官方文档。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容