240 发简信
IP属地:北京
  • base-llm 2.2.3 模型构建、训练与推理

    一、模型结构设计 NER本质是序列标注问题——为输入序列中的每一个Token预测一个对应的标签。 1. Token Embedding 层 to...

  • base-llm 4.1 模型部署实战 FastApi/docker-compose

    FastAPI是基于Starlette和Pydantic构建。pydantic能利用Python的类型提示(Type Hints)实现自动的数据...

  • base-llm 2.2.4 模型的推理与优化

    一、理解模型输出 实体级别的F1值是衡量模型性能的核心标准,而非简单的Token分类准确率。 1.1 Token级准确率的陷阱 Token分类准...

  • Resize,w 360,h 240
    base-llm 2.2.2 NER项目的数据处理

    一、 数据处理流程总览 1.1. 数据处理目标 使用的是BMES方法模型输入X: [batch_seq_len] (每个位置是TokenID)...

  • Resize,w 360,h 240
    base-llm 2.2.1 命名实体识别概要

    一、命名实体识别简介 文本分类是一种对文本的宏观理解。命名实体识别则,则是深入内部理解,学习如何精准是被出句子中的人名、地名等具有特定意义的词语...

  • Resize,w 360,h 240
    base-llm 1.5.3 T5结构及应用

    Bert是基于Encoder架构,擅长理解(如分类、实体识别),GPT基于Decoder架构,擅长生成(如续写、对话), T5回归了Encode...

  • Resize,w 360,h 240
    Base-llm 1.5.2 GPT结构及应用

    GPT系列模型是完全基于Transformer构建的,与BERT致力于通过双向上下文来“理解”语言不通,GPT的中心在生成语言。它的设计初衷是为...

  • Resize,w 360,h 240
    Base-llm 1.5.1 BERT结构及应用

    一、BERT的设计原理与预训练策略 Bert(Bidirectional Encoder Representations from Transf...

  • Resize,w 360,h 240
    base-llm 1.4.3 深入理解transformer

    Transformer 来自2017年Google研究团队的名为《Attention is All You Need》的论文。其思想抛弃了传统R...

    0.3 20 0 1