240 发简信
IP属地:湖南
  • LLM笔记

    LoRA解读:https://zx2ow2qh1z5.feishu.cn/docx/XTq5daVFio7UWAxjgDmcfVu7nSb[ht...

  • Resize,w 360,h 240
    RAG的效果评估

    RAG有两个核心部分: 检索部分:保证系统能根据用户的Prompt找到对应的chunk 生成部分:充分发挥大模型能力,生成一个满足用户要求的正确...

  • Resize,w 360,h 240
    第七节 评测

    OpenCompass 评测 https://github.com/InternLM/Tutorial/blob/camp2/opencompa...

  • Resize,w 360,h 240
    第六节 Agent

    Lagent & AgentLego 智能体应用搭建 一、概述 Lagent 是一个轻量级开源智能体框架,旨在让用户可以高效地构建基于大语言模型...

  • Resize,w 360,h 240
    第五节

    LMDeploy 量化部署 LLM&VLM 实践 一、理论基础 大模型部署面临的挑战: 计算量巨大 内存开销巨大 访存瓶颈:硬件计算速度远快于显...

  • Resize,w 360,h 240
    第三节笔记

    搭建 RAG 智能助理 一、RAG 1.1 概述 RAG(Retrieval Augmented Generation)技术,通过检索与用户输入...

  • Resize,w 360,h 240
    第四节笔记&作业

    XTuner 微调 LLM:1.8B、多模态、Agent 微调效果: XTuner 一个大语言模型&多模态模型微调工具箱。由 MMRazor 和...

  • Resize,w 360,h 240
    第二节作业

    1. 使用 InternLM2-Chat-1.8B 模型生成 300 字的小故事 2. Lagent 部署 在 terminal 中输入指令,构...

  • Resize,w 360,h 240
    第二节笔记

    玩转趣味Demo 主要任务 部署 InternLM2-Chat-1.8B 模型进行智能对话 部署实战营优秀作品 八戒-Chat-1.8B 模型 ...