LoRA解读:https://zx2ow2qh1z5.feishu.cn/docx/XTq5daVFio7UWAxjgDmcfVu7nSb[https://zx2ow2qh1...
LoRA解读:https://zx2ow2qh1z5.feishu.cn/docx/XTq5daVFio7UWAxjgDmcfVu7nSb[https://zx2ow2qh1...
RAG有两个核心部分: 检索部分:保证系统能根据用户的Prompt找到对应的chunk 生成部分:充分发挥大模型能力,生成一个满足用户要求的正确回答 评估和优化生成部分 优化...
OpenCompass 评测 https://github.com/InternLM/Tutorial/blob/camp2/opencompass/readme.md[ht...
Lagent & AgentLego 智能体应用搭建 一、概述 Lagent 是一个轻量级开源智能体框架,旨在让用户可以高效地构建基于大语言模型的智能体。同时它也提供了一些典...
LMDeploy 量化部署 LLM&VLM 实践 一、理论基础 大模型部署面临的挑战: 计算量巨大 内存开销巨大 访存瓶颈:硬件计算速度远快于显存带宽 动态请求:请求量不确定...
搭建 RAG 智能助理 一、RAG 1.1 概述 RAG(Retrieval Augmented Generation)技术,通过检索与用户输入相关的信息片段,并结合外部知识...
XTuner 微调 LLM:1.8B、多模态、Agent 微调效果: XTuner 一个大语言模型&多模态模型微调工具箱。由 MMRazor 和 MMDeploy 联合开发。...
1. 使用 InternLM2-Chat-1.8B 模型生成 300 字的小故事 2. Lagent 部署 在 terminal 中输入指令,构造软链接快捷访问方式: 在代码...
玩转趣味Demo 主要任务 部署 InternLM2-Chat-1.8B 模型进行智能对话 部署实战营优秀作品 八戒-Chat-1.8B 模型 通过 InternLM2-Ch...
InternLM2.0主要亮点 从模型到应用典型流程 模型选型:根据业务的特性选择合适的模型(产品向) 判断业务场景是否复杂:如果复杂,则要进行针对性的微调 算力:达则全局微...
一 支持向量机 1 算法原理 从几何角度,对于线性可分数据集,支持向量机就是找距离正负样本都最远的超平面。相比于感知机,解是唯一的,且不偏不倚,泛化性能最好。设划分超平面是,...
神经网络 1 神经元模型 1.1 M-P神经元 “ “——《机器学习》周志华 1.2 激活函数 常用Sigmoid函数,把在较大范围内变化的输入值挤压到(0, 1)输出范围内...
决策树 1 概述 决策树的学习目的是产生一棵泛化能力强的决策树,基本流程遵循“分而治之”的策略。 决策树 最顶层是根节点,包含所有样本 每个叶节点代表类或类分布(几类的概率分...
3.5 多分类问题 三种拆分策略 一对一 OvO 一对其余 OvR 多对多 MvMOvO与OvROvO:把共N个类别两两配对,产生N(N - 1) / 2个二分类器。在测试时...
线性判别分析 Linear Discriminant Analysis 1 PCA(主成分分析)与LDA PCA与LDA都是一种降维的方法。PCA仅关注方差最大的方向,LDA...
饱和度增强指的是通过调整图片和视频画面的饱和度特性,使得画面色彩得以还原真实色彩更加逼真或相比原画面更加丰富,从而提升人的视觉主观感受。对视频图像等后处理具有重要的意义。 1...
对数几率回归 回归的结果是连续的,但是我们需要做分类任务,所以在线性模型的基础上套一个映射函数,把结果映射到01之间来实现分类。 算法 y是离散型随机变量,值取0或者1,取1...
极大似然估计 有一批样本,估计它符合的分布的参数。 先写出此分布的概率密度函数。 把所有样本的概率做连乘,算联合概率。 求出使得式子取到最大值的参数。 ps:对联合概率进行l...
第二章 模型评估与选择 2.1 经验误差与过拟合 概念: 错误率(分类) 精度:(分类) 误差:输出和真实值的差异 经验误差:训练误差 泛化误差:新样本上的误差 过拟合ove...
学习目标 看懂每一步推导 会调scikit-learn库实现代码 第一章 绪论 1 基本术语 模型:一个函数 样本空间 :表示 标记:标记取值为离散型,是分类任务classi...