240 发简信
IP属地:北京
  • kubebuilder脚手架

    kubebuilder简介 kubebuilder安装 在ws中的ubuntu中安装 目前,使用的kubebuilder版本为:v3.6.0 命...

  • wsl安装docker desktop及k8s集群

    wsl windows打开控制面板,选择程序下的启用或关闭windows功能,选择虚拟机平台和适用于linux的windows子系统。 下载do...

  • Resize,w 360,h 240
    大模型参数全量微调

    概述 在预训练模型的基础上,对所有参数进行微调。 原理 预训练任务类型 自回归语言模型是根据上文内容预测下一个可能的单词,就是常说的自左向右的语...

  • python pip镜像源

    清华源 阿里源 腾讯源 豆瓣源 换回默认源

  • Resize,w 360,h 240
    Transformer架构详解

    什么是 Transformer? Transformer 是一种神经网络架构,它从根本上改变了人工智能的方法。Transformer 首次出现在...

  • Resize,w 360,h 240
    一文学会大模型Transformer架构

    概述 Transformer模型架构是在论文Attentions is All you need 中提出的模型,其使用 Self-Attenti...

  • Resize,w 360,h 240
    Xinference部署

    xinference介绍 xinference 是⼀个强⼤且通⽤的分布式推理框架,也可以⽤于私有化部署和运⾏⼤语⾔模型,通过 xinferenc...

  • Resize,w 360,h 240
    本地部署deepseek r1模型

    概述 本地部署deepseek r1模型。 步骤 1.下载ollama并安装 https://ollama.com/[https://ollam...

  • ChatGLM API调用演示

    概述 部署ChatGLM3-6B私有模型后,写代码验证。 启动 登录到ai_project目录下的ChatGLM3目录,启动模型: 代码

个人介绍
左手学习架构设计,右手学习项目管理,正念放中间。实践中台的本质不在于知,而在于行;其验证不在于逻辑,而在于果。