大模型本地部署3种方式

大家好,我是袁庭新。

为什么要将大模型部署到本地呢?如果特别注重数据安全与资源可控性,可以将DeepSeek部署在本地,实现数据闭环管理,有效避免敏感信息外泄,这样的要求在金融、医疗等高合规性要求行业中普遍存在。

此外,对个人来说,如果希望基于模型进行深度研究,也要进行本地化部署。今天,给大家介绍3种大模型本地化部署方式。

Ollama + Cherry Studio本地部署大模型

打开Cherry Studio官网(https://cherry-ai.com),在Cherry Studio的主页点击右上角的「下载」选项,将会打开如下图所示的下载界面。

根据自己的操作系统版本,选择下载对应的Cherry Studio安装包;安装包下载完成后,双击安装包文件,完成Cherry Studio软件安装。

然后到启动台(或桌面)中寻找Cherry Studio图标并点击,能打开Cherry Studio主界面则安装成功。

下载Ollama。访问Ollama官网(https://ollama.com),进入网站后,如下图所示。

例如,要下载DeepSeek-R1-Distill-Qwen-1.5B模型,可以运行以下命令。

ollama run deepseek-r1:1.5b

运行上述命令后,Ollama会自动下载并运行该模型,模型安装完成后如下图所示。

使用LM Studio本地部署大模型

访问LM Studio下载页面(https://lmstudio.ai/download),根据你的操作系统版本下载一个安装程序。

打开LM Studio,点击发现按钮(放大镜按钮)然后在右侧界面里搜索DeepSeek-R1-Distill-Qwen-1.5B对应的模型,如下图所示。

这里,我们以DeepSeek-R1-Distill-Qwen-1.5B模型为例,演示如何进行下载,如下图所示。

模型下载完成后,LM Studio的右下角会弹出「Download Completed」窗口,表示指定模型下载完成。

使用Ollama + Chatbox AI本地部署大模型

打开Chatbox AI网站,网址为https://chatboxai.app/zh。进入网站后,单击“免费下载”按钮,如下图所示,将Chatbox AI安装包下载到本地。

在软件弹出的窗口中单击“使用自己的API Key或本地模型”按钮,在“选择并配置AI模型提供方”页面选择【Ollama API】选项,如下图所示。

在打开的模型提供方设置窗口中,点击右侧的“获取”按钮,在弹出的“编辑模型”窗口中,点击deepseek-r1:1.5b模型后的“+”按钮添加模型,如下图所示。

对于一些对数据安全性、隐私性或定制化要求较高的用户,本地部署是一种理想的选择。DeepSeek支持多种本地部署方式,以上的内容就是给大家详细介绍的如何在本地部署DeepSeek的方法。

新课上线

我的新课《Redis 7高性能缓存与分布式架构实战》上线啦~这套课程总计涵盖了8大知识板块,共404个课时的内容。

先给大家做个课程概要,本套课程共包含8大板块:Redis 基础入门与实践、Redis应用与缓存开发实战、Redis 高可用与分布式集群、Lua编程实战开发、多级缓存架构设计、精通Redis性能优化、Redis原理深度解析、Redis大厂高频面试问题。

课程《Redis 7高性能缓存与分布式架构实战》现已发布,通过访问下方地址开展学习(微信H5):

https://h5.htknow.com/#/pages/courseInfo/bigSeriesDetail/bigSeriesDetail?id=7662335

希望这套课对你有帮助,旨在帮助学员全面掌握Redis 7的高性能缓存及分布式架构实战技巧。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容