DeepSeek大模型2025年爆火,小白如何将DeepSeek大模型部署到本地电脑上?打造最强大脑获取顶级推理能力教程来了,先在你的本地电脑上安装Ollama,然后在Ollama搜索选择DeepSeek模型,即可成功在你的本地电脑上部署DeepSeek,码笔记mabiji.com整理详细教程如下,当然,也可以将DeepSeek部署到阿里云或腾讯云上,后面有教程:
安装Ollama
打开Ollama官网:https://ollama.com/ 点击“Download”,如下图:
根据你本地电脑的操作系统类型下载对应的Ollama版本,目前Ollama支持macOS、Linux和Windows主流操作系统。关于Ollama的下载和安装,码笔记就不多赘述。
如果本地电脑配置不够,也可以基于第三方云厂商来部署安装DeepSeek,纯傻瓜教程,零代码部署:
运行Ollama
打开Ollama,只需要确保你的电脑上已经运行Ollama即可。以Mac为例,在顶部菜单栏中看到这个小羊驼的图标即可,如下图:
Ollama官网搜索deepseek
打开Ollama官网:https://ollama.com/ 搜索“deepseek”,如下图:
选择deepseek-r1不同模型大小
点击deepseek-r1,你会发现有多个不同大小的模型版本,如1.5b、7b、8b、14b、32b、70b或671b,模型大小不同,可适配的电脑显存、显卡及内存配置也不同,大家可以参考下表,根据配置选择不同大小的模型,参考:deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?
如何运行模型?
如何运行deepseek?运行模型很简单,确定好想要的模型后,复制对应的命令到你的终端并执行。
DeepSeek-R1-Distill-Qwen-1.5B:
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B:
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B:
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B:
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B:
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B:
ollama run deepseek-r1:70b
码笔记以1.5B为例,复制 ollama run deepseek-r1:1.5b
在终端粘贴并执行,然后等待进度条pulling manifest下载100%,如下图:
然后就可以开始折腾了,例如在终端输入“阿里云会让我财富自由吗?”
如果想退出模型,在终端输入/bye
即可。
本文关于DeepSeek的教程,是基于Ollama这个大模型运行框架,更多关于Ollama的命令操作,请参考上网搜索Ollama终端指令,本文不多赘述。
关于DeepSeek大模型费用价格,请参考这篇文章:DeepSeek模型价格:R1+V3最新收费标准,低至0.1元百万tokens