一、安装Ollama
ollama_download.png
-
在ollama中选择要安装的模型
ollama_models.png -
选择deepseek_r1
ollama_deepseek_r1.png -
选择1.5b(根据电脑显卡配置选择)
ollama_ds_r1_15b.png -
打开命令行窗口,安装并启动deepseek-r1:1.5b模型
相关命令:
安装或启动:ollama run deepseek-r1:1.5b
停止:ollama stop deepseek-r1:1.5b
显示模型安装模型列表:ollama list
显示已启动的模型:ollama ps
帮助:ollama --help
退出对话 /bye
ollama_run.png
ollama_install_model_list.png
二、下载并安装可视化工具:chatbox
-
打开chatbox,新建对话,进行对话配置
chatbox_model_config_01.png
chatbox_model_config_02.png
-
提问
chatbox_chat.png
三、DeepSeek-R1 系列模型(1.5B、7B、8B、14B、32B、70B、671B)在不同参数量下对显卡配置的要求总结
1. DeepSeek-R1-1.5B
显存需求:2-4 GB(全精度模型)或 1 GB(4-bit 量化模型)311
推荐显卡:
全精度模型:NVIDIA RTX 3060(12GB)或更高11
量化模型:NVIDIA RTX 3050(8GB)或更高11
适用场景:低端设备、轻量级任务(如简单问答、基础文本生成)17
2. DeepSeek-R1-7B
显存需求:8-12 GB(全精度模型)或 4.5 GB(4-bit 量化模型)311
推荐显卡:
全精度模型:NVIDIA RTX 3060(12GB)或 RTX 3070(8GB)37
量化模型:NVIDIA RTX 3060(12GB)或更高11。
适用场景:中等复杂度任务(如文案撰写、代码生成)27
3. DeepSeek-R1-8B
显存需求:10-16 GB(全精度模型)或 5 GB(4-bit 量化模型)311
推荐显卡:
全精度模型:NVIDIA RTX 3060(12GB)或 RTX 406027
量化模型:NVIDIA RTX 3060(12GB)或更高11
适用场景:需更高精度的轻量级任务(如逻辑推理、代码生成)27
4. DeepSeek-R1-14B
显存需求:16-24 GB(全精度模型)或 9 GB(4-bit 量化模型)311
推荐显卡:
全精度模型:NVIDIA RTX 3090(24GB)或 RTX 4090(24GB)37
量化模型:NVIDIA RTX 4080(16GB)或更高11
适用场景:复杂任务(如长文本生成、数据分析)27
5. DeepSeek-R1-32B
显存需求:32-48 GB(全精度模型)或 21 GB(4-bit 量化模型)311
推荐显卡:
全精度模型:NVIDIA A100(80GB)或多张 RTX 4090(24GB)并行37
量化模型:NVIDIA RTX 4090(24GB)或更高11
适用场景:高精度专业任务(如语言建模、金融预测)27
6. DeepSeek-R1-70B
显存需求:64 GB+(全精度模型)或 46 GB(4-bit 量化模型)311
推荐显卡:
全精度模型:多张 NVIDIA A100(80GB)或 RTX 4090(24GB)并行37
量化模型:多张 RTX 4090(24GB)并行11。
适用场景:高复杂度任务(如创意写作、多模态推理)27
7. DeepSeek-R1-671B
显存需求:~1,543 GB(全精度模型)或 ~436 GB(4-bit 量化模型)11
推荐显卡:
全精度模型:多张 NVIDIA A100(80GB)或 H100 并行(如 16 张 A100)11
量化模型:多张 NVIDIA A100(80GB)并行(如 6 张 A100)11
适用场景:超大规模任务(如国家级科研、气候建模)27
总结:
轻量级任务(1.5B-8B):适合消费级显卡(如 RTX 3060、RTX 4060)
中等复杂度任务(14B-32B):需要高端显卡(如 RTX 4090、A100)
高复杂度任务(70B-671B):需多卡并行(如多张 A100 或 H100)
四、查看window系统显存
-
按下 Win + R 键,打开“运行”对话框,输入 msinfo32
cmd_msinfo32.png -
系统基础信息
system_01.png -
显卡信息
system_02.png