1. 下载Ollama
curl -fsSL https://ollama.com/install.sh | sh
2. 修改Ollama配置,默认Ollama仅开启在本地11434端口
vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/root/.cargo/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
# 新增 Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_HOST=0.0.0.0"
[Install]
WantedBy=default.target
3. 重新加载系统文件
systemctl daemon-reload
systemctl restart ollama
systemctl status ollama
4. 测试Ollama正常运行,访问 http://localhost:11434
5. ollama官网查看要使用的模型 https://ollama.com/library/deepseek-r1
6. 将模型拉取到本地
ollama pull deepseek-r1:7b
7. 查看本地拥有的模型
ollama list
8. DockerCompose部署可视化界面open-webui
services:
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
restart: always
ports:
- "3001:8080"
environment:
- WEBUI_AUTH=False
volumes:
- ./data:/app/backend/data
docker compose up -d
9. 访问localhost:3001
10. 若open-webui无法加载ollama模型
点击右上角头像->设置->管理员设置->外部连接
进行配置
11. 回到主页,即可加载所有模型
12. 如果不想手动拉取模型,也可在open-webui上拉取
点击右上角头像->设置->管理员设置->模型
进行配置