OpenClaw + Ollama
Ollama
Install Ollama on Mac
brew install ollama
Run Qwen3 model on local, https://ollama.com/library/qwen3
ollama serve
## 或者 用 brew 让 ollama 常驻后台
## brew services start ollama
ollama run qwen3:4b
OpenClaw
使用 docker-compose 来运行 OpenClaw, 内容在 docker-compose.yml 中。
version: "3.8"
services:
openclaw:
image: ghcr.io/openclaw/openclaw:latest
container_name: openclaw-agent
ports:
- "18789:18789" # API 服务端口
- "18791:18791" # 前端访问端口
volumes:
- ./openclaw/data:/home/node/.openclaw # 配置
- ./openclaw/logs:/tmp/openclaw/ # 日志
restart: always
准备工作
第一次运行需要做一些配置
- 启动 OpenClaw
docker-compose up
启动成功后,查看 openclaw/data/openclow.json 文件:
- 记住 token 的值
- 修改
allowedOrigins允许所有源访问"*" - 在 gateway 下修改
- UI端口:
"port": 18798 - Bind:
"bind": "lan"
- UI端口:
- 配对 Pairing
浏览器访问 http://127.0.0.1:18789/
- Gateway Token 栏填入刚刚的 token
需要在容器内部做一些操作来进行配对
docker exec -it openclaw-agent bash
node dist/index.js devices list --token <your_token_value> --url ws://127.0.0.1:18789
# 此时显示 Pending 状态, 复制 Request 列中的值,这个就是等待配对的浏览器
node dist/index.js devices approve <request_id>
# 此时你会看到配对成功 Approved your_device_id
# Example:
# node dist/index.js devices list --token da70c6c2d5ca66f3a7dc6f4e3b76038826b10e782e55f0da --url ws://127.0.0.1:18789
# node dist/index.js devices approve --token your_token_value da70c6c2d5ca66f3a7dc6f4e3b76038826b10e782e55f0da
或者使用OpenClaw命令:
docker exec -it openclaw-agent bash
openclaw devices list
openclaw devices approve <request_id>
此时再返回网页中进行 connect, 认证完成。
配置模型
[可选] 在 openclaw.json 修改OpenClaw使用的上下文窗口大小, 默认是 4096, 推荐使用 64K
- contextWinidow:
- maxToken:
继续在 docker continer 中执行命令
openclaw config
- Local (this machine)
- Model
- Customer Provider
- API Base URL: http://host.docker.internal:11434/v1
- 但是因为我们的 OpenClaw 是在容器中运行的,我们需要访问宿主机上的 11434 端口
- 所以 URL: http://host.docker.internal:11434/v1
- Past API key now: ollama-local 随意添加内容作为秘钥, 因为是本地模型
- Endpoint compatibility: OpenAI-compatible
- Model ID: qwen3:4b (填写你运行的具体model)
配置成功后显示 Verification successful.
Note:
也可以使用 Github Copilot 模型,设备认证之后使用下面的命令设置模型
openclaw models set github-copilot/gpt-4o
总结
简单总结一下,体验了 OpenClaw 连接 Ollama 本地运行的小模型,速度实在是太慢了,一分钟才能得到响应。如果没有合适的机器(主要是显卡显存)的话,还是建议直接连大模型API。