OpenClaw连接本地Ollama模型

OpenClaw + Ollama

Ollama

Install Ollama on Mac

brew install ollama

Run Qwen3 model on local, https://ollama.com/library/qwen3

ollama serve
## 或者 用 brew 让 ollama 常驻后台
## brew services start ollama
ollama run qwen3:4b

OpenClaw

使用 docker-compose 来运行 OpenClaw, 内容在 docker-compose.yml 中。

version: "3.8"

services:
  openclaw:
    image: ghcr.io/openclaw/openclaw:latest
    container_name: openclaw-agent
    ports:
      - "18789:18789" # API 服务端口
      - "18791:18791" # 前端访问端口
    volumes:
      - ./openclaw/data:/home/node/.openclaw # 配置
      - ./openclaw/logs:/tmp/openclaw/ # 日志
    restart: always

准备工作

第一次运行需要做一些配置

  1. 启动 OpenClaw
docker-compose up

启动成功后,查看 openclaw/data/openclow.json 文件:

  • 记住 token 的值
  • 修改 allowedOrigins 允许所有源访问 "*"
  • 在 gateway 下修改
    • UI端口: "port": 18798
    • Bind: "bind": "lan"
  1. 配对 Pairing

浏览器访问 http://127.0.0.1:18789/

  • Gateway Token 栏填入刚刚的 token

需要在容器内部做一些操作来进行配对

docker exec -it openclaw-agent bash
node dist/index.js devices list --token <your_token_value> --url ws://127.0.0.1:18789
# 此时显示 Pending 状态, 复制 Request 列中的值,这个就是等待配对的浏览器
node dist/index.js devices approve <request_id>
# 此时你会看到配对成功 Approved your_device_id

# Example:
# node dist/index.js devices list --token da70c6c2d5ca66f3a7dc6f4e3b76038826b10e782e55f0da --url ws://127.0.0.1:18789
# node dist/index.js devices approve  --token your_token_value da70c6c2d5ca66f3a7dc6f4e3b76038826b10e782e55f0da

或者使用OpenClaw命令:

docker exec -it openclaw-agent bash

openclaw devices list
openclaw devices approve <request_id>

此时再返回网页中进行 connect, 认证完成。

配置模型

[可选] 在 openclaw.json 修改OpenClaw使用的上下文窗口大小, 默认是 4096, 推荐使用 64K

  • contextWinidow:
  • maxToken:

继续在 docker continer 中执行命令

openclaw config
  • Local (this machine)
  • Model
  • Customer Provider
  • API Base URL: http://host.docker.internal:11434/v1
  • Past API key now: ollama-local 随意添加内容作为秘钥, 因为是本地模型
  • Endpoint compatibility: OpenAI-compatible
  • Model ID: qwen3:4b (填写你运行的具体model)

配置成功后显示 Verification successful.

Note:

也可以使用 Github Copilot 模型,设备认证之后使用下面的命令设置模型

openclaw models set github-copilot/gpt-4o

总结

简单总结一下,体验了 OpenClaw 连接 Ollama 本地运行的小模型,速度实在是太慢了,一分钟才能得到响应。如果没有合适的机器(主要是显卡显存)的话,还是建议直接连大模型API。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容