📚 OpenClaw Embedding 配置教程
前置条件
- 安装 [Ollama](https://ollama.com)(如果尚未安装)
下载 embedding 模型 并运行
ollama pull nomic-embed-text
ollama list
ollama serve
✅ 确认输出中包含:nomic-embed-text:latest
配置步骤(每台机器均需独立执行)
步骤 1:编辑 openclaw.json 配置文件
文件路径:
- Windows:
C:\Users\<用户名>\.openclaw\openclaw.json
- macOS/Linux:
~/.openclaw/openclaw.json
修改内容:
在 agents.defaults 中添加或更新 memorySearch 配置项:
{
"agents": {
"defaults": {
"memorySearch": {
"provider": "openai",
"model": "nomic-embed-text",
"remote": {
"baseUrl": "http://localhost:11434/v1",
"apiKey": "ollama"
}
}
}
}
}
⚠️ 注意:若已有 memorySearch 配置,请仅修改或补充字段,避免重复嵌套或创建多个配置项。
步骤 2:重启 OpenClaw Gateway
openclaw gateway restart
步骤 3:验证配置是否生效
openclaw memory status --deep
✅ 成功标志(输出应包含):
Provider: openai (requested: openai)
Model: nomic-embed-text
Embeddings: ready ✅
Vector: ready ✅
步骤 4:创建记忆存储目录
创建命令:
- Windows:
mkdir C:\Users\<用户名>\.openclaw\workspace\memory
- macOS/Linux:
mkdir -p ~/.openclaw/workspace/memory
步骤 5:初始化记忆索引
openclaw memory index
📌 此命令将扫描 memory 目录中的文件并构建向量索引。
常见问题与解决方案
| 问题 | 原因与解决方法 |
|---|---|
| Embeddings: unavailable | 检查 Ollama 是否正在运行:ollama list
|
| 连接失败 | 确认 baseUrl 为:http://localhost:11434/v1
|
| 索引为空 / 无结果 | 确保已创建记忆文件,并重新运行:openclaw memory index
|
测试语义搜索功能
1. 创建测试记忆文件
echo "# 测试记忆
- 这是测试内容
- 配置成功了" > ~/.openclaw/workspace/memory/test.md
2. 重建索引
openclaw memory index
3. 执行搜索测试
openclaw memory search "测试"
✅ 若返回包含 test.md 内容的结果,则表示配置成功!
多机器配置说明
| 配置项 | 机器 A | 机器 B |
|---|---|---|
| Ollama 地址 | localhost:11434 |
localhost:11434 |
| 模型名称 | nomic-embed-text |
nomic-embed-text |
| 配置方式 | 完全相同 | 完全相同 |
🔁 说明:每台机器独立运行 Ollama 和 OpenClaw,配置内容一致,无需共享服务。
📌 配置完成?还有问题?直接问我就行 🦎
本教程适用于 OpenClaw + Ollama 本地嵌入模型集成场景,确保每台设备独立运行、独立配置。