openclaw 本地memory 完整的 Embedding 配置教程

📚 OpenClaw Embedding 配置教程

前置条件

- 安装 [Ollama](https://ollama.com)(如果尚未安装)

下载 embedding 模型 并运行

ollama pull nomic-embed-text
ollama list
ollama serve

✅ 确认输出中包含:nomic-embed-text:latest


配置步骤(每台机器均需独立执行)

步骤 1:编辑 openclaw.json 配置文件

文件路径:

  • Windows
C:\Users\<用户名>\.openclaw\openclaw.json
  • macOS/Linux
~/.openclaw/openclaw.json

修改内容:

agents.defaults 中添加或更新 memorySearch 配置项:

{
  "agents": {
    "defaults": {
      "memorySearch": {
        "provider": "openai",
        "model": "nomic-embed-text",
        "remote": {
          "baseUrl": "http://localhost:11434/v1",
          "apiKey": "ollama"
        }
      }
    }
  }
}

⚠️ 注意:若已有 memorySearch 配置,请仅修改或补充字段,避免重复嵌套或创建多个配置项。


步骤 2:重启 OpenClaw Gateway

openclaw gateway restart

步骤 3:验证配置是否生效

openclaw memory status --deep

成功标志(输出应包含):

Provider: openai (requested: openai)
Model: nomic-embed-text
Embeddings: ready ✅
Vector: ready ✅

步骤 4:创建记忆存储目录

创建命令:

  • Windows
mkdir C:\Users\<用户名>\.openclaw\workspace\memory
  • macOS/Linux
mkdir -p ~/.openclaw/workspace/memory

步骤 5:初始化记忆索引

openclaw memory index

📌 此命令将扫描 memory 目录中的文件并构建向量索引。


常见问题与解决方案

问题 原因与解决方法
Embeddings: unavailable 检查 Ollama 是否正在运行:ollama list
连接失败 确认 baseUrl 为:http://localhost:11434/v1
索引为空 / 无结果 确保已创建记忆文件,并重新运行:openclaw memory index

测试语义搜索功能

1. 创建测试记忆文件

echo "# 测试记忆

- 这是测试内容
- 配置成功了" > ~/.openclaw/workspace/memory/test.md

2. 重建索引

openclaw memory index

3. 执行搜索测试

openclaw memory search "测试"

✅ 若返回包含 test.md 内容的结果,则表示配置成功!


多机器配置说明

配置项 机器 A 机器 B
Ollama 地址 localhost:11434 localhost:11434
模型名称 nomic-embed-text nomic-embed-text
配置方式 完全相同 完全相同

🔁 说明:每台机器独立运行 Ollama 和 OpenClaw,配置内容一致,无需共享服务。


📌 配置完成?还有问题?直接问我就行 🦎

本教程适用于 OpenClaw + Ollama 本地嵌入模型集成场景,确保每台设备独立运行、独立配置。


©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容