MemPalace (由 GitHub 用户 milla-jovovich 开发) 是一个设计理念非常独特且跑分极高(LongMemEval R@5 达到 96.6%)的开源 AI 记忆系统。
传统 AI 记忆系统(如 ChatGPT 默认的记忆功能)通常让大模型自动提取“摘要”并丢弃原始对话,这往往会导致重要的上下文、推导过程或情感细节在数月后丢失。MemPalace 则反其道而行之:它 100% 存储所有原始记录,通过建立高度组织化的“空间结构”和首创的“机器方言压缩”来解决检索难题。
以下是其工作机理的详细剖析:
1. 核心架构:“记忆宫殿”空间隐喻 (The Palace Structure)
MemPalace 借鉴了古希腊演说家使用的“记忆宫殿(Method of Loci)”记忆法。它没有把数据粗暴地扔进向量数据库,而是将无序的文本物理划分为一套包含六层深度的空间结构。这种结构化让检索的准确率直接飙升了 34%。
-
Wings(侧翼):记忆的最顶层分类,通常代表一个项目(如
App重构)或一个人物(如开发者Kai)。 - Halls(大厅):Wing 内部的走廊,代表记忆的类型。系统统一划分为:事实 (Facts)、事件 (Events)、发现 (Discoveries)、偏好 (Preferences) 和建议 (Advice)。
-
Rooms(房间):具体探讨的主题(如
GraphQL迁移)。 - Tunnels(隧道):极具巧思的设计。当同一个主题(Room)出现在不同的 Wing 中时,系统会自动建立一条“隧道”将它们打通。例如:Priya 的 Wing 里有“GraphQL迁移”,项目 A 的 Wing 里也有“GraphQL迁移”,AI 便能借此进行跨维度的关联思考。
- Closets(壁橱):存放高度压缩的“索引与摘要”,让 AI 能在几秒钟内快速扫描海量线索。
- Drawers(抽屉):100% 原汁原味的完整对话和文件。如果 AI 通过“壁橱”发现了关键线索,它可以拉开“抽屉”直接读取当时你们讨论的一字一句。
官方架构图示:
┌─────────────────────────────────────────────────────────────┐
│ WING: Person │
│ │
│ ┌──────────┐ ──hall── ┌──────────┐ │
│ │ Room A │ │ Room B │ │
│ └────┬─────┘ └──────────┘ │
│ │ │
│ ▼ │
│ ┌──────────┐ ┌──────────┐ │
│ │ Closet │ ───▶ │ Drawer │ │
│ └──────────┘ └──────────┘ │
└──────┼──────────────────────────────────────────────────────┘
│ tunnel
┌──────┼──────────────────────────────────────────────────────┐
│ WING: Project │
│ │
│ ┌────┴─────┐ ──hall── ┌──────────┐ │
│ │ Room A │ │ Room C │ │
│ └────┬─────┘ └──────────┘ │
│ │ │
│ ▼ │
│ ┌──────────┐ ┌──────────┐ │
│ │ Closet │ ───▶ │ Drawer │ │
│ └──...
2. 核心技术创新 1:AAAK 无损机器方言
这是该项目最惊艳的技术点。与其让大模型花昂贵的 token 读懂冗长的自然语言,MemPalace 发明了一种名为 AAAK 的压缩语言。
- 极高压缩比:它可以将原本需要约 1000 个 Token 的英文描述(比如某团队的构成、目前在做什么功能、谁负责哪块),压缩到仅需 ~120 个 Token(约 30 倍压缩比)。
- 开箱即用:这是一种基于结构化文本的“通用语法”,不依赖微调或特定的 Decoder。任何主流文本模型(Claude, GPT, 甚至本地的 Llama, Mistral)都能无缝阅读并理解这种“速记方言”。这让 AI 以几乎零成本加载极其庞大的背景知识。
3. 核心技术创新 2:带生命周期的知识图谱 (Temporal Knowledge Graph)
为了防止记忆随时间推移发生错乱,MemPalace 基于本地 SQLite 建立了一个时态知识图谱(Entity-Relationship Triples)。
-
时间窗口:图谱中的每一个事实都有
valid_from(生效时间)和可选的过期时间。 - 矛盾拦截 (Contradiction Detection):当用户输入与既有事实冲突时(例如:“Soren 完成了 auth 迁移”,但系统记录负责此事的是 Maya),MemPalace 会充当事实核查员,立刻抛出警报,防止 AI 在错误的基准上继续胡编乱造。
4. 核心技术创新 3:四层按需加载记忆栈 (Memory Stack)
系统将记忆分为 4 级以节省算力和成本(一年使用成本从传统方案的 ~10):
- L0 身份层:AI的基础人设(常驻系统提示词,~50 tokens)。
- L1 核心事实层:使用 AAAK 方言压缩的关于团队、项目和偏好的关键全景图(常驻,仅耗 ~120 tokens)。
- L2 房间记忆层:按需加载。当目前的聊天话题命中某个具体的 Room 时,动态加载相关的近期会话。
- L3 深度检索:当被明确提问时,跨所有“壁橱”执行语义搜寻。
5. 实际工作流 (Workflow)
MemPalace 是一个“一次配置,隐式调用”的系统:
-
数据挖掘 (Mine):用户通过 CLI (
mempalace mine) 导入代码库、Slack 聊天导出记录、过往的 AI 对话等。系统会自动分析并为其建造“宫殿房间”。 -
AI 无缝接管:
-
配合 Claude/Cursor (支持 MCP):只需注册一次 MCP 服务,Claude 就会自动获得 19 个 MemPalace 工具。当你问“我们上个月关于登录授权是怎么决定的?”,Claude 会自动调用
mempalace_search工具去“宫殿”里翻找答案。 -
配合本地大模型 (Llama 等):全程离线零云端调用。启动时运行一次
mempalace wake-up获取包含 AAAK 的上下文,并在需要时通过 CLI 传入具体的检索结果。
-
配合 Claude/Cursor (支持 MCP):只需注册一次 MCP 服务,Claude 就会自动获得 19 个 MemPalace 工具。当你问“我们上个月关于登录授权是怎么决定的?”,Claude 会自动调用
总结:
MemPalace 将传统的“向量数据库盲搜”升级为了“空间结构化降维 + 机器专属方言压缩 + 时序图谱纠错”的三维系统。这不仅实现了大模型上下文语境的完全本地化隐私保护,还解决了大型长文本的昂贵消耗,极其适合重度依赖 AI 辅助编程或办公的个人与团队。