传统的大模型有个问题,就是只有短期工作台没有长期记忆,当交互次数多了之后,更早以前的聊天记录就被挤出去了,失忆了。
openclaw的开发者针对大模型记忆问题给出了他的解决方案,给它开了金手指-文件系统。
这种长在“文件系统”里的记忆是持久的,相当于知识库。
时间一长里面塞满了各种各样你的决策、思考方式、喜好等等。
龙虾会根据文件系统内容主动思考,对齐你的颗粒度,这样,它慢慢地就变成了你的“数字分身”了,可能比你自己还懂你自己。
但需要我们提醒它保存到memory.md。
它不会主动去存,去翻的,一切听我们说了算

又因为它不会去主动翻文件,如果你只是存了,那些文件也只是堆在它的文件系统里。
它的回复逻辑是根据上下文猜应该怎么回答你,也有可能先互联网搜索再回复你,并不会先查档案里的“历史”,如果可以基于历史文件来回复的话会降低它的“幻觉”。
所以为了处理这个问题,有大神开发了skill(技能包),让它说话前先查档案。
到clawhub网站(养虾人的正版网站)找到以下技能下载下来复制黏贴给龙虾:
告诉你家龙虾,帮我安装elite-longterm-memory-v1.2.3
不过大家安装要注意防范网络安全问题,可能会被人恶意植入病毒。
要认准官方补给站,不要随便下载。
有很多厂商推出了自己的技能商店,比如扣子平台。
其实,龙虾的这套玩法,只是一个缩影。它背后蕴含着深刻的道理,值得我们细品。
第一,真正的记忆,从来不是“存了就行”,而是“在需要时能被想起”。
很多人以为,只要把东西记下来,收藏起来就等于拥有了它。但龙虾的故事告诉我们:如果不去主动翻,那些文件堆在那儿也只是藏灰。无论是AI还是人,记录只是第一步,能在恰当的时机把它调用,才叫真记得住。
第二,任何成长,都得学会把短暂的东西变得持久。
大模型只有短期工作台,聊过就忘,这是它的天性。但它缺的,恰恰是每一个成长型系统都必须有的能力——把一次性的互动,沉淀为可积累的资产。
龙虾靠一个文件系统就做到了,那我们人怎么做到呢?
靠知识复利的方法。
《卡片笔记写作法》强调通过原子化笔记、双向链接、标签系统构建一个相互关联的、非线性的知识网络。
输出是系统性的知识成果(如研究报告、书籍、课程框架),或作为个人决策的思考基础。
简单来说,就是当你学到一个新知识的时候刻意关联旧知识,这样,旧知识就会被频繁调用了。
拥有资源,不等于拥有智慧。
第三,也是最要紧的一条——主动权,永远得握在你手里。
从头到尾,龙虾听你的:你让它存它才存,你让它翻它才翻。它不会自作主张,不会偷偷记你,更不会替你拿主意。
这看起来挺麻烦的,每次都要叮嘱它。
虽说是个技术设定,其实是人与工具之间最不该模糊的边界。当系统越来越懂你,甚至比你还懂你的时候,如果控制权不在你手上,那“数字分身”迟早会变成“数字主人”。
所以回过头看,龙虾的“金手指”不只是给它开了挂,更像是给我们提了个醒——
真正靠谱的数字分身,不是它有多聪明,而是它记得住、翻得开、拎得清,并且始终知道:谁说了算。