粉丝1537获赞2.1万

这是一款可以把离开的他直接蒸馏成 skill, 让他赛博永生的开源神器。大家好,我是老明,每天一个强大的网站,今天推荐的是前任 skill, 记得关注点赞收藏。我一不小心看到了这个开源项目,我发现这是一款我不敢轻易推荐却又忍不住分享的开源神器, 他能够让那个曾经离开的他直接实现赛博永生,就是把你们的回忆蒸馏成一个专属的 skill。 你 只需要提供和他的微信、 emessage、 聊天记录、照片、微博、小红书的社交动态,甚至只是一段关于他的性格描述,他就能自动复刻出一个和他一模一样的 ai。 他会用他的语气回你消息,他什么时候在撒娇,什么时候真的生气了,记得你们所有的共同回忆,连他口是心非的小习惯都能完美还原,就非常的夸张。

openclaw 的 龙虾还在游,另一个开源 agent 已经冲到了三万九千 star, 它叫 hermes agent。 这项目火,不是因为又换了个壳,而是思路确实不一样。核心区别,一句话就能概括, openclaw 是 你亲手养出来的龙虾,而 hermes 是 自己会长大的龙虾。接下来四分钟,我拆透它的核心设计。 核心区别,一句话讲透, open cloud 的 skill 需要手动写,手动调,手动维护。 hermes 内建的一套学习循环,用得越多, skill 越准,记忆越深。不是你在训练它,是它在训练自己。 hermes 不是 又一个 agent 壳子,它更像是把 harness engineering 做成了产品模型,你自己选,不绑死厂商,工具你自己配,不给你一堆黑箱。能力记忆和 skill 落在本地,可看可改可迁移。 agent 会从经验里学习,但控制权依然在你手里。官方定位, the agent that grows with you, 这是 harmis 最核心,最值钱的地方。闭环四步,执行任务,自动复盘生成 skill, 下次直接调用。完成复杂任务时,经验沉淀成结构化 markdown 文件。 下次遇到类似问题,先调出 skill, 不 从零开始。 skill 不是 死的,你改过几次,它就慢慢学到你真正想要的做法。 大部分 agent 的 痛点,切个绘画,就像没见过你。 hermes 把记忆拆成三层,绘画记忆不掉线,持久记忆,记住你是谁。 skill 记忆记住怎么做更顺手。加上 f t s 五解锁,需要什么再召回什么。 普通 agent 像临时工, hermes 像共事过的老同事。内置四十多个工具, m c p, 外接六千多个应用, 但做对的不是工具多,而是 toolset 机制,按场景挂合适的工具,不是全开写代码的 agent 不 该碰消息通道管日程的,不需要代码执行权限。工具越克制, agent 越精准, token 也更省。 核心思路, openclaw 配置及行为 harmis 学习循环加字改进 scale 来源, openclaw 靠你写 harmis 系统自动沉淀 记忆方式, open club 已维护,越齐越好用, hermes 自己积累,越用越深。 open club 优势是透明和生态大, hermes 优势是把学习系统化了,更准确的理解是另一条路线, 五分钟跑起来,异形命令安装,填 key 选模型, hermes 回车就启动。推荐 open router 起步,一个 key 接很多模型,免费模型先体验,数据全在本地打包即签,还能一键从 opencloud 迁移。 四大场景,长期知识助手背景慢慢沉淀,不用重训。七成二十四后台任务,代码审查,日报汇总,不用盯着持续内容创作,前面积累越多,出稿越稳。多平台, bot telegram 和 discord 打通就是常驻助理。 最后带走三点自生长 skill 闭环三层记忆不丢上下文。工具克制更精准,喜欢强控制选 open claw, 觉得手动写 skill 太花时间是 hermes。 hermes 真正新鲜的点不是多了几个工具,而是把学习这件事本身做进了系统。 open claw 是 你养出来的龙虾, hermes 是 自己会长大的龙虾,这是最本质的产品差异。

open class 记忆系统,让 ai 真正记住你,从每次都失忆到越用越懂你。今天让我们一起研究下,如 l l m 如何不失忆,你有没有遇到过这种场景?周一你告诉 ai, 我 的项目用的是 type script, 周三你问推荐一个好用的前端库, 结果他给你推了 react 加 java script 方案。你纠正他,他说好的记住了,下周再问又忘了。这不是你表达有问题,也不是 ai 笨,而是他真的失忆了。今天我们用六分钟带你用三份文件,让 ai 从每次都失忆进化成越用越懂你。 传统大模型有个底层限制,每次对话都是全新开始,他没有持久记忆,就像每次见面都要重新自我介绍。但人类写作不是这样的,你希望你的搭档记得你的技术偏好,记住项目关键决策, 积累踩坑经验,下次不再犯。记忆是工具进化为伙伴的关键。 open 克拉的做法很聪明,不靠模型印记,而是用三层记忆架构加三份核心文件,构建可持久、可解锁、可维护的记忆系统。第一层,身份层,每次绘画强制加载,这是 ai 的 人设加用户手册,由两份文件组成。搜 了 m d a i。 的 性格说明书,定义语气,直接给结论,不说客套话,设定边界不确定就标注不瞎编,行为准则优先,自言效率至上。 user m d a i。 在 为谁工作,不只是姓名时区,更要写你的编码编号 typescript 大 于 j s。 沟通风格简洁,术语友好,当前项目状态与优先级 团队协助中的翻译需求。第二层,长期记忆 memory d m d。 紧主绘画加载,这是 ai 的 精选知识点,不是流水账,而是关键决策加理由。为什么选 postcard c 括踩坑记录加解决方案。 node js 大 于等于二十二常用路径配置工作目录日制位置, 注意纸迹。值得永远记住的是,噪音太多反而降低回答质量。第三层工作机已自动加载最近两天 memory, 二零二六年二月二十八日点 md 这类每日日制记录原始对话, open class 会自动提炼重要信息,定期同步到 memory md, 实现越用越聪明。最后用三句话总结今天的内容。 solo 点 m d 决定 ai 怎么说话 user, 点 m d 决定 ai 说什么才有用 memory, 点 m d 决定 ai 能记住什么。配置好这三份文件,你的 ai 会从通用助手进化成懂你的老伙计。

当前 openclo 的 痛点, token 限行爆炸,新绘画忘掉昨天解决过的 bug, 装了几十个技能模型,选不对。我们实测七轮对话, token 从一点五万涨到九点五万, 消耗增长六点四倍。阿里最新论文 skill router 解释了一个问题,技能池越来越大,光看名字和描述,选技能基本靠猜,完整代码才是决定性信号,但技能选对只是第一步,对话越来越强。 token 爆炸,新绘画忘掉上次解决过的问题, 这些怎么办?来看 graph memory, 一 句话,一个 open class 上下文记忆插件,把对话自动提取成知识图谱,压缩百分之七十五的 token, 还能跨绘画。记住之前的经验,它做四件事, 第一,主动知识蒸馏,不等上下文爆炸才压缩对话过程中实时提取三元组。第二,持续图谱加双层召回,不是,通过社区剧类和 page rank 精准找到最相关的知识。 第三,个人知识资产,你的知识图谱存在本地 sq lite 里,换设备只需导出一个文件,数据属于你。第四,知识白盒,它能看到每个知识节点关系,让记忆不再是黑盒。 插件源码已经在 get 不 开源,我们结合源码一起分析它的数据流泉炼录一条消息从进来到下一次绘画被召回,经过五个阶段, 打开 index t s 文件。第一阶段,每条消息进来,直接存 s q like 数据库,零 l l m 消耗。 第二阶段,组装上下文,把图谱节点生成 xml, 注入系统提示词,同时裁剪进轮对话也是零 l l m。 第三阶段,每轮结束后一步提取三元组,每 n 轮跑一次,配置 rank 和社区检测, 这里需要 a l a m, 但不阻塞用户。第四阶段,绘画结束时, evant 提升为 skill, 然后跑全量维护去重 page rank, 社区检测加摘药。第五阶段,下次开新绘画时,双路径并行召回, p p r 排序后注入上下文,这就是它的数据流泉炼录。 下面我们来看它的核心机制,四层锁影加三层召回。先说四层锁影,就是它存知识的四种方式。第一层,向量锁影,你问一个问题, 它把问题变成向量,去搜语义最接近的知识,搜不够就补关键词,权威搜索。第二层,社区锁影,举个例子, 比如你这两天一直在搞 docker 部署,装镜像,改配置,调端口,这些知识会自动聚成一个 dok 社区,你问前两天做了什么,关键词搜不到,但社区能找到。第三层,进轮对话,最后一轮完整保留,包括工具返回结果, 前面两到五轮只留用户输入和 ai 文本回复。第四层,溯源片段,排名最高的三个知识节点,会附带当时的原始对话,让 ai 不 光知道结论,还知道当时是怎么得出这个结论的。再说三层召回,就是找知识的时候怎么找?举个例子,你问安装 m c p 出错, 第一层,精确找,直接搜到上次安装 mcp 出错时记录的那个节点,然后顺着这个节点的关系往外走,发现同一个社区里还有一个 npm 代理配置的节点, 可能也有关,一起拿出来,最后按配置 rank 排个序,最相关的排前面。第二层,模糊找,假如你的问题比较笼统,比如最近解决过什么问题,精确搜,搜不到, 这时候他会把你的问题和每个知识社区的家要做匹配,高客社区匹配度高,就把这个社区里的 top 节点拿出来, 两层同时跑,精确的结果全要模糊的结果去重后补充。第三层合并注入两条路的结果合在一起,按相关性排序 塞进系统提示词里给 ai 看。简单说就是能精确找到的精确找,找不到的模糊找,两条路同时跑,最后合在一起。实测数据,七轮对话,安装 m c p 工具加登录加查询 无插件 token 从一点五万限性增长到九点五万,用了 graph memory r 四开始 token 就 稳定在二点四万左右,不再涨了,压缩率百分之七十五。安装配置演示原码在 get 部开源 m i t 协议 插件已经上架科乐 hop, 直接在科 hop 上搜索 graph memory 就 能找到我们的插件。安装就一行命令,我的 openclaw 是 三点二四,目前最新版本,执行安装命令,等待插件安装完成, 然后执行命令检查 安装成功。步骤二,激活上下文引擎,这是容易漏掉的关键步骤,不设的话插件装了也不会工作。打开 opencloud json 文件,找到 context engine 部分, 复制视力代码,替换原来的这几行,然后填入 l l m 模型和嵌入模型的 a p i 和 u i o r, 保存后配置全部完成。如果大家想学习原码,可以去 get 部上克隆项目文件,顺手点个三二,希望本期视频对您有所帮助,我们下期视频再见!

家人们,事情开始有点不对劲了。马农发明了 ai, 现在 ai 开始斩杀马农了。今天我要分享的这个项目是一个同事蒸馏的 skill, 已经在开源网站上拿了一万多颗星了。它离谱在哪呢?你只需要把你同事的聊天记录、工作文档全部丢给 ai, 再加上你对他的主观描述,他就能够蒸馏出一个专属的 ai 替身。最离谱的是, 他不只是会写代码,他会用他的技术规范写代码,还会用他的语气来回复消息,连他什么时候开始甩锅,都能够给你精准预判。哼, 你人还没说话呢, ai 已经帮你把锅都甩完了,直接替他把活干了。我现在就好奇一件事情,有没有人已经偷偷把自己或者同事蒸馏出来了?这个东西啊,已经离谱到有点危险了,但你以为这就结束了吗?还有更离谱的, 已经有人开始做前任 skill 了,把聊天记录一位,把相处细节一写,他的语气,他的习惯,他什么时候温柔,什么时候冷淡,全部都能被还原出来。他人虽然不在了,但好像人一直在线。然后 我又看到了一个项目,叫做反蒸馏 skill, 你 蒸馏我,我反蒸馏你,那最后公司里生活的留下来的到底是人,还是一堆被复刻的灵魂呢?

你一不小心看到这个开源项目,你发现这是一款我不敢轻易推荐却又忍不住分享的开源神器,它能让那个曾经离开的他直接实现赛博永生,就是把你们的回忆蒸馏成一个专属的 a s q。 你 只需要提供和他的微信、 imessage 聊天记录、照片、微博、小红书的社交动态, 甚至只是一段关于他性格的文字描述,他就能自动复刻出一个和他一模一样的 ai。 他 会用他的语气回你消息,懂他什么时候在撒娇,什么时候是真的生气了。记得你们所有的共同回忆,连他口是心非的小习惯都能完美还原,就非常夸张。

三分钟让龙虾成为你的私人秘书,帮你提炼聊天记录里的所有重要内容。我翻了最近泄露的 cloud 代码,发现它的记忆整理能力真的越来越趋近于人的大脑。于是我干了三天,把它印象成了 open cloud 可用的 skill, 可以 让你的龙虾记忆原地升级,十个版本 教程全部免费送给大家。目前我翻阅到的有以下几个方向,今天先从最核心的记忆套件下手,这里面就包括大名鼎鼎的梦境。第一层叫提炼,你每次聊完天,它自动在后台跑一遍, 把对话里这样的东西全部提炼出来。比如你说过选方案 b, 比如你提过某 api 不 稳定,踩过坑,他全部记住,下次打开他直接读答案, 不用你重复说半个字。第二层叫整合记忆一多就开始打架,这个文件说用 a 方案,那个文件说用 b 方案,你到底听谁的存在?文件说法矛盾了,有内容重复了,过时了,他全部给你标出来,生成清单, 审批了他才改。第三层最重磅的叫梦境,有没有想过你睡着的时候大脑在干什么?在 r e m 阶段,他在整理白天的碎片记忆, 该归类的归类,该扔的扔,所以我把这个技能叫做 r e m。 每隔二十四小时以上或者新增五次对话,他就自动跑一遍,给你的记忆库减脂,越用越聪明,而不是越来越繁重,这就是梦境的核心逻辑。以上就是记忆套件的内容,三层合力,自我净化。 另外几个方向我也在持续尝试印象城 skill, 后续会继续免费分享给大家,如果你觉得有用的话,欢迎点赞、收藏、关注,我们下期再见!

一夜突讲清楚 ai 硬核技术,很多朋友在问, openclock 三点七版本大更新搞出的这个 context engine 到底是个啥?是不是官方又出了个新的记忆功能? 错,官方这次直接把桌子给掀了。大家看上面的结论, context engine 不是 一个新功能,而是官方把记忆处理这件事从底层固定代码变成了一套可替换的插件接口,为什么这么干? 看左边,以前 open class 的 记忆逻辑是写死在底层的,对话一多就直接粗暴截断, ai 动不动就是 e, 你 要是不爽想改对不起只能去改底层原码,非常折腾。所以到了三点七版本,看中间, 官方开放了七个生命周期接口,把记忆处理彻底解偶了。如果你什么都不配,它会默认给一个兜底方案,跟你以前用的一模一样。但如果你觉得官方的方案太差劲,看右边,你现在只需要在配置文件里敲一行代码,不用改任何原码, 就能直接给大模型换上过目不忘的记忆外挂,还不懂看下面这个通俗类比,这就跟 openclaw 现在指定接口规矩, 至于你是用官方的默认实现,还是用社区里最火的 lsl 无损记忆插件,完全由你自己决定。 所以总结成一句话, context engine 的 价值不是官方又给你加了一个记忆功能,而是把记忆怎么做这件事彻底开放给了生态,不满意官方方案直接拔掉换一个, 这就是顶级架构的魅力。把这张图存下来,下期一页图,我们讲讲三月十三日版本是怎么把浏览器接管给补齐的。点个关注不迷路。

openclog 四月五日更新后梦境功能讲解你是否遇到过这样的问题?和 ai 聊了很多,但它总是健忘,无法形成长期记忆和理解。就像这样,你告诉它你喜欢用 python 写代码,三十分钟后再让它帮你写脚本,它却问你用什么语言。 现在 openclog 梦境功能来了,它模仿人类睡眠时的记忆整理过程,自动将短期记忆转化为长期记忆。通过三个阶段, light 浅睡整理笔记 d 深度记忆固化 r e m 提取持久真相,让 ai 真正记住你们的对话。 核心特性包括,第一,自动整理记忆,后台运行无需干预。第二, dream diary 可识画梦境界面。第三,多语言标签,支持中文、英文、日文混合理解。系统会自动生成梦境日记标记重要概念,巩固长期记忆,让 ai 越用越浓密。 使用方法非常简单,先升级 open clock, 确保版本大于等于二零二六点四点五,在配置中启动 memory, 点 dreaming enable, 使用斜杠 dream 命令触发。也可以打开控制台,选择左侧梦境,点击开启。 你还可以调整记忆衰减控制和最大保留时间等参数。关注我们,探索 ai 更多玩法。

孩子们组报用了一个小时把红警员的克隆中心给做出来了,同时我又用我自己造的克隆中心把巴菲特、科比都克隆出来了。在我的克隆中 school 里面,只要输入你想要克隆的对象的名字以及他的相应资料,聊天记录、书本、网页啥的都可以, 都能一比一完美复刻出这个人的 ai 形态,然后还可以跟他实时交流,点赞过两万主播下期视频就把克隆从巴菲特之后,我把昨天 c 群里的研报给了 ai 形态的巴菲特看。巴菲特就用了我的浏览器在网上搜索了相关资料进行 事实确认,然后补充了他的想法,觉得美国石化行业可能有长期投资机会,让我关注下,这也确实符合他现实中的最后几笔投资啊。 接着我又克隆出了老大科比布兰特,老大保持了现实中对直升机的恐惧威胁,我再提直升机就要走我但老大还是保持了他的篮球的专业性。当我说给个凌晨四点的训练计划时,他直接给了我一份详实的训练列表, 同时还鼓励了我,总有一个人要赢,为什么不能是我呢?搞一个 ai 克隆 skill 听起来十分玄乎,但其实还鼓励了我,总有一个人要赢,为什么不能是我呢?搞一个 ai 克隆听起来并不复杂,我只要把自己的想法跟他随时交流就行。 首先我确认的是一个人之所以是他自己,无非就是他的经历、想法、说话方式。那么 ai 要做的就是拿到资料之后学会演这个人。但问题来了,怎么问?我设计了一套四层提取法生活程,这个人平时怎么生活的?喜欢干什么?工作程,他工作是啥?以后想干嘛? 感性程,他的口头禅,情绪反应,说话风格。理性程,他的思维方式、决策逻辑、价值观。那么当给 ai 框定了这个克隆出来的任何人物交流,他同时会根据他的工作技能和兴趣爱好,给你符合他特征的回答。 现,你不止可以克隆名人,拿到任何一个人的聊天记录都可以克隆出来。现如今各种点 skill 特别火,什么峰哥 skill, 同事 skill, 前任 skill 是 吧?但本质原理万变不离其宗,只要你拿到资料,通过机妙的 prompt, 你 就可以把世界上任何一个人都封装进你的手机或电脑里,让那些影响过你的人永远陪在你身边。最后问一句,如果让你克隆一个人,你会选谁呢?

欢迎收看我是大叔,只跟你聊最实在、最有用、最有意思的内容。 大家好,我是大叔大今天上午又收到 opencloud v 二零二六点四点九的更新推送,稍微看了一下更新内容,感觉这龙虾又进化了,还是很值得升级的,现在跟大家一起来解析。这个版本在记忆系统、 control ui、 安全修复等方面都有重要更新, 特别是梦境系统的 rem 回填机制,让旧日记可以重新回放进入梦境,无需重复记忆。 control ui 新增了结构化日记式图,支持时间线打导航和回填控制。 整个版本包含五个核心功能和一十八项重要修复,下面我会详细讲解每个更新点。第一个重大更新是记忆和梦境系统新增了 grand r e m 回填机制,通过 ram harness 工具配合 path 参数,可以把历史日记重新回放进入梦境系统。这意味着你之前写的日记现在可以重新触发梦境生成,无 须重新输入。 ctrl u i 新增了结构化日记,试图带时间线导航回填控制可追溯的梦境摘药,还有一个安全的适应通道,支持提升提示和安全清除功能。这个更新由 m blink 贡献。 ctrl u i 的 日记试图现在支持时间线导航,你可以轻松浏览历史日记。回填控制让你可以选择哪些日记进入梦境系统。梦, 梦境灾要现在可追溯,你可以看到每个梦境是基于哪些日记生成的。实验通道支持提升提示,还有安全清除功能,用于分阶段回填信号。这个更新让梦境系统更加透明可控。 k a 和实验室新增了 character vips 评估报告,支持模型选择合并型运行,这样实时 k a 可以 更快地比较后选行为。 这个功能对于测试不同模型的表现非常有用,可以快速对比哪个模型更适合你的使用场景。插件系统新增了 provider os, 支持 现在插件清单可以申明认证别名,这样不同 provider 变体可以共享环境变量认证配置 api 密钥配置,无需核心特定的连线。这个更新让插件认证更加灵活,特别适合需要多个 provider 的 场景。 ios 应用现在使用明确的 calver 版本管理 apps 斜杠 ios 斜杠 version 点 jesson 固定了发布版本号。 test flight 迭代在同一个短版本上,直到维护者有意提升到下一个网关版本。新增了 p n p m ios 冒号 version, 冒号 p n 命令支持从网关版本自动生成。 这个更新由 ongutman 贡献,让 ios 发布流程更加规范。这个版本有十八项重要修复,其中安全修复是重点。 浏览器安全方面,重新运行,阻止目标安全检查,防止浏览器交互绕过 s s r f 隔离点,因为安全方面,阻止运行时控制环境变量。从未信任的工作区点,因为文件加载网关。执行事件方面,标记远程节点执行事件为不可信系统事件。在入队前清理命令和输出文本,防止注入 其他重要修复,包括安卓配对修复清除过期的 seatback 的 认证,支持新的 q 二扫描 mate 闯关等待 sync 智能秀才标件启动成功。 slack 媒体认证保留跨同原重定向 npm 打包修复,确保打包的发布。它报包含所有运行时依赖, 还有多项安全依赖。更新包括 basic ftp 强制升级到五点二点一,如何升级到 v 二零二六点四点九,使用 npm 全局升级,运行 npm 的 update 命令,加上 g 参数和 openclaw。 或者使用 pmpm 运行 pmpm 的 update 命令,加上 global 参数和 openclaw。 升级完成后运行 opencloud status 命令,加上 verbos 参数验证版本号。如果有配置问题,运行 opencloud 的 doctor 命令,加上 fix 参数,自动修复配置。 总结一下 v 二零二六点四点九的核心亮点,记忆系统、 rem 回填机制、 control ui 日记、试图、 ca 评估报告、插件认证优化、 ios 版本管理以及一十八项安全修复。这个版本在安全性和可用性上都有显著提升。如果你觉得这期内容有帮助,别忘了点赞加关注,大叔大,感谢观看,我们下期再见!

如果把智能体的记忆想成人类的一天,白天不断接受碎片,夜里睡眠时,大脑会把重要的东西巩固进长期记忆。 open cloud 里的 dream 就是 这样一个实验型的后台巩固系统,它属于 memory core, 目标是把强力的短期信号稳妥地搬进更持久的记忆, 同时让流程可解释、可复查。注意它默认关闭,需要你在配置里主动打开。为什么需要它?纯靠即时对话模型,很容易记得快,忘得也快。或者把造身写进长期文件。追命的设计哲学是先分层处理,再决定什么值得进身。 先分拣再入库,最后才谈协进 memory。 它刻意保留机器状态与人类可读的输出,让你能追问昨晚系统到底想了什么,而不是面对一个黑箱。分数 产出物分两类,第一类是机器台放在 memory 目录下的点 dreams 文件夹里,包括回忆、存储、阶段、信号摄入、检查点和锁。第二类是人类可读顶层的 dreams 大 写或小写 dreams 文件,以及按阶段可选的报告 路径类似 memory 目录下 dream 子目录里按阶段分文件夹,在日期级的 markdown。 官方强调,真正深隔境长期记忆的写入仍然只会落到 memory 点 m d, 其他文件更多是轨迹序式与排障线索。 dreaming 用三条斜作流水线来理解 light deep ram light 向分拣台整理最近材料,不直接写长期 deep 向入库审核打分过预值才把条目追加到 memory ram 向联想问提炼主题与反思信号,给下一轮排名提供你最近到底在反复纠结什么的提示 文档,明确说它们是内部实现细节,不是三种让你手动切换的用户模式。完整清扫时阶段会按顺序跑起来, 你可以把它想成浅睡、深睡、快速眼动三连击。 light 阶段做什么?它会摄入最近的日间记忆信号与回忆轨迹,去重把后选行暂存起来, 读取短期回忆状态与最近的每日笔记。当存储配置允许内联输出时,会写如受管理的潜水炸药块,并记录强化信号,留给 d 排名使用。关键点写得很硬, light 绝不会直接写 memory 点 m d, 他 负责把桌面收拾干净,把噪声压下去,让后面的深度阶段面对的是像样一点的后选清单。 deep 阶段是能不能进长期的闸门? 后选会经过加权打分与预值过滤,文档里提到需要满足最低分数、最少回忆次数、最少独立查询次数等条件。 更贴心的是,写入前会从最新的每日文件里重新摘取片段,避免你已经删掉或过期的内容被错误。竞申通过后才会追加到 memory 点 md, 并在 dreams 文件里留下深水苷药, 也可额外落盘到 deep 目录下的日报。对团队来说,这意味着晋升是可回放、可审计的。 ram 阶段更偏模式识别与反思 从短期痕迹里提炼主题摘要,写入 ram 税块,并把 ram 强化信号交给 deep 排名参考。它同样不直接改 memory d m d, 但会显著影响哪些东西看起来像反复出现的重要主题。你可以把它理解成 deep, 决定这句话值不值得刻在石头上。 ram 负责提醒你最近是不是总在同一个坑里摔跤,两者配合长期记忆才不那么偏科。还有一个很有人味的设计 dream diary 梦日记,当每个阶段攒够材料, memory core 会尽力跑一轮后台子代理用默认运行时模型往日记里追加一小段。 这是给人类阅读的梦话。在网关的 dreams 标签页里展开,看,官方划了一条红线,日记不是净身依据,别把它当成自动整理, 它更像产品体验里的蓄势层,让你愿意打开界面,而不是只看冷冰冰的接受 deep 排名并不是拍脑袋。文档给出六类基础信号,频率、相关性、查询多样化、新净度、巩固度、概念丰富度各自有权重, 例如频率约零点二四,相关性零点三零。查询多样化零点一五、新净度零点一五、巩固度零点一,概念丰富度零点零六。 light 与 r e m。 的 命中,还会从阶段信号文件里带来额外的随时间衰减的享福加成。 换句话说,经常被多通道反复点名的后选会更吃香,但不是唯一标准。另一个接地气改进,先把日间笔记里相邻行合并成更连贯的小块,再送进流水线,减少单行造深。 同时丢掉泛化的日期标题前缀,保留有意义的章节标签。对真实工作区来说,这等于把随手记的一行吐槽和陈断的方法论分开。装盘 ram 和 deep, 看到的证据更干净,你也更不容易在晋升结果里看到莫名其妙的碎片。调度层面起用后, memory call 会自动挂一条 cron 做完整清扫。阶段顺序是 light、 ram、 deep 文档视力的默认频率是每天凌晨三点那一类表达式, 你也可以按自己的时区改成每六小时跑一次。请记住,这是后台整理,不是实时检测的替代品, 别指望他替你毫秒即回答刚才那句怎么说,他负责的是哪些东西值得被记住?快速起用很简单,在插件 memory core 的 配置里,把 dreaming 下的 enabled 设为真, 若要自定义频率,可同时设置时区与 frequency 子段。官方刻意把用户可见配置收敛成开关加可选频率,阶段细节留在实线里, 这对大多数用户是减负。你只要决定做不做梦,多久做一次梦,不必第一天就调完全部内部预置。在聊天测,你可以用斜杠追命系列命令查看状态,打开关闭查看,帮助 适合你在频道里快速确认今晚会不会做梦。在命令行测, openclroom memory promote 能对某个短语解释为何近身或落选 memory status dive, deep 能看到更深的状态。 rem harness 能预览 r e m 反思与后选真相而不写盘 改动预值,前后做对照实验会轻松很多。网关里的 dreams 界面会把关键运营信息摊开,是否起用各阶段状态、短期与长期技术,今日已晋升数量、下次计划运行时间,以及可展开的 dream diary 阅读器发行说明还提到界面里保留龙虾动画, 这很符合 openclaw 的 气质。专业功能可以很重,但视觉隐喻要让人愿意点开,而不是被配置吓到。收尾一句,军命不是魔法,它是在自动整理与人类可控之间走钢丝,你愿意打开它,就等于允许系统在后台替你做一轮轮睡眠周期。 你随时可以用命令和键面复查轨迹。更完整的键名边界情况与 memory search compaction 的 关系,请参阅 docs 点 open claw, 点 ai 上的 memory 章节,感谢收看。

openclaw 竟如此消耗 token? 看到这样的 token 日账单,你的第一反应大概是今天就教大家 openclaw 高阶玩法, 做好记忆向量和记忆蒸馏,让你的 token 账单节省百分之九十五。同样配套文案教程必须安排。 openclaw 对 token 的 消耗主要源于对唱下文的关联依赖,所以你的对话越长,输入 token 就 越多。节省 token 最重要的是优化记忆。我们将教程里这六个工具和一个云端 api 详细解读。 第一个, qmd, 本地知识库,精准向量剪辑,不给 ai, 未整文件,只为核心片段。 token, 可节省百分之八十五到百分之九十五,难度指数三颗星。 第二个, excel search, 纯净网页搜索,直接返回纯文本,去掉 html 垃圾网页内容抓取 token, 可节省百分之七十到百分之九十,难度指数一颗星。 第三个, memory optimiser, 夜间自动压缩对话记忆,防止 solo 点 m d 膨胀。 token 可节省百分之四十到百分之六十,难度指数四颗星。第四个, index, 一, 轻量级代码解锁,只返回相关函数块 编程 token, 可节省百分之八十,难度指数两颗星。第五个, corex, 安全熔断,防止死循环,烧光钱包,你百分百需要难度指数两颗星。 最后一个, corecompact, 官方内置自动压缩对话,防止溢出,整体节省百分之五十到百分之七十的 token, 难度指数一颗星。 除了上述本地化配置外,还可以选用云端 memos api, 这个免费的云端记忆 api 可以 实现向量加 r a g 智能解锁。我的机器人旺财也总结了它其他优势。 最后看一下教程总结你的 token 成本优化技能学会了吗?后续同一主题,有新的好方法,我会直接更新,在评论区关注我,小白也能玩转 ai。

今天我们来深度解析一款知识管理插件。 memory wiki 平台上的插件让知识库不再是一堆杂乱的 macdunk 文件,而是一个有结构、有溯源、可信赖的知识保险库。首先让我们理解 memory wiki 在 整个记忆系统中的定位。 在 openclip 的 架构里,记忆系统分为两个层次,第一层是活跃记忆插件,负责召回语义、搜索提升和梦境深沉, 这是记忆的动态层。第二层就是 memory wiki, 它负责编辑维基页面,带溯源的综合内容、仪表板,以及 wiki 特定的搜索和获取功能。简单来说,活跃记忆插件是大脑,而 memory wiki 是 图书馆管理员。 memory wiki 支持三种保险库模式, 第一种是隔离模式,拥有完全独立的知识库,不依赖 memory core, 适合想要完全掌控自己知识库的用户。第二种是桥接模式, 他读取活跃记忆插件的公开产物,包括导出的记忆产物、梦境报告日记、笔记、记忆根文件和事件日记。第三种是本地不安全模式,这是一个实验性的功能,允许访问本地私有路径, 但仅在你完全理解信任边界时才实用。桥接模式是最推荐的方式,可以充分利用两个层次的优势。我们来看看保险库的标准目录结构,主要包括 a g, e, n, t, s, m, d, wiki, m d 和 index m d 三个核心文件。 antisp 目录存放持久化的事物、人物、系统、项目和对象。 concepts 目录存放想法、抽象概念模式和策略。 synopsis 目录存放翻译后的摘药和维护性汇总。 source 目录存放导入的原始材料和桥接页面。 reports 目录存放深沉的仪表板,还有 attachments 和 views 目录分别用于附件和试图。 manage content 会保留在深沉的代码块内,而人类的手写笔记块会被保留。现在让我们深入了解 memory wiki 最强大的功能之一, 结构化声明和证据系统。传统知识库的问题在于它们只是存储文本,没有机制来追踪这些知识的可信度。而 memory wiki 的 页面可以携带结构化的 claims 原数据。 每个声明包含唯一标识符 id、 声明文本状态,比如进行中或以验证信度评分以及证据述祖。 而每个证据条目又包含来源 id、 路径、行号、权重、备注和更新时间戳。这意味着知识不再是一堆静态文字,而是一个可以追踪评分、争议和回溯到来源的动态性年存。编异管道是 memory wiki 的 核心引擎, 当执行编异步骤时,系统会读取 wiki 页面标准化摘要,并输出稳定的机器可读产物。主要输出两个关键文件, agent digest json 是 智能体招标, claims json 是 声明的逐行格式。这些招标存在的意义是让智能体和运行时代码不需要去爬取 markdown 页面,而是直接读取结构化数据 翻译输出还支持第一轮 wiki 锁影搜索、声明 id 回溯、查找、紧凑提示、补充以及报告和仪表板。深沉仪表板和健康报告功能是知识质量保证的重要工具。 当起用 rendercreate dashboards 时,翻译过程会在 reports 目录下维护一系列内质报告。 open questions md 追踪未解决的问题。 contradictions md 记录矛盾声明集群。 low confidence 点 md 列出低至信度页面和声明。 claim health 点 md, 追踪声明健康状况。 style pages 点 m d 标记过时或新鲜度未知的页面。这些报告帮助我们持续监控知识库的质量,发现潜在的矛盾和知识缺口。搜索和解锁是 memory wiki 的 核心能力,它支持两种搜索后端, shared 共享搜索和 local 本地搜索。 同时支持三个语料库, wiki 专属 memory 记忆语料库以及 all 全局搜索。关键的行为特性包括 wiki search 和 wiki get。 在 可能的情况下,优先使用翻译摘要 声明 id 可以 解析回所属页面。争议陈旧或新鲜的声明会影响排名。溯源标签可以存活到结果中。使用法则是需要广泛召回时,用 memory search corpus 等于 all。 需要 wiki 特定排名溯源或页面及信念结构时,用 wiki search 和 wikiget。 memory wiki 为智能体注册了五个核心工具, wiki status 查看当前保险库模式、健康状况和 obsidian c l i 可用性。 wiki search 搜索 wiki 页面以及配置的共享记忆语料库。 wiki get, 按 id 或路径读取 wiki 页面或回退到共享记忆语料库。 wiki apply 执行狭窄的合成或原数据变更,避免手动编辑页面。 wiki link 执行结构检查、溯源缺口检测、矛盾识别和开放问题追踪。这些工具让智能体可以系统性的管理和查询知识库提示和上下文行为是 memory wiki 与大语言模型集成的关键。 当其用 context 点 include compiled digest prompt 时,记忆提示部分会附加来自 agent digest dot json 的 紧凑翻译快照。 这个快照的设计原则是保持小体积、高信号,包含顶级页面、顶级声明、矛盾技术、问题技术以及致性度和新鲜度修饰符,这是可选功能,因为它会改变提示形状,主要适用于明确消费记忆补充的上下文引擎或传统提示组装。 推荐的做法是保持提示清亮,只在需要时附加翻译摘要。配置方面, memory wiki 提供了丰富的配置选项, what mode 控制三种模式之一, what render mode 选择 native 原声或 obsidian, obsidian 友好模式。 bridge 配置控制是否导入活跃记忆插件的公开产物。 ingest 配置控制自动翻译和并发任务数。 search 配置选择后端和语料库。 render 配置控制是否保留人类块,创建反向链接和仪表板。 c l i 方面, open claw wiki 命令提供了 status doctor in it ingest compile link search get apply 和 bridge import 等操作,覆盖了完整的知识库生命周期管理。最后让我们看看推荐的工作流程。 第一步,保持活跃记忆插件,用于召回提升和梦境深沉。第二步,起用 memory wiki。 第三步,从隔离模式开始,除非明确需要桥接模式。第四步,需要溯源时使用 wiki search 和 wiki t。 第五步,需要狭窄的合成或原数据更新时使用 wiki apply。 第六步,有意义的变更后运行 wiki linked 进行结构检查。第七步,想要成就和矛盾可见性时,起用仪表板。这个工作流程确保知识管理既有动态性又有结构化。 memory wiki 真正让知识变成了可管理的资产,而不仅仅是一堆文本。

就在几个小时前, openclaw 四点九发布了,但你可别以为这只是个普普通通的更新,不就根本不是一次孤立的行动,这真的是背靠背是日更的节奏。你看啊, openclaw 在 短短两天之内,连续甩出了三个版本, 先是四点七一个全模态的加强版,紧接着四点八一个紧急修复,然后就是我们今天要重点聊的四点九一个 可以叫做做梦进化版。说真的,这种离带速度简直就是在重新定义这个行业的标准了。四点九版本里最重磅、最核心的更新,其实是一次非常底层的架构性转变,它从根本上改变了智能体的工作方式。 官方公告里啊,用了这么一句话来介绍这个新功能,我觉得特别有意思,他说你的智能体现在会梦到你, 哇,这听起来是不是特别像科幻电影里的台词?浪漫?还是有点吓人呢?所以,这到底是什么意思呢? 好,我们来揭秘一下这个听起来很玄的做梦功能,官方名称其实叫 rem 回填,你可以这么理解,这就好像是你的智能体小助手在下班之后,开始自己默默地整理一天的工作笔记, 它会在自己闲下来的时候,自动去翻看回顾你们过去的对话呀,日记呀,然后从里面把那些关键信息,比如说你的个人喜好,重要的项目细节都给揪出来,最后呢,把这些精华内容整理好,存到它的永久记忆里去。 那具体是怎么做的呢?整个过程大概分四步,第一步,他会重放过去的记录,然后呢,就像淘金一样,从一大堆信息里筛选出那些真正有价值的,能长期记住的事实。接着第三步,他会把这些记忆的碎片给组织起来处理好。 最后也是最关键的一步,就是把最重要的那部分正式的写入他的长期记忆里。你看,这整个流程,简直就是在完美的模拟我们人类大脑在睡觉的时候巩固记忆的那个过程吧。 关键点来了,它解决了目前所有 ai 智能体最大的一个通点,那就是健忘。你想想以前的智能体,每次对话都像格式化了一样,像个新生儿,你得一遍又一遍地跟它重复背景信息,多烦人呐。 但是现在不一样了,通过这个做梦机制, opencloud 的 智能体可以随着时间推移不断地积累知识、理解上下文,它就再也不是一个健忘的工具了,而是在真正的进化变成一个持久的、越来越懂你的伙伴, 能力越大,责任越大。所以有了这么牛的功能,安全性就成了重中之重了,对吧?尤其是在那些要真正投入到生产环境的商业场景里。那我们就来看看 openclaw 是 怎么给自己的堡垒加固的。 在讲具体的安全措施之前,我们得先快速解释一个关键的安全术语,叫 s s r f, 全称是服务器端请求伪造。我知道这听起来很专业,但简单来说,它就是一种安全漏洞, 坏人可以利用这个漏洞来欺骗你的服务器,让他去访问一些他本来绝对不应该碰的内部网络资源。所以你可以想象,这玩意儿是相当危险的。 好,了解了 s s r f 之后,你再看四点九版本的这些安全更新,就能明白它们有多重要了,它基本上是从好几个层面把安全漏洞给堵死了。 你看它不仅加固了我们刚才说的 s s r f 防护,还把远程命令注入的风险给锁死了。而且它还把所有从外部来的数据源全都默认标记成不可信,先净化一遍再说。可以说这打出了一整套漂亮的组合拳,让 openclo 在 处理那些敏感的客户工作时,变得前所未有的安全和稳健。 除了安全方面的加固,四点九版本还带来了一个我觉得特别有意思的质保工具,他们管这个叫角色氛围评估, 这是干嘛的呢?它能让你把不同模型下的智能体并排放在一起进行比较,看看它们的个性和行为有什么不同,这样就能确保你最后选出来的那个智能体不光是聪明,更重要的是它说话的那个感觉,那个风格能完全符合你的品牌调性。没错,就是我们常说的那个最对的 web。 那么问题来了,四点九版本这次这么惊人的进化是怎么做到的呢?难道是凭空出现的吗?当然不是,答案其实就藏在一天前刚刚发布的四点七版本里,可以说正是四点七版本为这次进化打下了一个非常坚实的能量基础。 四点七版本其实带来了五大关键升级,它的核心就两个词儿,能力和自动化。比如说它搞了一个新的 infirm 命令,把所有的 ai 任务都统一了,操作一下子就简单多了。还有它引入了 webhook, 这下智能体就可以被外部事件自动触发了, 这就实现了真正意义上的自动化工作流,再加上它还支持了一堆新模型,所以你看,所有这些其实都是在为四点九的这个做梦进化铺平道路。 我们现在把四点七和四点九的发布公告并排放在一起,你仔细看,没错,这两个都带来了巨大更新的版本,发布时间仅仅就隔了一天,一天啊!说真的,这种开发速度在整个行业里用恐怖两个字来形容一点都不过分。 当这种惊人的迭代速度和我们前面提到的强大功能两者结合在一起的时候,就会产生一种我们称之为复利优势的效应,而这才是真正能够改变游戏规则的地方。 所以它的核心价值到底是什么?其实就一句话,你拥有了一个在你睡觉的时候还能不断学习自我净化的智能体,这种真正的力量就来自于它能够持续的积累上下文,并且每天都在进步,这是一种持久性的智, 而且这还不是一个人或者是一个小团队在战斗。光是在四点七和四点九这两个版本里,就有超过六十五位贡献者参与其中。 这个数字说明了什么?它清楚地表明, open call 的 背后是一个充满活力、高速运转的庞大社区在共同推动,这已经形成了一股不可阻挡的势头。 所以这就引出了我们最后的一个思考。你想想看,一个每天都在自我完善的智能体,在复利效应的加持下,六个月之后,他会变成什么样?或者我们换个角度问,拥有他的你又会领先别人多远呢?这个问题确实值得我们每个人好好想一想。

如果你也在用 openclaw, 一定要管理好它的 memory。 很多人会觉得记忆越多越好,但我自己用下来一个很明显的体感是, openclaw 的 记忆不是越多越好,而是越准越好。 如果你在 memory 文件里塞太多的内容,看起来好像信息很全,但实际会变得很嘈杂。一旦信息太杂,龙虾反而抓不住重点,输出的内容也容易跑偏。那 open klog 的 话,它其实是有两层记忆系统的。第一层就是现在看到的这个 memory d r m d 文件,这个有点像它的长期记忆, 比如你的身份信息,你的偏好,你纠正过它的错误,以及你做过的一些关键决策,这些内容它会记在这里,而且每次开新绘画的时候,它都会读一遍。 那第二层是它每天自动生成的这种日常记忆,这个你基本不用管,它会记录你当天聊过什么,做过什么任务,有哪些重要信息,相当于它每天都会写一份工作日记。 那这两层最关键的就是,你应该去控制 memory 这个核心文件的大小。我的建议是尽量的精炼,最好控制在一百行以内。如果你把所有东西都往里放,它最后就会变成什么都记得,但是什么都不突出。 还有一个可能很多人都不知道的点是,当上下文快满的时候, open collogue 有 时候会自己先把重要的信息沉浸记忆,再去压缩上下文。所以你平时跟他对话,其实不需要隔几分钟就说一句,记住这个, 他自己会做一部分判断,当然也需要你的判断,什么信息真的重要,必须记下什么信息,只是临时对话,其实没必要留,都需要你去管理他。 这其实也是一个养虾的日常,养一段时间后,他会越来越知道你的工作习惯、表达风格,甚至是一些偏好。你看我的麦麦瑞文件里,在交流偏好这他甚至是知道我不喜欢书面腔,喜欢口语化大白话的表达。那像是在日常的工作习惯里, 如果我让他帮我出产品的方案,他会记住我告诉过他的 p、 r d 的 结构。所以这些东西慢慢被养出来之后,他输出的内容的针对性就会提高很多。那我最后的建议是, 要定期地去管理和排查你的长期记忆。如果里边有噪音,有过时的信息,或者有些内容你根本不希望它记住,是需要你主动去调整的。因为对 openclaw 来说,记忆最重要的从来不是多,而是准。

今天这期视频,我想跟所有 opencla 用户聊一个硬核话题,当对话越来越长,你的 agent 为什么会变笨?大家看一下这张图,为什么一句简单的,你好底层逻辑要消耗一万四千九百个 token, 有 效信息占比竟然只有百分之零点零一。 为此,我花了很长时间去拆解 opencla 的 源码。其实官方默认的 log 引擎就是一个空壳代理,它的核心逻辑在 attempt 点 ts 的 管线里, 当你的对话 to k 数超过模型窗口的百分之九十二,它就会触发暴力压缩,保留最近的三轮,剩下的全部送给 l l m 做摘药。 最要命的是,摘药做完,原始消息就在 g 三 no 文件里被永久替换了,找不回来了。你的 a 键 t 不是 不想记,而是底层的机制把它变成了每隔几轮就被迫洗脑的健忘症患者。这里是原版 open 库拉处理上下文的压缩提示词,大家可以浏览一下。 这里是他 token 的 消耗,从二一到二七, token 消耗增长六点四倍,每多一轮对话就多一份原文,直到撞上压缩预值。为了解决健忘,社区里极其优秀的 martian engineering 团队做了一个叫 lossless cloud 的 插件。 他彻底抛弃了限性压缩,引入了 d a g 有 效无环图。他的核心承诺是无损原始消息,永远保留在 sq lite 里。 大家可以把它想象成一个由 ai 化的 google earth, 最底层是街景,也就是百分之一百的原始对话。往上一层 depth 零是城市地图,大概六百到一千两百 token 的 片段摘要。 在网上, depths e 是 国家地图几千 token 的 完整摘样。它的代码设计非常精巧,不同深度的节点,它会给 l l m 为完全不同的 prompt。 浅层强调细节,深层强调项目的宏观决策。不仅如此,它在数据库层面用了 on delete restrict, 此此锁住原始消息,不被删除。这里是 l s c o 的 深度分层提示词,大家可以浏览一下。 这是一个工程质量极高的标杆,但是深入使用后,你会发现它的三个致命痛点,第一,它是单对画绑定的, 你换个新窗口 agent, t 就 又是白纸一张。第二, toker 仍然在增长, d a g 越深,摘药节点越多,你的上下文窗口依然再被一点点吃掉。 第三,回溯成本极高,因为分了太多层。当你需要从地球一下钻到街景去查个历史报错时,它需要 spa 你 一个字 agent, 你 可能要干等一百二十秒才能拿到结果。它确实做到了不忘,但你需要它的时候,它翻得太慢了。 既然无损压缩这么重,那有没有别的方法?这就是我做 graph memory 的 初衷。我们不走把对话缩小的老路, 我们走的是把对话征流、 legacy 和 losless 模型。上下文里放的始终是对话文本,而 graph memory 放的是什么?是结构化的三元组。我们定义了三种节点, testk、 任务 skill、 技能 event、 报错,以及严格的五种边约束。 比如,报错 event 必须通过 solved by 这条边指向技能 skill。 这叫什么?这叫逻辑关系,这不再是模糊的文本加药。 在性能上,我做了一个极致的设计,数据写入和组装阶段零 l l m 调用全靠政策和规则,引擎零延迟, 只有在后台跑 con park 提取支持时才用 l l m。 不 仅如此,只要用户一发消息,后台提取立刻中断, api 额度永远优先给你的当前对话,这是整个系统最具杀伤力的数据。 左边红线是原版的 open club, 对 话越长 token 越棒。右边蓝线是 graph memory。 大家看到了第四轮之后, token 的 增长几乎停滞了,稳定在二点四万左右。为什么? 因为同一个报错被解决十次。在图谱里只是把节点的 validated count 加了一,它不会额外占用你一个 token。 这是目前唯一一个真正将上下文消耗与对话长度结偶的方案。大家可以看下 graph memory 的 知识提取提示词, 下面这个是对话结束时的整理提示词,现在我们把这两种路线放在一起直观对比。 第一点,跨三行复用 lossless cloud 被困在单个对话里,而 graph memory 在 你新开对话的 befor agent start 的 阶段, 就会通过双层召回,把上个项目的经验自动加载进来。第二点,解锁方式, lossless cloud 是 fts 五的限性权威搜索,我们用的是什么?向量搜索加个性化配置, rank 算法,加图便利,问 dawk 和问 python, 图谱会根据你的问题动态计算权重的传播,精准召回。第三点,也就是最核心的一点,拉斯,拉斯卡是知读的, agent 只能去翻历史。而 graph memory 提供了一个 g m 杠 rico 的 工具, agent 可以 在对话中主动往图谱里写入新知识。 讲了这么多底层,让我们看看他长什么样。知识不应该是黑河,大家看在 u i 右侧,这是一个实时的二 d 三 d 图谱,你可以直观的看到刚才那个 bug 是 怎么关联到解决代码的。你可以直接把一个节点拖拽进对话框强制加载,也可以随时增删改查。 最后做个总结, legacy 是 健忘的 agent, 看得到的丢掉,看不到的忘掉。 loslasclose 不 忘的 agent 什么都不丢,但需要你去一本厚厚的账本里慢慢翻。 graph memory 是 会学习的 agent, 它从经历中提取经验,跨场景复用,你的经验属于你。它是一个可以随时带走,可被训练的 s q i 文件。 graph memory 已经完全开源,一行代码安装配置好大模型就能用。如果你受够了 agent 的 健忘,不妨试试这种全新的思路。

今天要分享的是 openclock 记忆模块的架构设计,这个模块不是简单的向量解锁功能,而是一套围绕智能体长期运行场景设计的完整记忆系统。 它要解决的核心问题是如何让智能体形成可沉淀、可解锁、可治理、可审查的长期记忆。接下来我会从设计目标、分层架构、核心思想、 核心流程和架构价值几个方面展开。首先明确本质定位。很多人会把记忆系统理解为把文本放进项链库,但这只是技术实现的表面。 openclaw 认为,真正的记忆系统应该让智能体在长期运行中形成稳定的记忆资产。 他需要具备四个核心能力,可沉淀、跨绘画、持久化、可解锁、高效召回、可治理、人工干预和权限管理、可审查追溯来源。这是面向人机协助场景设计的完整解决方案, 而不是单纯的技术主见。从架构师角度看,这个模块在解决五个核心问题,第一是可持续沉淀,记忆,不能只存在于一次对话的上下纹理。第二是对人友好, 用户可以直接查看、修改、整理记忆内容,所以选择 markdown 文件作为试词源。第三是对模型友好,支持高效召回,避免每次都全量注入上下文。 第四是系统弹性,某个 provider 缩影或外部后端失效时,整体系统不能崩溃。第五是可治理,不能无限制让所有绘画共享全部记忆,需要权限控制。 openclo 采用了四层分层架构,最底层是记忆载体层, 长期记忆存放在 memory、 md 等 markdown 文件中,优先保证人类可读。第二层是锁影造汇层,支持内建后端 memory index manager 和外部后端 qmd memory manager, 通过统一的 memory search manager 接口实现策略模式,方便替换后端。 第三层是工具访问层,通过 memory search 和 memory get 向 agent 暴露能力,控制上下文体积。 第四层是记忆写灰层,在绘画、压缩或 reset 时触发记忆沉淀。这个模块有三个核心设计思想,第一个是文件作为真相源, markdown 文件才是真正的长期记忆数据库向量锁影、 q m d 等都只是为召回服务的加速层。这种设计最大的价值是可解释性强,用户可以直接打开文件看到记忆内容。第二个是解锁与写入解偶,写入来源多样,锁影层只负责转换结构,这样记忆来源可以不断扩展。 第三个是能力分级和弹性降级,内嵌后端支持 hybrid 解锁,外部后端失败时可以切回 building embodding, 出问题时返回结构化状态,而不是让整个系统崩溃。从完整业务流程看, openclaw 的 记忆模块形成了三个闭环,第一个是记忆沉淀闭环, 对话中的有价值信息在特定时机写入 memory 文件,从及时上下文变成长期资产。第二个是锁影构建闭环,记忆文件变化后,通过 water 定时器等机制触发锁影更新。第三个是解锁消费闭环, agent 在 回答涉及历史问题时,先调用 memory search 召回,再调用 memory get 精读,最后注入当前推理过程,这就形成了一个完整的生命周期,产生记忆 组织记忆解锁、记忆服务推理。这套架构带来了五个明显价值,可维护性记忆内容以文件存在,适合手工整理和版本管理。可扩展性,内建后端和 qmd 后端并存, 预留了多种实现空间。可解释性解锁结果带路径和航号,方便定位来源。可降级性,外部后端引 bedding, 出问题时不会拖垮整条链路。可治理性, qmd 的 scope 机制支持按绘画类型和 channel 限制进行访问, 这些特性让它适合长期运行、多人协助、需要治理的智能体平台。当然,这套设计也有工程取舍,它的复杂度明显高于只接一个向量库的方案,因为同时维护文件系统 circle lite、 fts、 向量扩展、 provider、 qmd、 session、 hook 等多个子系统。 换句话说,它牺牲了简单性,换来了可远近性和可控性。对于做实验性质的单 a 检测应用,这可能偏重,但对于要长期运行、多人协助、需要治理的智能体平台,这种复杂度是有价值的。 以上就是 openclaw 记忆模块的核心架构设计,这套系统的核心思想是文件作为真相源,锁影作为加速层,通过分层架构和解偶设计,实现了一个可沉淀、可解锁、可治理、可审查的长期记忆系统。感谢大家的聆听,欢迎提问交流!

给大家推荐一个我自己在使用的提升小龙虾记忆系统的方案,这是前段时间一位国外的技术大佬分享的方法,那我自己用下来感觉不错,所以推荐给大家。 首先我们要弄清楚他默认的记忆力为什么会差,其实就四个原因,第一,保存时机太晚。 第二,保存内容不够准,而且工具输出很容易会把上下文撑爆。第三,默认很难直接回查原始绘画。 第四,一旦开始压缩上下文,很多细节就会被忽略,那么他的记忆文件夹只有两个,一个是短期记忆,一个是长期记忆。问题就在于短期记忆一旦装满系统就会开始压缩,也就是把旧内容压缩总结, 那如果重要的信息没有来得及写进,长期记忆细节就会容易丢掉。所以我们要升级重构这套记忆机制,核心目标就是让该写进长期记忆的东西能更早更准的写进去。 好,下面进行具体的配置。第一步,我们要先把记忆文件结构给理顺,把这段提示词发给他,让他去创建几个目录。 为什么要先做这一步呢?因为默认情况下,他会把所有的记忆往一个文件夹里面堆,那这样最大的问题就是后面他在解锁的时候,重点会越来越不清楚,所以这里要做分层。 这样做的好处是后面他在回忆信息时会更容易拿到对的东西。接下来改。第二层是先保护最近对话,再处理上下文膨胀,把这段提示词发给他。 因为小龙虾的诗意很多时候不是完全没有记住过去,而是因为他最近刚说完的内容被压缩了,所以这里要做几层保护,让压缩更保守, 把最近大约两万头肯划成一个优先保护区,这样刚刚讲过的任务目标修正约束不会被总结掉。 然后再按轮次加一层保险,最后四轮对话完整保留,不做摘药。也就是说,既按 token 保护,也按轮次保护,那其他几个参数主要就是给当前的任务留足空间。接下来我们改 memory flash, 默认的 memory flash 有 两个问题,第一是出发太晚,第二是写进去的内容也不够精准,把这段提示词发给他,让他去修改。 注意,这里为什么要加一个 no flash? 因为不是每次聊天都值得写进长期记忆,如果没有这个约束,他很可能为了完成任务,就会硬写一堆没有意义的摘药,那时间一长,日制里全都是噪音,就是垃圾太多了。 ok, 到这一步,其实结构化的记忆已经比默认状态好很多了,但是我们还需要安装一个最强的引擎,就是 qmd, 你 直接把这段指令发给他, 那通过安装和配置 qm d 插件,就能实现全量缩影,让 ai 能够对原始对话历史进行关键词加语义的双重搜索,也就是向量解锁。 最后还要给他加一个规则约束的指令,把这段发给他。 那改造完这整套记忆结构,我们自己平时也要养成个好习惯啊,如果是重要的信息,你就要告诉他保存到记忆中。 在每一次长绘画结束的时候,你让他给列出来应该保存的关键信息, 然后每周回顾一次记忆文件,要删掉一些没有用的信息。 ok, 做完以上这些步骤, 小龙虾的长期使用体验就会得到巨大的提升。每段提示词我都放在了视频简介里,如果有需要的朋友,可以自行去复制发给你的小龙虾。