你有没有跟 ai 聊天越聊越崩溃的时候?昨天啊,刚跟他聊过的一些事,重启对话框,他立马装失忆,反复问你是谁,半点之前的对话痕迹都没留下。明明刚教导完的设置,踩过的坑退出再打开,一切归零。 在深度玩过龙虾之后啊,分享给大家一套 ai 记忆系统,让你的助手从此告别失忆。 很多人搞不懂,为什么 ai 这么聪明却记不住事?普通的 ai 大 模型,没有本地持久化记忆的底层功能,他只会临时保留当前绘画的内容, 就像在沙滩上写字绘画一结束,程序一重启,相当于海浪打过来,所有的对话配置信息全被重墨,不留痕迹。这不是 ai 故意忘事,是底层机制限制。 想要他记住啊,咱们就得给他搭一个外置本地记忆库,把信息刻在石头上,也就是咱们的本地文件,彻底绕开原生记忆缺陷。 其实最基础的一步啊,就是需要先有个 memory 文件夹,这个就是个人文档,固定不变的重要信息全放在这里。昵称、核心配置、晋级要求,重启多少次啊,都不会丢。 就好比流水账,当天的操作,踩坑、临时事项随手记,后续想查哪天的内容,直接找对应日期,本档一目了然。 这里啊,要注意,像 overclock 呢,是可以直接要求他把信息录入这两个文件的,相当于啊,给他安装记忆库,给大家演示一下就清楚了。 好,这里我给他一个指令,让他记住这句话。 接下来他会找到 memory 文件夹,打开记忆文档,将这段指令记录在里面。 ok, 他 提示完成了。 就这么简单,靠本地文件存储,不靠 ai 临时记忆,重启之后啊,照样记得清清楚楚,再也不用重复交代了。 现在我们有了记忆库,但是你的龙虾很懒,除非啊,你去它,它才会去给你搜索记忆。这里啊,再给大家神奇 skills 这个技能书,可以让你的龙虾拥有一个主动翻找记忆库的能力。 当你问一个问题的时候啊,它会自动联想,就像有一个大脑在背后做记忆解锁,而不是啊,临时去翻文件夹,大大缩短搜索链路。 那么随着我们使用龙虾的时间越来越长,我们存储的记忆文件呢,也会越来越多,或者说,你是需要查大量资料的从业者,大量参考文件的学生, 那就要用到 abc 点这个本地知识整理工具,专门啊,把零散碎片变成体系化知识,把海量的文本资料变成龙虾专属知识库, 给大家看一下它的核心能力。笔记之间啊,互相引用,问题和解决方案直接绑定,再也不用零散找内容了。 还有啊,关系图谱功能,所有笔记的关系格式化呈现,上一张知识地图,一眼看清所有内容的关联,彻底告别碎片信息。 这样就能实现让 openclaw 负责实时记录, obsidian 负责整理规范,各司其职。其实啊,整个龙虾的记忆逻辑就是分成三层,打个比方, memory 文件是档案柜, delete 技能就是一个会主动翻资料的脑子。 obsidian 呢,就是给龙虾造一个图书馆。 这套三层式的记忆宫殿,本质就是给 ai 配了一个可以书写下去的记事本,并且每一页都有清晰的标签和目录,重要信息写进本地文件就忘不掉,并且能够快速提取出来。 它能让 ai 记住你的所有偏好,不再重复犯错,每一次沟通都能不断积累经验,学习进步,成为你的得力小帮手。好,本期视频就到这里,我是爱分享 ai 的 阿月,我们下期再见!
粉丝6921获赞2.9万

给大家介绍一下,就是可以节省 token 的 一种方法,就是使用 qmd。 当然安装使用也非常简单,我们可以直接安装 select, select 是 支持是一个轻量级的数据库,然后它支持有项链搜索的一个插件。第二个就是 qmd, 我 们直接安装,配置也非常简单,直接加一个 memorize memory 的 一个配置,加上 backend, 使用 qmd 驱动,然后更新的频率是五分钟更新一次。 当然我们也对照着官方文档 agent memory, 然后 q m d backend, 它这个地方讲了怎么去安装,直接安装它,然后官方推荐的一个配置 完之后,直接重启 opencloud 切换,我们就可以看到 我们这个 a 镜子的下面会有一个 kmd 的 文件夹,这个文件夹里面会有这个,这个配置主要是写它,呃,搜索的哪些内容,就是我们的搜索我们 memory, 然后每天的 memory, 然后同时它这个 select 会在这个地方创建一个 select 数据库,我们也可以看项链数据库,然后他把我们的那个 所有的记忆文件,就是引白领之后存入这个向量数据库,后面查询的时候就可以以片段的形式查出来,因为因为以前他是一个 md 的 文件,他在那个 md 文件里面搜到之后,直接把那 md 文件就整体的就给大模型了,你搜到一个片段,他就会指 这是给这个上下文,它一个是一个是,它搜出来的是片段的话节省了多肯。再一个就是它剪辑的速度肯定更快,因为一个是在很多文件里面去剪辑,一个是在数据库里面剪辑,这个速度是有所提升的。通过讲 qmd 呢,我就想 讲一下为什么 open cloud 那 么的费 talkin, 然后去引呃,看一下它的这个核心的原理,地方有个 walk follow, walk follow 就是 代表了 open cloud 整个工作的一个流程,它首先要读取 soar 安全边界规则, soar 是 核心人格价值观的定义, i 定义法就是这个 open 这个信息的身份,身份信息 u 的 话就是我们本身我们自己的一些信息。 thor 就是 本地的配置环境的笔记,它这个这个配置的版本是长期长期的一个记忆,它每次启动的过程中都会把这些文件都 都读取一遍,然后带着用底层的一个代理,把 open cloud 和 大模型进行交互的时候,所有的调用的请求打出来的一个日制,大家可以看一下,这个日制非常的大,然后我们可以把这个日制调用的日制虚拟化的,看一下它为什么这么费 talk, 它在向这个大模型进行调用的时候,它有几个比较重要的子段。第一个就是 system, system 就是 它的刚刚那个工作流的核心的提示词都在这个里面, 大家可以看一下。就是首先那个就是那个 agent 确定一些边点工作流,他会辨别我给他定义的, 然后这个是长期记忆,有的时候我们这个地方会有个 catch control, 这个临时的 就是说我们所发的这个系统提示词在没有变化的时候,其实这个会命中大模型的一个缓存,然后这一部分的长,他如果长期不变的话, 这个系统系统提示词就不会费托管。但是如果你是因为这个默认还有这些数据一直在变,如果你是每次读文件的话就一直变,但是引入了 qmd 的 话,它可能就有缓存,它好久不变,而且它有一个截断, 他只会在搜得到自己需要用到的新的记忆的时候,他才会塞到这个新的提示词里面,然后让这个缓存一直可以命中来节省这个 token。 也就是说 kmd 为什么可以节省 token? user 就是 我们用户,然后 assistant 就是 opencloud 跟我们之间的一个对话,对话的历史一直都带着,然后这个 tools 就是 告诉了大模型哪些工具可以调用, 其实这个体式词就是 opencloud 的 一个核心思想,其他的,呃, skills agents 啊,其实都是在这些基础上面延伸出来的。

要让 openclaw 成为我们长期的合作伙伴,他一定要具备一个稳定且持久的记忆系统。那这两天我发现我在跟 openclaw 聊的上下文比较长的时候,他会遗忘我们之前提到的一些内容,比如说一些经验教训或者方法论, 那我就去找了有没有这样能够让我们的记忆搜寻更加的准确,不会遗忘的。开源项目也被我找到了,它叫 memory linuxdb pro, 那 它用到了一个向量数据库,叫 linuxdb, 你 可以理解它就是我们跟 ai 聊天历史的一个仓库,那未来当我们提到类似的内容的时候,它会从这个仓库当中帮我们精准的提取出来。 那如果不用它, openclaw 默认的记忆机制是什么呢?它会把我们的聊天历史放在一个文本文件当中, 当我们提到与之类似的内容的时候,它会通过文本匹配从这些文件当中来提取,那文本匹配相比向量匹配,它的准确率就会低很多。而这里面的 lsd 就是 一个向量数据库,它是通过向量匹配的方式来提取的, 那提取的准确度和稳定性就会高很多。所以推荐大家去安装这个开源项目, 它是真正可以让你的 openclaw 具备一个持久且稳定的记忆系统的,那安装起来也很方便。你可以把这个地址扔给 openclaw, 让它帮你安装好那需要的一些 apikey, 它也会告诉你,你对照着安装就可以了。

你们等了这么久的 open cloud 净化指南终于来了,今天我带你从残血到满血,一条视频全搞定!先说一个残酷的事实,你装好 open cloud 之后,它其实是个残血状态,默认只有二十五个工具,记忆系统是瞎的。每天烧五十到一百美金 a p i 费用, 就像你买了一辆跑车,但是只开了一档。今天我教你怎么把它开到满血。第一步,安装你需要三样东西, 一个代码执行器,比如 tray 或 cursor, 一个大模型 api key。 推荐 minimax, 最省钱,一个飞书机器人,让 openclaw 能跟你对话。具体怎么操作?打开 tray, 新建文件夹,然后把我给你准备好的安装提示词直接粘贴发送, tray 会自动帮你完成百分之九十九的工作。 安装提示词我放在评论区置顶了。装好之后,第一件事,解锁满血工具默认的 coding profile 只有二十五个工具,发一句话给 openclaw, 帮我把工具权限从 coding 改成 full profile, 它会自动执行两条命令,三十秒搞定。解锁之后,你的龙虾从残血直接满血,所有工具全部可用。第二件事,也是最关键的记忆系统进化。 默认的记忆系统有一个致命问题,它的长期记忆是瞎的,它能记住你说过什么,但搜不到。就像你有一个图书馆,但没有锁影系统,怎么修?安装向量模型, 发一段 prompt 给 openclaw, 让它自动配置本地嵌入模型,推荐用 embedded gemma, 三百 m, 又小又快,免费运行。 配置好之后,它的记忆就从残雪进化成了完全体,支持语义搜索,支持关键词加向量混合剪索跨绘画,记忆不丢失,但是光有向量模型还不够,你还需要建立记忆的三层防御体系。第一层,预压缩刷新, 把 reserve tokens 设成四万,让 openclaw 在 压缩上下文之前,自动把重要信息存到文件里。第二层,手动记忆记录, 养成一个习惯,重要决策就说一句,存到 memory 点 md。 第三层,文件架构, memory 点 md 不 超过一百行,只放缩影指真 详细内容放在 vault 目录下,让向量搜索去找。这三层防御建立之后,你的 open claw 就 真正变成了一个有长期记忆的 ai 助手。第三件事,省钱,默认配置,每天烧五十到一百美金,因为每条消息都把所有文件注入上下文。怎么优化? 第一, memory 点 md 精简到一百行以内。第二,开启 prompt caching, 重复 token, 节省百分之九十费用。第三,不要频繁 compact, 因为每次压缩会让缓存失效。第四,选择合适的模型, 日常对话用 mini max, 省钱,关键任务用 cloud。 四点六,保质量。优化之后, api 费用从每天一百美金降到十美金以内。最后一件事,安全。很多人忽略这个但非常重要, 第一,网关只绑定 local host, 绝不暴露到公网。第二,开启 token 认证。第三,安装看门口脚本,每两分钟检查一次网关状态,自动重启。第四,在 agent 点 md 里加入安全规则,不执行网页里的命令,不泄露配置文件,删除文件。用 trash, 不 用 r m, 满血之后能干嘛? 给你看一个真实案例,我用 openclaw 安装了一个叫 nano banana ppt skills 的 技能,包装好之后,我只需要对它说一句话,比如帮我生成六张关于 ai 编程的配图,风格要暗色加霓虹,它就会自动调用 gemini 帮我生成配图, 然后再装一个 humanizer zg 文案润色技能,把 ai 写的口播稿变成人话,最后用昆文 tts 克隆我的声音,自动配音, 整个流程从脚本到成片,一个人就能搞定。这就是我为什么说 open class ai 时代的超级武器。好了,今天六步走完,你的龙虾已经满血了。安装工具解锁记忆进化省钱优化安全加固,再到视频工厂实战, 所有的安装提示词和配置代码我都放在评论区了。关注 ai 厂长,后面还有更多 opencloud 的 高阶玩法,我们下期见! ok, 这期视频呢,同样也是全部通过 ai 制作的,可以给大家先看一下效果, 然后完整的文件内容。这是我们的视频生产的流水线,如果大家感兴趣的话,可以在评论区留言,下期我也会把这一套流水线开源出来,谢谢大家!

哈喽大家好,这里是你的 ai 龙虾料理人,欢迎来到我的频道。最近 openclaw 在 ai 圈可谓是杀疯了,但很多人装完之后只会让他聊聊天或者总结个文件。这就像你花大价钱买了个能自动做饭的机器人,你却只拿来当晚架血亏。 今天咱们不讲那些虚头巴脑的大道理,也不给你列一堆根本装不过来的技能清单,咱们就把一个技巧讲透,让你的龙虾直接从人工智障进化成行政助理。这个技巧叫做让 openclaw 拥有肌肉记忆。 很多小伙伴反馈说龙虾不听话,让他干活总是丢三落四,或者每次都要反复强调相同的规则。其实这不是他傻,而是你没有给他装脑子。截至二零二六年三月, clawhub 上的 skill 已经超过一点三万个,但有这么一个神技叫 self improving agent, 怎么玩呢?两步搞定。第一步,打开你的终端或者 s s h, 连接到你的服务器,直接复制这行命令安装技能。 装完之后,神奇的事情发生了。当你纠正它的时候,比如你告诉它,我所有的周报都要保存成 markdown 格式,不要 txt。 它会自动把这条规则记在它的记忆文件夹里,甚至给你分门别类。下次你再让它写周报,它就会直接调用这个记忆,不再犯同样的错误。 这就像你带了个新来的实习生,教一遍它就会了。不用你天天在屁股后面唠叨,更觉得是它的自我反思功能。 当你让他执行完一个复杂的任务后,他会自己暂停一下,像个强迫症患者一样问自己,我刚才那几步跑的顺不顺?有没有更省 token 的 方法?如果发现了问题,他会自己写进错误日制,下次自动优化。 所以你看,真正好用的龙虾,不是靠你堆砌一堆花里胡哨的技能,而是靠这样一个能自我净化的核心机制。当你的 ai 能记住你的偏好,反思自己的错误, 他才真正开始像一个为你量身定制的数字员工,而不是一个冷冰冰的 a p i 调用器。赶紧去试试这个 self improving 技能,下期视频,我教你怎么把这些肌肉记忆同步到你的云端,换个服务器,照样认得你。这里是你的 ai 龙虾料理人,咱们下期见!

opencloud 的 使用啊,有三大问题,第一,太废 talking。 第二,没有持续的记忆。第三,执行任务啊,没有反馈。不知道大家最近在使用 opencloud 的 时候,有没有被这些问题所烦恼,我经过一个月 opencloud 的 深度使用之后呢,我发现 opencloud 呢,它就具备了刚才我说的三个痛点,废 talking、 没有持久记忆, 以及执行任务没有反馈。那么在这三个痛点里面,最影响我使用的是第二个问题,也就是没有持久记忆这件事。我昨天刚给他配置了一些规则,刚训练好龙虾,今天再和他聊, 他就仿佛失忆了一样。那么这个到底是怎么回事呢?又应该怎么样解决呢?接下来一个视频告诉你,而且这种解决方案不需要复杂的配置,小白也能学的会好。先给大家来看效果啊,这个是我昨天晚上十一点二十一分,大家看到时间了吧,和他聊的啊,我问他二加三等于几,然后他给我的答案是五, 好,那接下来呢? ok, 今天啊,到第二天,今天的下午,现在是四点钟,隔了一天啊,那为什么不是一早来公司呢? 因为早上有点事,所以下午来才录了这样的一个视频啊。好,那不管怎么样,他已经隔了一天了,我电脑呢,也是特意没有关机。好,那接下来咱们来看一下,咱们刚才去修,咱们来看一下咱们之前去修改的关于持久化的记忆是否生效。那这时候我只需要去测试一下,问他再加五等于几,如果他是有上面的这些记忆的,那么他会告诉我五, 那如果它上面是已经没有了几,那么它会告诉我它不知道,对吧?那所以接下来咱们再来测一下, ok, 那 我在这就去输啊,前天是等于五,我让它再加五等于几?好, ok, 输完之后呢,咱们去点击 send 来看它最终的回复啊,好,大家看到没 啊?他说你指的是刚才结果的五再加上五啊,那就是五加五等于十,说明啥?咱们现在是四点钟,然后上一次聊天是十一点钟,说明他是记住了我之前的规划的,也就是说咱们之前的配置他已经生效了,那么到这, ok, 咱们的持久化记忆就给他设置好了 啊。那有人这时候就可能会担心了啊,说磊哥那持久化记忆他抑制不清,那他会不会特别多啊,越加越多,然后导致我浪费太多的 talking 啊?这个大家是不用担心的,因为龙虾是有自动压缩上下文的功能的,我给他设置了一个当前最大的上下文 talking 值 啊,如果他达到了这个最大的上下文的这个值,他会自动进行压缩,将那些不重要的前期去发的消息啊淘汰掉, 留下那些重要的信息。所以咱们不用去担心关于 talking 消耗的问题。相比于功能来说, talking 是 非常微不足道的,我们一定是在满足 原有的功能的基础上去节省 talking。 如果你连我之前训练的所有信息都不记得了,那即使你再节省 talking, 即使你不消耗 talking, 那 有什么用呢?当然,大家如果设置无效,或者是不知道怎么样设置,大家可以找我。好,首先给大家去讲原因,之后再给大家去讲解决方案啊,为什么第二天你的龙虾就记不得前一天的事了? 是啥?这是和龙虾的绘画管理机制有关的,因为在龙虾的机制里面,大家可以看到它的生命周期啊, 它每天的四点钟会进行绘画的重置,绘画重置之后呢,它会把前一天的绘画进行保存, 开启一个新的绘画,那么开启了这个新的绘画,他就是一个全新的一个绘画了。你之前聊天的那些信息啊,当然除了长期记忆的信息,之前按天去记录的那些绘画信息,他默认是不读的,所以在这种场景底下,你会发现我的龙虾在第二天之后他就不认识我了, 原因就在这,就是因为他每天的凌晨四点默认,他就会进行重置了。那么这个代码是在哪写的呢?给大家来看一下啊,他的代码呢,是在 这儿去写的啊。当然如果你的 open class 里面没有配置,那默认情况下它也是这个配置啊,比如说它进行绘画重置呢,有两个条件,第一个条件呢啊,就是当每天的这个是每天的四点进行重置啊,当每天到了四点钟的时候,或者说我这个绘画空闲了两个小时之后, 那么我就会进行重置的,这是他默认的一个策略,因为有这个默认的策略,所以导致了咱们的绘画在放了一段时间之后,或者说你到了第二天之后,你会发现龙虾失忆了,原因就在这。好,那么怎么样去解决啊? 啊?其实也比较简单,就啥呢?咱们只需要将绘画管理的策略给他修改了就行了,这时候呢,咱们要做的是这样啊,就是咱们把每天重置绘画的时间给他设置长一点,他默认现在是两个小时。那我可以干嘛 给他设置十年或者是设置三十天或者是一年啊?我设置十年其实也就相当于啥呀,永久的绘画不过期了,永久的绘画不重置了啊,好,那么设置怎么设置啊啊?首先 咱们先找到你的 opencloud 的 安装目录,那么 windows 的 安装目录呢?是在你当前电脑登录的用户底下有一个点 opencloud 的 文件夹,然后在这个文件夹底下呢,有一个 opencloud 点接收文件,然后打开这个接收文件。 ok, 将这一行代码啊,大家可以看到这一行代码复制到 opencloud 的 任何一个位置 就可以了啊。然后部署配置完成之后,记得一定要去重启你的服务。然后重启完你的服务之后呢,你到明天的时候再和你的 open cloud 去聊天儿,他依然是记得你之前聊天儿的所有信息的。我是磊哥,每天分享一个干货内容。

大家一定要记住,为什么会有龙虾?龙虾为什么会这么火?是因为以前的大模型有几个缺陷,包括刚刚企业私有化, ai 没有做好的一个核心点,就首先他是没有记忆的,记你就全记吧,记不下来。大家知道大模型有个叫上下门窗口,上门窗口几百 k 也就存几十万字, 那很多数据都往里 c, 而且它 c 多了还有什么问题?你知道上门太长还你知道什么问题吗?记模糊了就是他找不到重点了, 这就是为什么上就他记了很多东西以后,你就发现他在写东西有时候会变笨,他变笨的核心原因是他以前的东西记太多以后,你再想他的原理什么是根据这么多词的概率推荐下一个词, 当那边词太多以后,他不就模糊了吗?所以他抓不住重点了。所以在在这个很多这个大模型产品里,对记忆都是一个非常头头的东西, 再一个就他也没有办法主动去记,对吧?有的新东西来了,不断出现的事,他也没有办法变成一个重点的归类。所以呢,今天龙虾 tcclor 就 有了文件记忆,文件记忆又分好几层啊,再一个就是定时器,再一个就是用工具,再用机制等等这些。所以你们一定要把这几这两个东西记住,一个叫 cron, 一个叫工具, 这两件事情还有他的记忆。就有的时候我跟三万交流的时候,我会说我们曾经发生过什么什么事,前天我让你做个什么文档,你先想一下,你以为我是真的让他想吗?我让他想一下,是把我关注的文档给他调到他的上文里,他 想完之后他会把那文档吐给你们,他吐给你,过程就装到他大脑里。这个事我在这有次文档跟他讲,所以这里面有个很重要的那个,就是你真的要跟他记忆搞好,要一个长问题,至少分两步,你看刚才我是怎么把一个国产模型用的这么好的, 我都是在跟他分两步,我第一步是说我要一个什么什么你经典啊什么,然后我跟他说,我说怎么样,你这个工作步骤都给我讲一遍,看见没有?这是第一步,就我不会让他直接干活,让他直接干活他就要去把这个任务分的很长,他很多地方就太碎了嘛。所以我第一步让他总结这个工作步骤, 这就第一步,等他总结步骤完了,再再让他去做这第二步,然后再让他发一个测试,这样是第三步, 也就说你今天要真的去理解他的时候你才知道,哦,原来我去训他的时候,我是要一点一点的层层递进的去聊 这个基因怎么去利用它,你去问龙虾,你跟他探讨你就知道了。大家去要 c m c 点 b o t 啊,去下载一键就知道了,就可以跟着我的教程一点点往前走,非常简单的原理,但是得花点时间真正实践养龙虾就用 ez curl。

hello, 大家好啊,最新的 oppo 可乐三二零二六三零二版本,我告诉大家如何把这个 phone 开开起来啊,就是在 oppo 可乐的这里面把这个 phone 开了,但是还是有人反映啊,就是说开起来聊天他还是不记得,那么我在这里建议啊, 在这里开启一个 new size 啊, new size 开几个新绘画,让他忘记自己过去的身份。 还有一个问题啊,就是说有些小伙伴反应自己的 oppo 可乐好像有点笨笨的。那么有人反应啊,还是在这个配置文件里面 把这个 sessions 啊,位置 b 立体打开,这可能就说把你的所有绘画打开可能会消耗一点脱开啊,但是我没有,我,我不,我自己也不怎么开这个,然后 在这里所有的石绘画,这里,所有的绘画,这里啊,看一下你的所有的绘画,有些不用的可以把它删掉, 这样的话你应该是可以去操作本地的一些文件了。

哈喽,大家好,我是包子。最近很多朋友都在吐槽说 openclaw 还没干什么活呢, talking 就 烧了一大堆。其实这个问题很大一部分原因出在 openclaw 原生的记忆模式,今天我就说下怎么解决这个问题,那就是 qmd 记忆系统。原版的 openclaw 的 记忆方式很粗暴,它把所有的记忆内容都塞进 memory 记忆文件夹里, 每次对话都要把整个版本文件注入上下文。一开始的时候没问题,但是一旦积累多了,问题就出来了。一个花费十托克的问题,要托上四五千托克的记忆,你的钱就是这样被烧掉的。 而 qmd 是 怎么解决的呢?它是先给你的记忆库建立了缩影,支持关键词搜索和语义搜索。 你问一个问题,他不会把整本笔记都翻一遍,而是精准定位到相关的几个片段,只把这几百个 token 交给大模型。就像一本书,你要查书里的资料,就必须先看目录,通过目录就能快速找到对应的相关内容。 q m d 安装后调用记忆的拓痕,大约能节省百分之六十到百分之九十,而且 q m d 的 解锁完全在本地,跑不掉 api, 零成本。好,我让 ai 给我总结了一份 q m d 的 安装教程,这里我就分享一下我是怎么安装上 q m d 的 吧。 在安装 qmd 之前,我们需要配置一下它的前置环境,主要就是下载 python, 这里我已经下载好了。你们只需要记得在安装 python 的 时候需要把所有选项都勾上啊,一般默认的话都是勾上的,剩下两个 word 十九九、 c 加加和 note, 这个在安装 openclip 的 时候就已经配置好了,就不需要我们再重新配置了。 好,接下来我们正式开始安装 qmd 啊。首先我们第一步要安装棒,这是一个集成工具包啊,我们直接打开终端命令行,然后输入棒的安装命令啊,这里可以看到正在安装了。安装成功之后,我们重启一下, 然后输入一下 boom 的 这个验证命令,就可以看到它返回一个版本号啊,这里返回一个版本号就说明成功了。第二步,我们安装 qmd, 我 们输入 qmd 的 安装命令, 当你看到这个黄色的警告的时候,就说明安装成功了。好,第三步,我们要把棒全局的闭目录加入到 pass 里。注意下啊,这里的这个文件地址啊,是我们的电脑的文件地址,每个人的这个文件地址可能会不一样, 但正常来说是差不多的,你们注意下改下这个文件地址就可以了。加入之后我们还是重启终端命令行。然后第四步,我们要去构建 qmd, 把这串代码直接复制上去就行了。 好,到这里就构建完成了啊,接下来我们要创建 qmd 的 命令连接,还是一样啊,打开这个终端命令行,然后输入这个命令就可以了。 创建之后啊,我们还是重启中单命令行,然后验证一下 qmd 是 否安装成功。你输入 qmd, 这时候就能看到一些 qmd 的 信息了, 这里能看到 qmd 的 这个帮助信息之后,就说明我们安装成功了。接下来我们要初识化 qmd 的 锁影,然后这里的话,呃,我是把 openclaw 的 工作区移到了 e 盘,一般来说 openclaw 安装的默认工作区是 c 盘啊,你们需要改一下这个地址。 在完成初步化 qmd 锁影之后啊, qmd 就 可以说是安装成功了啊,我们也可以正常使用 qmd 了,但下面还有一部可选的啊,叫做生成向量切入, 这是什么意思呢?这相当于给你的 qmd 啊,又加了一个智能模型,没有向量切入的 qmd 就是 一个超级的图书馆管理员啊,你说我要找苹果,他马上就能给你从记忆里找到他。但是带有向量的 qmd, 他 可以说是懂你的图书馆管理员, 他能凭借着对你的指令的理解啊,给你找到相关的资料啊,比如说我说我要找苹果,他能给你找到苹果以及英文苹果, apple 啊,这两个都给你找出来,这就是带有向量切入的 qmd。 但是我们在完成向量切入这一步的时候,可能会遇到很多问题,有的可能是涉及到网络,根本就没办法把模型给它下下来啊。也有的可能就是 openclock 在 调用他的这个命令的时候啊,出现崩溃的问题。 所以向量切入这一步就属于一个锦上添花,你完成他也好,你不完成他也好,都不影响你正常使用 qmd。 如果你想完成向量切入的话啊,还是一样我们输入这个命令。关于向量切入这一步啊,在这里我就不做延伸了啊,要不然视频就太长了, 如果说大家有需要的话,我可以未来再单独出一期视频好,安装好 qm d 之后,我们要配置一下 open core, 我 们需要找到 open core 的 配置文件。正常来说,你的 open core 安装好之后啊,就是在 c 盘的这个地址里啊,这个配置文件就是 open core jason。 好, 这里我们已经找到这个配置文件了,我们右键啊,用 txt 编辑它,然后我们把这个 memory 的 字段给它复制下来, 我们要把它粘贴进 openclip 的 配置文件里。这里你要注意啊,我们在添加新的字段之后啊,要把前面那个字段的最后一个括号啊,打上一个那个英文的逗号,以做这个区分。 好,这里我们就把 memory 字典给它这个添加成功了。然后我们看到第八步啊,他说让我们声明一下这个 qmd, 这一步其实很简单,我们不需要去改这个文件啊,我们直接启动 open core, 我们把刚才的声明内容啊,复制粘贴到 openclaw 的 对话框里,然后我们让 openclaw 自己去进入这个 qmd 的 使用教程啊,并把它写入自己的记忆里。好,可以看到啊,他自己已经把这个 qmd 的 这个使用手册啊,写入到自己的这个记忆系统里。 最后,如果你想确认一下这个 qmd 有 没有成功接入到 open curl 啊,你只需要在 open curl 对 话框里问他,你说字典一下 qmd 是 否正常运转啊,他就会回答你了啊,这里就可以看到缩影状态,正常看到这一条信息的时候,就说明你的这个 qmd 成功接入到 open curl 里。 我这里的话是把 qmd 的 限量签入也给它完成了啊,但是呢,它这 open call 在 调用它一个指令的时候会出现一点小问题,但这并不影响我们的 qmd 正常使用。 好,今天视频可能会有点长啊,大家有什么问题的话可以在评论区留言啊。好,这里是包子,我们下期再见。

open class 记忆系统,让 ai 真正记住你,从每次都失忆到越用越懂你。今天让我们一起研究下,如 l l m 如何不失忆,你有没有遇到过这种场景?周一你告诉 ai, 我 的项目用的是 type script, 周三你问推荐一个好用的前端库, 结果他给你推了 react 加 java script 方案。你纠正他,他说好的记住了,下周再问又忘了。这不是你表达有问题,也不是 ai 笨,而是他真的失忆了。今天我们用六分钟带你用三份文件,让 ai 从每次都失忆进化成越用越懂你。 传统大模型有个底层限制,每次对话都是全新开始,他没有持久记忆,就像每次见面都要重新自我介绍。但人类写作不是这样的,你希望你的搭档记得你的技术偏好,记住项目关键决策, 积累踩坑经验,下次不再犯。记忆是工具进化为伙伴的关键。 open 克拉的做法很聪明,不靠模型印记,而是用三层记忆架构加三份核心文件,构建可持久、可解锁、可维护的记忆系统。第一层,身份层,每次绘画强制加载,这是 ai 的 人设加用户手册,由两份文件组成。搜 了 m d a i。 的 性格说明书,定义语气,直接给结论,不说客套话,设定边界不确定就标注不瞎编,行为准则优先,自言效率至上。 user m d a i。 在 为谁工作,不只是姓名时区,更要写你的编码编号 typescript 大 于 j s。 沟通风格简洁,术语友好,当前项目状态与优先级 团队协助中的翻译需求。第二层,长期记忆 memory d m d。 紧主绘画加载,这是 ai 的 精选知识点,不是流水账,而是关键决策加理由。为什么选 postcard c 括踩坑记录加解决方案。 node js 大 于等于二十二常用路径配置工作目录日制位置, 注意纸迹。值得永远记住的是,噪音太多反而降低回答质量。第三层工作机已自动加载最近两天 memory, 二零二六年二月二十八日点 md 这类每日日制记录原始对话, open class 会自动提炼重要信息,定期同步到 memory md, 实现越用越聪明。最后用三句话总结今天的内容。 solo 点 m d 决定 ai 怎么说话 user, 点 m d 决定 ai 说什么才有用 memory, 点 m d 决定 ai 能记住什么。配置好这三份文件,你的 ai 会从通用助手进化成懂你的老伙计。

大家好,我是小众 ai 的 主理人青策君。今天这期视频我要跟大家聊一个很多人都有的痛点,用 openclaw 跑了一堆 ai 助理账单,看着就心疼。这期的主题叫省钱秘籍,但我要说的不是少用 ai, 而是五招,让你的小龙虾少吞偷啃,聪明的用。 先问你一个问题,你的小龙虾是不是在浪费钱?跑了十五个助理账单,突然让你沉默了,同样的任务,为什么别人花的钱更少?每次对话都在消耗预算,你注意过吗?说白了,贵不是问题,浪费才是,我们今天要解决的就是这个浪费。 很多人以为省钱就是少问问题,其实不是真正的开销在哪,是每次带进上下文的东西,系统提示词,历史消息工具输出,你有十五个助理,这些东西乘以十五就是爆炸的钱包。所以省钱的本质不是少用,是聪明用。带进去什么带多少,比问了多少问题更重要。 多处理场景是乘法,不是加法。好,我们进入第一招,三层记忆系统。第一层是 memory 点 m d, 这里要严格控制在二千字节以内,只放每次必用的东西,你如果塞了十千字节进去, 每次开对话就先花十千字解读血亏。第二层是 memory 文件夹,按需搜索找到才输入,不全量加载。第三层是跨助理共享,通过 memory search extra pass 打通调度,助理可以搜全团队的记忆,记住,记忆不是越多越好,记太多每次都在消化过去。 第二招是模型分级,不是每个任务都需要 opus 这种重武器,对吧?我的配置是这样的, main 助理, dev 助理,这种核心的深度推理场景采用 opus, 剩下整理排版发布这类日常活,十二个助理直接用 sonata, 配置里一行代码就搞定,直接省下一大笔。 原则就一句话,按任务匹配算力,不该省的不省,不该用 opus 的 别用 opus。 第三招,自动瘦身。这招的核心是让系统自动帮你清理历史包袱,不用手动跑, compact。 三个机制配合, 首先 cash to 设成一小时超时的工具输出,自动清掉,然后开启 safe guard 模式,接近上限时自动 compaction 压缩成摘要。关键是压缩之前系统会先写关键内容到 memory flash 存记忆,重要信息不丢失,整个流程自动跑,你什么都不用做。 第四招,盯着水位,这个很直接,随时输入 s x w 就 能看当前 token 占用比例。我设了三档预警,百分之五十的时候提醒自己注意,百分之七十就主动存记忆 到百分之八十五就准备压缩了。上周百分之七十三的时候,我当场决定落盘重开,没等他爆掉,有数字才能做判断,不然就是蒙着眼开车。 第五招,主动归零。操作很简单,三步完成任务,落盘保存,你又清空。为什么要这样做,避免上下文污染干净的上下文等于干净的开始。很多人切任务不新开,结果前一个任务的一堆上下文全带着跑,既浪费头啃,输出质量也下降。任务切换必做,既省头啃又保准确。 好来做个总结,这五招说穿了,核心就一句话,别让系统带着用不上的东西跑。记忆分层精简模型,按需分配工具输出,自动清水位,实时盯着任务切换,主动归零,配对了,你的助理照样能干活,账单自然少一截。 最后问你一个问题,你的小龙虾现在带了多少没用的包袱?这五件事,没有哪一件是叫你少用 ai, 全是系统层面的配置优化配置对了,助理一样能干活,没配置就是在烧冤枉钱,现在就去查一下,可能比你以为的多, 检查配置省钱,从这一步开始!好,今天这期就到这里,感谢大家观看。记住一句话,配置对了,少花冤枉钱。如果你觉得有帮助,点个赞,收藏一下,我们下期见!

oppo pro 逼近二十万星,正式超越 longchain autopod 登顶高清,成为名副其实的史上最热门 a 阵开点项目。而从 oppo pro 发布到现在,也就仅仅过去了一个半月的时间啊! 本期视频带你一站式深入了解当下爆火的 oppo pro 底层架构与核心原理,并借助外扣顶从零到一手搓衣板,基于 longchain 的 更适合企业内部高病发环境下拥有 oppo pro 全部核心功能的 mini oppo pro 不仅能够一比一复刻 oppo pro 的 最核心的功能,而且和 oppo pro 一 样,拥有网络操作工具、沙雕、环境、命令行工具、浏览器、动画工具等各项内置工具, 同时也能自由装载 skills, 支持标准格式的 agent skills 灵活载入,支持在对话过程中自主调用工作流和永久修改记忆,实现自主进化,越用越聪明。此外,还支持一键绘画、压缩长期记忆剪索等各项 oppo pro 的 记忆管理功能。 并且作为教学项目,迷你 oppo pro 还支持实时文档的具内容,当前加载的 skills 具内容等等, 相信这也是目前全网最深入、最完整的 oppo pro 核心技术拆解。用狼神手搓的 oppo pro 也是全网独此一份,如此高价值的课程质量,还望大家多多三连支持国外科完整的资料, oppo pro 核心的功能价格图 出现, opencloud 的 完整提示词、 web coding 流程等等都已经上线着复范大模型进入社区。呃,说实话啊,在 opencloud 推出来之前啊,其实我们也畅想过很多关于通用智能体,它可能出现这样的个形式啊,但是确实没有想到啊,它通过这个 agent 的 skills 啊,和一套本地维护的这个记忆系统啊,就能够解决所有问题啊,这个确实是 非常惊艳的一个这个地方哈,好啊,那么接下来啊,我们啊,就一点点来看哈,关于它的这个架构到底是如何进行实现的。首先哈,我们刚有说过啊,它呢,其实是本地优先啊,跟文件及数据库啊这样的一个设计哲学啊,什么叫本地优先,就指的是它所有这些啊,记忆系统啊,这个内容其实全部都存储在这个本地的。 关于这一点哈,其实我们上一场课外课的时候是给大家看到过啊,那么如果大家不记得的话,我们这也可以再给大家打开这个系统来看一下啊,就是比如说啊,我们现在看到其实就是 openclaw 啊,它的这个系统, 它的这个系统里边呢,其实,呃,在它的这个文件夹里边有什么 sessions 啊,然后 sessions 呢?就是啊,这里面所有的这些对话的这些数据啊,对不对啊?然后呢啊,它对话数据很多哈,很多很多这种对话数据,然后呢,它还有啊,就比如说这个 workspace 里边啊,还有很多的一些 markdown 这个文档啊,什么 agents 点 md 啊,什么 bootstrap 点 md 啊,还有这 identity 点 md 啊,还有 so 点 md 啊,由此点 md 啊,等等等等。那么这一系列 md 文档啊,总管看起来比较复杂,我们一会会说它分别代表什么样的含义,但基本上这些 md 文档就是构成它每次绘画的过程当中这个 system message, 然后这个 system message 就是 会在后续的运行过程当中持续不断的啊,它可以自我来进行修正啊,这个 a 证的自己运行的时候可以自己去修改自己的这个系统这样的自己,并且呢由于它也考虑到啊,这个用户对话可能时间会比较长,对不对啊?所以它还有一套关于这个混合解锁跟消息压缩的 一个这个机制,以避免啊说之后对话内容无限长啊,然后呢这个呃呃可能会损失一些这个信息的这样的一个问题,然后他的这个混合解锁和绘画压缩这样的机制呢,实际上也还是这个非常通用的啊,或者非常好用的一套这个流程啊,一会我们会看到 它所谓的这个混合剪辑哈,基本上指的是这个使用关键词啊,和这个 embedding 的 词向量这个匹配啊,来进行剪辑。然后同时呢它所谓的啊这个上下文的这个压缩呢,其实指的是如果我的 user message 跟 assistant message 啊这个消息数量太大的话,那么它其实会选取比较古老的一部分内容,然后来进行 summary 啊,来进行总结,然后呢通 过 summary 这个内容代替原来的这一问一答的这个对话这个内容啊,从而行,从而这个来实现完整的上下文能够来进行压缩的啊,一整个这个功能等等等等。 这个的话我们一会会看到哈,因为,呃我们一会还会结合着对于 openclaw 啊,它的这个系统架构,它整个的这个 memory 里面的各个不同类型的文件在展开来进行讲解啊,现在大家听的话可能还会还会有点晕啊,主要还是因为,呃这个不够具体,不 过没关系啊,大家需要知道的是呢,对于它的这个记忆系统来说啊,首先一个呢都是本地的啊,所有的内容啊,都存在本地啊,并且都是以这个 macdong 或者 jason 文档这样的格式呢来进行存储,然后同时呢它也是有啊这个 rek 解锁这样的流程和啊 来进行一些信息压缩啊,主要是通过这个 summer 的 方式来进行压缩的这样的一个方法就可以了,然后同时呢,哎,基于我们刚刚所说的啊这样的一系列这个啊,对不对啊?他有内部的这个工具啊,自己内部有些工具,然后同时呢自己又可以修改自己的这个记忆,那立马左脚踩右脚就起飞了,哈哈,对不对?他就可以来 进行自我认知的叠带了啊,只要用户觉得说,哎,你这方面表现不好啊,记得啊,我现在哪个地方表现不好,哪里有问题,然后把它写到 未来的这个持久记忆里边儿,对不对?下一次只要我启动对话啊,当然这次也可以啊,直接来进行一个,直接来进行一个刷新,那么对 openclaw 来说,哎,它就这样的一个对不对?有一组内置工具啊,然后呢有一组这个 skills 啊,然后还允许啊自己去修改自己啊,然后呢它的这个, 呃所有记忆文件啊,全部都保存在本地,然后还允许自己的这个,呃 agent 啊,调用自己内置公内置的工具去修改自己记忆的,这样的能力啊,就能够形成我们刚刚所看啊,它这个 线,他这个左脚踩右脚就直接起飞了,对不对啊?自己修改自己啊,自己让自己进化的这样的一个非常核心的功能特性啊,所以呢,这个架构实际上是一个非常前沿的一个理念哈,是值得我们开发者 来进行的这个学习啊。然后呢,我们接下来其实也会围绕他的这个架构来进行呢,来进行这个复线,当然在整个的我们刚刚所说这样的一个呃呃呃, open club 这个架构里边其最为核心的啊,其实他的就是他的底层的这个技术。大家要想啊,其实 所有的它的运行过程当中,什么时候知道该干什么样的这个事情,其实都是由它的这个底层的这个记忆系统所去设定的。所以呢,其实呃,当我们去看 openclaw 它这个项目的这个 message 列表的时候,就它销列消息列表的时候,你会发现非常非常的复杂 啊,正常的这个 agent 的 消息列表无非就是 system message, 对 不对啊?这个 user message 啊, system message 啊,还有这个 tour message 啊,差不多就这么几种类型啊。然后呢,如果你去看 opencloud 的 消息消息列表的话,你会发现非常的复杂啊,它光是这个 system message 里边就分了好多好多好多种啊,就比如说我们现在这里面看到的啊,其实就这个项目里面给大家展示 展示的这么些种啊,什么 memory 点 md 啊, so 点 md、 user 点 md、 agent 点 md, 还有这个 skills 点 md, 还有这个 skill 点 md 啊,有非常非常非常多的一整套的啊,这样的一些维护的不同类别的这 mac 文档构成它的这个 system message 啊,这是这么回事儿, 然后同时它在实际进行对话的过程当中呢,由于考虑到它可能还需要进行一些啊,这个比如说 skill 的 一些这个 啊,热插拔的一些这个事项啊,所以呢,它它的这个,呃内部的所维护的 user message 跟 assistant message 这个消息列表啊,其实也非常复杂,而且呢,有的时候啊,它会随着你对话的过程当中呢,不断来进行修改啊,但这个我们一会看到它是怎么样去进行的这个操作, 然后再加上它还需要啊实时地接入些 skills。 而 skills 的 本质呢,我们刚刚已经说了啊,它其实也是一些提示啊,所以呢,怎么样把这个 skills 的 核心信息给它拼接到 system message 里面去啊?也是 啊,这个 opencl 啊,需要考虑这样的这个事情,但是呢,有了这套机器系统之后,哎,你会发现啊,它的这个适用面一下就广了,而且整个 a 智能性能也是拔上也是提高到新的这个 level。 那 首先啊,对于 opencl 来说对不对啊?它呢是能够多场景来进行适配, 由于它记忆系统非常复杂,而且非常灵活啊,它允许用户从各个角度去修改它这个记忆啊,所以呢,你希望它成为什么样的 agent, 你 完全可以通过去修改它这个记忆系统啊,然后呢,给他一个这个身份,告诉他你应该做什么样的这个事情,哎啊,它很快就会成为就会扮演好它特定场景下的这样的 agent 啊,这是其一,那么其二也可以啊,这个从 从此彻底解决啊,关于我们之前所说的关于这个上下文的这个啊,卡脖子这样的问题,那么其实哈,关于去修改上下文的这个啊,关于去修改大模型的 agent 的 记忆系统,然后呢?然后,然后让他去完成无限上下文这样的功能。很早啊,其实就有这样的技术概念,我们当时在二零二三年推出第一个我们团队做的这个 agent 叫 mate 盾的时候,当时其实就 啊实现了关于无线上下文的这样的功能啊,但是相比现在的啊,这个记忆系统来说,当时的无线上下文其实相对来说还是比较潦草啊,现在这个无线上下文其实要好很多。那么具体来说,对于这个呃欧呃,对于呃 open call 来说,他的无 线上下文的这个实现的思路呢,实际上是通过这个一次的压缩和啊通过一层的这个解锁来进行实现的。所谓一次压缩呢,就指的是他如果用户跟大模型他们俩对话下去太长了,那么他会把 比较古早的消息来进行一些 summary 啊,这个呢,其实是比较一个,一个是比较通常的这样的操作。那么第二个呢,是它还会维护一个 跨县城的一个 message, 跨县城的一个这个记忆的系统啊,所谓跨县城的这个记忆系统指的是,哎,现在用户啊,跟这个 agent 聊天的时候有一些东西啊,它是长期存在的哈,就比如说,那我比较喜欢 agent 什么样的风格来回复我啊?或者是 我跟他沟通过程当中,他可能反复在执行某些工作时候都会出错啊,这个时候呢,我可能就会给他一些非常严肃的这样的提示,跟他说啊,你在这个点上有重大的认识偏差。好,那这样的一个对于当前这个 a 政策来说非常重要的这样的一个消息, 它的作用范围肯定不止是当前这样的县城啊,不是说我新开个对话,我之前咱们强调过很多次的问题,我就忘了哈,这是不行的,所以呢,它会还会维护一个所谓跨县城的这样的一个啊, memory 的 这样的这个系统啊,当然它也是 markdown 哈,对于 openclaw 来说,所有的这个记忆都是一个又一个 markdown 文档啊,它也是个 markdown 文档, 那么这个 markdown 文档,同样啊,它也是会不断不断不断往里面去追加内容的,但是大家可想而知,伴随着我 a 阵的运行的时间比较长哎,我这个 markdown 内容肯定会越来越多,越来越多,越来越多啊。最后呢,如果超出了 啊这个限制,没有办法作为系统消息带入到下一次开始对话的这个里边去的话,那么未来你对于我现在维护的一个跨线城的非常重要的持久记忆的这个列表来说,那你肯定是需要使用 red 方法来进行剪辑,对不对? 所以呢,它的关于无限差量文的这个实现的这个思路非常简单。首先,对于单个对话来说,它呢,实际上是会不断地压缩啊,或者通不断的这个 summary 比较古老的一些时间的这个对话啊,从而呢去压缩你当前这一次对话的这个长度啊,这是其。其二,它还会,它还会有一个跨县城的一个持久记忆的一个 markdown 文档哎,这个 markdown 文档呢?它呢就,呃,没办法啊,它其实会越来越多,越来越多,但是 这个 markdown 文档,它里面往往是记录着我当前 agent 需要遵循那些指令原则,或者我的运行过程上一些缺陷。很重要,这个信息它是没有办法来进行压缩的,所以它只能够通过非常高精度的方式来进行解锁。那就下次遇到类似这样的问题,哎,我就会主动地去围绕着我跨县城的 markdown 的 记忆呢,来进行一轮这个解锁,解锁完了之后 啊,检,检测完了之后啊,那么接下来他就可以啊来进行这个,呃呃,持久的就是围绕着这,我这个哪怕啊文档那有很多的啊,这个 memory 点 md 这个文件呢,来进行一个指令的跟随啊,差不多是这样的功能的定位好,这个呢是它的一些 核心的啊,一些这个功能的这个实现啊,然后呢,上面还有啊,什么这个跨县城的深度理解,就是我们刚刚所说的 rock 这个流程啊,还有呢,自主进化与技能沉淀 啊,这个也是我们刚刚其实反复强调过很多次了啊,它其实是能够自我净化的啊,因为它能自己修改自己的记忆文件,尤其是能够自修自己修改自己的这个操作手册啊。这个呢是没有什么问题的啊,这个呢是现在我们能看到的啊, open cloud, 它这它的这样的一个系统里边非常核心的啊,很多的 一些功能的这个特性,当然啊,如果具体来展开的话啊,下面这个可能也是一些理论啊,这个理论可能就会比较多了,那么它还有啊,如下五大方面的功能这个优势啊,这个我们先不先放在这啊,我们一会去看到我们实际的这个 agent 的 运行之后呢,我们再回来讨论这部分内容啊,因为如果一次性这个理论讲理论,理论讲太多的话,大家可能会比较晕, 好,那这个呢,是关于 open club 啊,它比较先进的一整个技术啊,工具的这样的体系。 那么,呃,在我们正式去复现 openclaw 之前哈啊,这个还是有一个小的点啊,需要跟大家来进行强调,那就是很多同学可能会觉得说啊,那 openclaw 其实也就这么回事啊,我们难道不能够用一些 a 证的开发框架去实现类似 openclaw 这样的架构吗?可能会比较困难啊,就比如说像对于 longchang 来说啊, longchang 的 话,它其实是完全没有 我们所说这一些的这个功能的啊,大家都 sorry, 它只有其中一个功能啊,就是它能够去压缩历史绘画啊,这个呢是浪圈里面自带的这功能,但除此之外呢,浪圈其实是没有我们刚刚所说的啊,所有的,呃, 我们刚才想要的这样的一些这功能的啊,它其实是做不到的。其实哈浪对于浪圈来说,它的记忆管理的这功能相对来说是不是它的成像啊,是一个 较薄的一个这个环节啊,因为 longchain 其实它更多的还是去维护每一次 agent 在 进行运行的过程当中,它的一个运行的这个状态啊,以及考虑一下啊,它可能出现的不同的这样的情况啊,这个报错呀,什么工具调用啊等等等等相关在这方面来进行优化啊。所以 longchain 它 对于一个 a 证的记忆管理方面的功能其实是非常薄弱的啊,总的说它其实总共也就只有这四个方面,它这功能啊,比如说它允许啊,这什么高并发症啊,允许啊,滑动窗口的这个遗忘,或者滑动窗口的这个这个呃压缩呀,以及能够来进行向量剪辑啊,其实也就是这样的基础的功能啊,但是现在从 open clock 的 这个角度来说,这些基础基础的功能可能没有办法很好的满足 啊,接下来的开发这样的需求,对不对?那么除此之外,我们说如果你是使用国内的像 agent scoop 来进行开发的话,哎,这个还不错啊,它的这个记忆系统其实设计的相对来说还比较可以啊,它呢是分成这个短期记忆跟长期记忆 两种不同的模式啊,来进行运行。那么 a 阵的 scoop 我 们简单看一下哈,他的这个短期记忆呢,其实,呃主要就是啊,他可以进行一些这个过滤和压缩啊,他对于短期记忆就当前绘画的这样的内容,这压缩主要是比如说删除一些什么工具调用的这个内容啊,或者删除一些这个呃,我们呃能够非常 明显的感受到啊,历史的话消消息里面一些不重要的一些这个信息啊,比如说现在说长的这个连接啊,等等等等啊,他可以去做这样的一个历史消息的这样的个压缩和删除。那 同时呢他的这个长期记忆呢,就是如果他的这个记忆太长了的话啊,他就会基于这个 rek 来进行解锁啊,他其实内部是有一套完整的这个 rek 流程的啊,就直接就可以完成长短期记忆的这样的这个切换,但是他的这种长短期记忆呢,尽管功能支持的是更好,但是也还是一样的,对不对啊?大家一听就能感受到,这还是上一代的这个思路, 非常死板啊,哈哈,就是,呃,你短期记忆只能这么这样来进行处理啊,长期记忆只能这么来进行处理啊,其总的来看还是,呃,非常的这个死板啊,但是呢,这比浪转其实要好一些啊。那么唯一呢,现在就是我们能看到的关于这个记忆的这个开源项目啊,功能实现程度比较复杂的其实是这个麦瑞玲, 然后这个 m e m 零这个项目呢,呃,它其实效果其实还是非常好哈,但是呢,这个项目,其实,呵呵,和这个 openclaw 其实走的是完全不一样的这个套路啊, openclaw 呢,其实它更多的强调是清亮,便捷可控啊,然后透明,差不多是这样的一个这个思路,但是 memory 零呢,正好相反, 呃,别人清亮啊,他就不清亮,哈哈。呃,别人透明啊,他就这个不透明啊,这个,呃,别人便捷,他就不便捷啊,差不多这样的一个这个定位,那么 oh memory 零它其实追求的是关于长期记忆和剪辑这样的一个高精度, 这个问题就有点像,就比如说我们使用像啊 graph rag, 对 不对啊?基于制图的这个剪辑,那当然它剪辑性能会更好,但是呢, 嗯,它需要的这个开销就更大,它的响应时间也就更长,而且并不是所有场景下都比普通的这个 rock 效果更好啊。所以呢,其实曼莫瑞林也会陷入到类似这样的这个情况,那曼莫瑞林的这个长短期架构期,呃,长短期的这个记忆管理,其实呃精度是非常高的,然后它呢同时还做了一个很好的这个结偶。所谓这个结偶指的是你 不管是用什么样的 agent, 甚至是普通的这个,甚至是普通的一些这个呃 api, 比如说 open a iphone 的 api 都是可以接入麦百瑞零的啊,都是没有什么问题的,它呢实际上所有的这个长短机器管理全部都在它项目内部来进行解决,但是它问题也是再也别说啊,它太重了啊,然后呢响应时间太慢了啊,尽管它可以做到比较高精度的这样的这个 解锁,但是呢,你看看啊,它其实呃一整个流程啊,到大模型的这个对于记忆的这样的提取, 然后呢到对记忆的这个压缩啊,然后呢夏令裤的这个存存储和这个读取,包括有的时候还需要来进行一些这个知识图谱的这构建,然后再进行匹配,再进行剪辑啊,它的这个过程呢, 其实非常非常长啊,然后呢,呃适配性也会比较弱啊,所以这个可能是麦麦瑞林的这个比较大的这个问题啊,对吧?价格比较臃肿,然后延迟比较大,然后呢它也是个完全的这个黑盒啊,这个是麦麦瑞林的这样的情况啊,所以呢,基本上我们说如果你想去复现 opencloud 的 这样的这样的情况啊,包括它后面的这个 agent skill 这个系统的话, 呃,大概率欸可能只能手写,哈哈哈,你可能是没有办法这个通过既有这个 agent 开发框架来进行实现的,但是啊,这个基本的 agent 的 这个响应哈,和它这个运行时的这样的一个 look 啊,这个是使用 long chain 或者使用 agent 是 不是没有什么问题的啊,因为本来这些 agent 的 开发框架就是为了更好的去完成一次又一次 agent 的 响应的啊,只不过啊,我们说你的这个呃记忆系统啊,可能需要单独来进行开发。好啊,那么 前边我们差不多是给大家大概入了一个门啊,主要是个理论方面。这个讲解啊,可能同学听懂了,可能同学听不太懂啊,主要还是个理论方面。这样的讲解让他大概大概。接下来的公开课,我还将围绕更多的技术细节展开介绍,同时将借助 web coding 带大家重领手搓迷你 oppo colo web coding 完整的需求跟题目的过程也都包含在本期公开课的课程中,和课程代码等一起都已经上传至复旦大模型进入社区。

今天要分享的是 openclock 记忆模块的架构设计,这个模块不是简单的向量解锁功能,而是一套围绕智能体长期运行场景设计的完整记忆系统。 它要解决的核心问题是如何让智能体形成可沉淀、可解锁、可治理、可审查的长期记忆。接下来我会从设计目标、分层架构、核心思想、 核心流程和架构价值几个方面展开。首先明确本质定位。很多人会把记忆系统理解为把文本放进项链库,但这只是技术实现的表面。 openclaw 认为,真正的记忆系统应该让智能体在长期运行中形成稳定的记忆资产。 他需要具备四个核心能力,可沉淀、跨绘画、持久化、可解锁、高效召回、可治理、人工干预和权限管理、可审查追溯来源。这是面向人机协助场景设计的完整解决方案, 而不是单纯的技术主见。从架构师角度看,这个模块在解决五个核心问题,第一是可持续沉淀,记忆,不能只存在于一次对话的上下纹理。第二是对人友好, 用户可以直接查看、修改、整理记忆内容,所以选择 markdown 文件作为试词源。第三是对模型友好,支持高效召回,避免每次都全量注入上下文。 第四是系统弹性,某个 provider 缩影或外部后端失效时,整体系统不能崩溃。第五是可治理,不能无限制让所有绘画共享全部记忆,需要权限控制。 openclo 采用了四层分层架构,最底层是记忆载体层, 长期记忆存放在 memory、 md 等 markdown 文件中,优先保证人类可读。第二层是锁影造汇层,支持内建后端 memory index manager 和外部后端 qmd memory manager, 通过统一的 memory search manager 接口实现策略模式,方便替换后端。 第三层是工具访问层,通过 memory search 和 memory get 向 agent 暴露能力,控制上下文体积。 第四层是记忆写灰层,在绘画、压缩或 reset 时触发记忆沉淀。这个模块有三个核心设计思想,第一个是文件作为真相源, markdown 文件才是真正的长期记忆数据库向量锁影、 q m d 等都只是为召回服务的加速层。这种设计最大的价值是可解释性强,用户可以直接打开文件看到记忆内容。第二个是解锁与写入解偶,写入来源多样,锁影层只负责转换结构,这样记忆来源可以不断扩展。 第三个是能力分级和弹性降级,内嵌后端支持 hybrid 解锁,外部后端失败时可以切回 building embodding, 出问题时返回结构化状态,而不是让整个系统崩溃。从完整业务流程看, openclaw 的 记忆模块形成了三个闭环,第一个是记忆沉淀闭环, 对话中的有价值信息在特定时机写入 memory 文件,从及时上下文变成长期资产。第二个是锁影构建闭环,记忆文件变化后,通过 water 定时器等机制触发锁影更新。第三个是解锁消费闭环, agent 在 回答涉及历史问题时,先调用 memory search 召回,再调用 memory get 精读,最后注入当前推理过程,这就形成了一个完整的生命周期,产生记忆 组织记忆解锁、记忆服务推理。这套架构带来了五个明显价值,可维护性记忆内容以文件存在,适合手工整理和版本管理。可扩展性,内建后端和 qmd 后端并存, 预留了多种实现空间。可解释性解锁结果带路径和航号,方便定位来源。可降级性,外部后端引 bedding, 出问题时不会拖垮整条链路。可治理性, qmd 的 scope 机制支持按绘画类型和 channel 限制进行访问, 这些特性让它适合长期运行、多人协助、需要治理的智能体平台。当然,这套设计也有工程取舍,它的复杂度明显高于只接一个向量库的方案,因为同时维护文件系统 circle lite、 fts、 向量扩展、 provider、 qmd、 session、 hook 等多个子系统。 换句话说,它牺牲了简单性,换来了可远近性和可控性。对于做实验性质的单 a 检测应用,这可能偏重,但对于要长期运行、多人协助、需要治理的智能体平台,这种复杂度是有价值的。 以上就是 openclaw 记忆模块的核心架构设计,这套系统的核心思想是文件作为真相源,锁影作为加速层,通过分层架构和解偶设计,实现了一个可沉淀、可解锁、可治理、可审查的长期记忆系统。感谢大家的聆听,欢迎提问交流!

这个就是我们 openclaw vacuum 的 一个主页面,这个就是我们开发的一键包,我们双击一下进行安装,然后点击我同意,然后点击,然后找一个地方,然后安装,然后我们点击完成,然后它就会自动启动我们的这个 我们选择中文,然后进行下一步,我们暂时跳过设置,我们看一下。 首先给大家介绍一下 opencloud 是 什么?它是一个本地开源的一个个人的助手,这是我们的一个思维导图,它有非常活跃的社区,截止到今天为止,它已经登顶 gitup 上的榜首。 我们在之前提出过一个问题,就是为什么在 opencloud 里面一句你好,一个打招呼的两个字,竟然消耗了一万五千多播放呢?直到现在有十五万关注的一个浏览量。我们接下来看一下 opencloud, 作为一个 ai 的 个人助手,它可以比如说像网页的新闻搜索,每天什么时候定时给我汇报,或者说作为一个工作的一个客服,或者说一个知识库的问答都是可以的。然后我们介绍一下我们开源的 opencloud viking, 这是一个基于 open cloud 还有 cloud x 的 一个独立维护的优化版本,它解决了什么?它解决了一个古法代码启动的问题,比如说我们之前的话是在 linux 进行一个命令行的启动,这对于很多 不是程序员的用户很没友好。我们现在的话是一个纯图像的一个操作,我们看一下 一键启动,然后我们前端启动,后端,然后接下来回到我们的思维导图,它可以摆脱 linux 的 一个烦恼,比如说 win 系统的 wsl, 然后接下来是一个一键的图形安装,这是我们的一个开源地址,前期的话我们正在一个维护, 然后已经开源,然后接下来我们给大家介绍一下它的一个特性,第一个功能就是减少我们的噪声,它至少可以减少百分之五十以上的透光的消耗,也就是对于我们的一个更加省钱,这对于我们之前的视频实测过,大家可以看一下。 接下来是它的一个时间记忆的永久保存,我们采用的是 open viking 的 一个思路进行制作了一个三层缩影,接下来给大家慢慢的介绍。最后就是我们的三层缩影,就是我们的记忆白盒可以溯源。 我们首先来到 viking 的 主页面,配置一下它的模型,在此会很简单的配置一个,我们选择是 cloud 四点六这个模型,我们点击,然后输入 api k 就 可以了。现在先给大家演示一下如何进行跑通,我们接下来演示怎么获取,我们在这里面输入自己的 api k, 然后点击测试连接,我们发现已经连接成功了, 这个在国内不用开任何的一个科技或者魔法都可以使用,这是一个直连的,为什么说是直连呢?是因为今天中午的时候 cloud 它崩了,然后我们进行测试,结果可以显示它是一个官转的一个 api, 它是一家上市公司,待会介绍,然后我们点击提供, 我们进行提问,我们看一下他已经回复了,我们问一下当前的工作目录有哪些文件, 这个命令就是检测的是我们温系统是否可以读取我们的一个温系统的系统以及执行一下操作,他是可以成功的执行他的系统的命令,因此我们在温系统是绝对可以实现的。 然后接下来我们可以进行测试它的一个写入以及运行代码的能力,这些技能对于我们运行 skills 等等是一个重要的基础。我们让它写一个 python 的 一个脚本, 我们发送过去,我们可以看见他已经成功的执行了写以及执行程序,然后这就是他的一个文件的位置,然后我们进行测试一下他消耗了多少 token, 我 们输入斜杠 context detail, 然后就可以看到他的一个详情,我们可以看到他执行这个任务消耗了八千五百个头肯,按照我们上次的对比,原版的话最起码得在 一万七到两万之间的这个头肯的消耗。接下来我们看一下他的一个版本介绍,这个就是我们的一个三帧缩影, 我们看一下 roe 的 招标,就是一句话定位它有时间戳,就是我们优化了一个上下文的一个记忆,无论什么时候我们可以精确的定位,比如说像二零二六年 三月一号发生了什么事情,我们可以精确的进行定位当时的对话,然后来到我们的记忆,所以我们可以看到这个就是我们的一个白盒式的,可以看到当时的一个记忆,二零二一二二都是可以的。然后接下来给大家看一下它的模型的配置, 我们点击设置,在这里面可以进行一个自定义的 ai 的 提供商。 在此的话我给大家演示的就是我们推荐的这个魔星广场,因为它足够的优惠。然后我们点击这个, 然后我们会在这个优云智算里面进行注册一下,手机号注册,这个就是我们注册的,然后点击一下 它里面会送我们五元的一个余额,也就是说我们进行一个充值一块九,我们看一下我们进行充值, 然后我们现在就支付成功套餐订阅,然后点击这儿,然后点击立即购买,这个就相当于原价 a p i 的 一折起,我们实测了一下,基本上像 cloud 是 二折,然后像其他的都是一折,我们点击购买,然后我们点击复制,这就是我们的密钥, 然后来到我们的一键包打开,在这里的话我们比如说我们可以选择 open i 的, 在这里面我们可以任意选,在此的话我选择 open i 的 最好的编码的模型,我们在这里面输入,输入之后我们点击测试, 我们可以看到测试成功,然后我们点击添加就可以了,在这里的话它就会自动重启这个网关。 在设置里面我们可以看到我们这样点击一下使用的就是 gpt。 五点三开启一个新的对话,我们提问一下它是哪个模型,我们可以看到它的回答是正确的,也就是说我们可以在国内的环境进行直连,这个的话它一共消耗了两千五百个头狠。 像其他的比如说像定时任务以及我们的这个技能都是可以使用的,像这些其实说实话可以删掉,因为他在国内的话可能用不了, 我们可以来到这个市场上可以进行一个安装技能,在国内的话咱们可以联系一下钉头,就是我们钉钉以及非书。 然后接下来这是我们的一个设置模型设置已经给大家演示了,然后接下来这是我们的一个记忆缩影,这个就是我们一个长期记忆的优化,甚至到我们的一个时间戳。

这个视频将教会你在 open curl 现有的 markdown 记忆文件基础上,通过 memsearch 添加了向量驱动的语义搜索。因此你可以根据含义立即找到任何过往的记忆,而不仅仅是通过关键词。 先说痛点, open curl 的 记忆以纯 markdown 文件形式存储,这对于可移植性和人类可读性来说非常好,但它没有搜索功能。伴随着数周数月过去, 记忆不断增加,想要找到上周二的某个决定就变得不可能了。这里没有搜索功能,只能滚动浏览文件。随着记忆的增长,你要么必须在文件中进行 grab 搜索,仅支持关键词 会漏掉语义匹配。要么将整个文件加载到上下文中,在不相关内容上浪费标记。现在只需几个命令就能将所有 open cloud doc 记忆文件缩影到向量数据库 music 中。 一、先安装安装 memsearch。 二、运行交互式配置向导。三、为你的 open cloud 内存目录建立,所以四按含义搜索您的记忆。五、 对于实时同步,请启动文件监视器,它会在每次文件更改时自动缩影。六、对于完全本地设置,无需 api 密钥,请安装本地嵌入提供程序。这个功能结合了 rf 重排序的混合搜索密集向量加 bm 二五全书 可获得最佳结果。 sha 二五六内容哈希意味着未更改的文件永远不会被重新嵌入, 不会浪费任何 a p i。 调用文件监视器会在内存文件发生变化时自动重新锁影,因此锁影始终是最新的,兼容任何欠入服务提供商 openai、 google yh 或完全本地部署,无需 a p i。 密钥。

各位好,今天我们来深度解析 opencall 的 记忆系统,它是一套构建高性能 ai 长期记忆的工程实践。 在 ai agent 的 开发中,如何让 agent 记住过去并高效解锁相关知识,往往是决定其智能程度的关键。 opencall 作为新进的 agent 框架,它的 src memory 模块不仅是一个存储向量的仓库,更是提供了一套高度工程化、兼顾性能与召回率的记忆系统。 本轮将带你深入该系统的核心,探索其架构设计、剪索算法及工程实现细节。首先我们来看架构设计。 opencall 的 记忆系统采用了极其灵活的双引擎策略, 默认方案是 biotin 后端,它紧凑地集成在 node js 环境中,直接利用 scott 在 本地运行向量计算,实现了无需外部数据库依赖的轻量级 r a g。 而对于更大规模的数据级,系统也支持一键切换到 q m d 后端接入外部高性能工具。 这种节有设计让开发者可以在边缘节点和生产环境间游刃有余的切换。在数据源上,他将静态 mugdown 知识文件 memory 和动态历史绘画记录 sessions 进行了统一抽象, 确保 a 诊既能查阅官方文档,也能回忆起两周前与用户的聊天细节。单纯的像浪相似度搜索,再处理精确关键词,比如特定的版本号、人名时,往往表现欠佳。为此, open call 构建了一套极其强大的多维解锁管道。 第一招是混合检测 hybrid search, 它将向量搜索与基于 f t s 无 b m 二五的权威搜索进行加权融合,例如向量占零点七,文本占零点三,有效兼顾了语义理解与关键词命中的精准度。第二招是结果多样化与重排序, 通过 mmr maximal marginal relevance 算法,避免解锁出大量重复内容,同时引入时间衰减机制,三天前的绘画记录在排序上会优于三个月前的记录,除非老记录的相关度极高。 另外值得一提的是,即便在无法使用大模型 api 的 离线纯文本环境下, open call 也可以通过中英日韩等语言的关键词提取构建复杂的 o 查询扩展, 极大提升了纯文本解锁的召回率。计算欠入万八定通常是 r a g 系统中最昂贵、最慢的环节, open core 对 此进行了深度的工程优化,堪称极致。 首先是内容感知缓存系统,基于文本内容的 s h i 两百五十六哈希值建立缓存,只要文件内容不改,哪怕重新,所以也不会去请求昂贵的接口。 其次是原生支持大厂如 openai 和 gemini 的 batch api 在 面对大规模初审所掩时,不仅能绕过病发限制,还能大幅削减 api 账单,通常有百分之五十甚至更多的折扣。 最后,系统实现了非常健壮的智能重视与降级逻辑 manager and budding opsis 遇到限流会自动进行指数退币。更牛的是,如果主模型持续报错,它会自动触发向 mr 或本地模型的透明迁移,保证服务的稳定。在长期记忆系统的可信方面, open call 展现了工业级的存储实践。 他通过监听文件系统的事件,基于抽取到配合文件员数据检查,实现了真正的增量同步至更新变化的部分,避免全量扫描带来的沉重阿姚负担。 在执行全量重新锁眼时,系统采用了先写临时库后原子替换的高级策略。 run c friendax 在 后台悄悄建好新锁引,最后通过文件系统重命名实现瞬间切换,整个过程中 agent 的 解锁功能完全不受影响。 此外,针对外部 api 调用,系统内置了 s s r f 服务端请求伪造防护策略, 严格限制了 api 调用的主机名,确保了敏感数据交换的绝对安全。总结一下, open call 的 记忆系统绝不仅仅是一个简单的存储项链仓库,它是一个经过深度打磨、经过实战检验的剪索流水线, 通过混合剪索、多样化排序、供应商原生的批处理支持以及严谨的同步机制,它为 agent 提供了稳定、高效、低成本的长期记忆能力。 对于我们广大开发者而言,这种高度集成的良好 dx 开发者体验,意味着你可以全身心地投入到 agent 逻辑的创新上,而把所有这些底层的 复杂的剪辑优化全部放心地交给 open call 来处理。谢谢大家的观看!

众所周知,大模型天生没记忆,那为啥龙虾 openclo 却能记住?你先搞清楚一点,大模型是无状态的,也就是每次对话都像第一次见, 聊完就清空,根本就不记得存历史。 openclo 直接给这个模型装了外置大脑,不硬改模型,用本地 markdown 文件和数据库存记忆。它分两层记,短期存当日兑换,长期存编号与关键信息,想记啥记多久,完全可控,记忆不膨胀, token 就 有保障。 再配上混合解锁,精准调取,实现记忆唤醒。好了,记住了吗?嗯啊,斑马线只负责思考外部存储,解锁才是 agent。 拥有记忆的真相,关注我,就带你一分钟搞懂 ai 底层逻辑。