欢迎来到小龙虾每日一季,你是不是也遇到过这种情况,跟 ai 聊了半天项目,换个话题,他就忘了刚才的代码。今天教大家一个神器 memory, 让 ai 拥有长期记忆,记住你的整个项目。上下文每次对话都像在跟最懂你的资深同事沟通, 它可以看作是给 ai 助手装上了大脑海马体,相当于鱼的记忆,变成了大象的记忆。下面我就来教教大家如何安装吧。 首先我们下载这个压缩包, 然后我们再打开小龙虾的安装目录, 下面跟着我的步骤来到 skill 文件夹, 然后打开这个 skills 文件夹,在里面新建一个目录, 就叫 memory, 然后把压缩包解压到这个文件夹, 然后就 ok 了。再回到小龙虾,打开技能,看看安装上去没有,来搜索一下, 可以看见已经安装成功了,显示是正常可以起用的,以后聊天就不用重复自己的背景信息了, ai 会越来越懂你了,关注我,后续视频也会继续分享 skill。
粉丝934获赞585

重大消息! oppo colo 迎来史诗级加强!虽然 oppo colo 没有官方更新,但是却有着来自最早的助攻,就是 cloud 的 源码泄露了,这个工具可以说是最强王者。那它泄露了跟 oppo colo 的 有什么关系呢?我教你一招,非常好用,你把 cloud colo 的 源码 一五一十的全部喂给你的龙虾,让龙虾带着他的整个一群的团队,照着 cloud colo 的 源码架构逻辑完全的去学习进化, 你就拥有了一个 cloud code 架构下的龙虾了。这个进化的过程都是 open cloud 全自动自己改,只要二十分钟左右,它就会进化成一只超级龙虾。它的整个任务并发任务记忆,上下文记忆工具调用的方法,还包括西西的小章鱼捉虫都复刻了, 它不再是一只简单的龙虾了,而是拥有了最先进 honey 架构下的超级龙虾。不过官方已经把整个泄露的原码已经下架了,我眼疾手快帮你们保存了一份。你们如果想净化自己龙虾,可以在评论区留下学习,我将把这个原码发送给你。

openclaw 三点八,能让你的龙虾消耗更少的 token, 更省钱,想要速度更快,然后回答也会更精准,那这个原理是什么呢?首先使用 openclaw 比较久的用户都知道,你跟他聊天聊的比较多了,他就会失忆。 其实这是因为你跟他聊,你们的记忆呢,上下文呢,就会不断堆叠,堆叠堆叠,直到啪失忆了,因为他的这个上下文是有一定的量,当达到一定量的时候呢,他就会把某些一部分的记忆 给压缩,换成一些 summary 的 总结,这个俗称 compact。 那 这样呢,就会导致,哎龙虾聊着聊着就失忆了。 所以我们开发了曼九点 ai 这样一个记忆管理的插件,你可以理解为把你的记忆去上传到云端,然后通过 f t s 技术,在你和它聊天的时候,只召回跟你正在聊,正在做的工作,直接相关的一些事情。 那这个云端的空间是无限大的啊,当然云端的存储就跟网盘一样,如果你的这个虾不小心搞死了,对吧?重装一下,只要把密码重新一输, 所有的记忆都会回来。我觉得这个是 open cloud 这个非常基础的,也是非常必备的一个记忆的一个工具了。那回到刚才我们说的这个 context engine, 怎么帮助到我们更省 token, 然后更精准,更快呢?那其实 在有 context engine 之前呢?呃,市场上也有非常多的这个 memory 的 插件,整个这个 memory 体系有点像网盘一样。呃,你的 context 内部是一个黑盒的,它到底什么东西该留,什么东西该存,什么时候? compact 其实你是完全不知道的,那在很外围的地方去存取一 一些这个记忆上的东西,那 context engine 呢?其实提供了更细力度的一些,呃,整个生命周期的一些接口,比如它提供了像这个 bootstrap, assemble, 呃, compact after turn 等等。那通过这些 hooks 可以 让你 啊,这个让你这个记忆的插件呢?像这个手术师一样,可以把整个 context 更细力度的,整个生命周期什么时候该存,什么时候该取,什么东西要一直留到最后,那让你参与整个生命周期,这样你就有机会把整个 context 做得更加的精准,更小。那其实大家都知道,因为 context 它相当于你跟这个 ai 对 话的时候的这个上下文的容量,那如果没有这样的一个小手术的去处理,它会带一大堆的废话,那把这些废话去掉之后,不但更快更省钱, 而且呢,它自然这个给这个大模型,呃一个更精准的输入,那自然响应也会更加的完美。那 context engine 是 今天刚发布的,同一天我们就实现了对 context engine 的 支持,呃,也实现了这个更细力度的 context engine。 那 除此之外呢,曼姆九点 ai 还可以实现多加的共享 实时的哦。比如说我们在做一些大的工程的时候,我们会编排,我们会有一个 orcas, orcas 就是 一个编排者,然后他有哪些项目经理一样,然后管理更多其他的龙虾, 比如谁负责写 prd 啊,谁负责开发啊,谁负责做设计,谁负责上线测试等等。那这个时候呢,麦姆九点 ai 呢?只要共享同样一个 space id, 就 可以实时共享这些啊龙虾的一些记忆,那这些是更高级的玩法,我可以在后面的视频里面给大家去分享, 请大家多多关注我,了解更多 open cloud 相关的一些知识。那曼九点 ai 也希望大家多多支持。现在还是免费的,无限的一个存储,走过路过不要错过,我们下一期再见。

大家在做项目的时候有没有发现每一次对话都会调用很多的工具,而且很长一串,而且回复也是很长一串,总觉得每次对话都会浪费很多的对话次数。我今天下午给我的小龙虾配 备了一个插件,就是 maryland 的, 而且我给这个插件配备了一个项链模型,这项链模型是百炼的一个模型,它每天的话,它的工作原理就是每一次对话把你的记忆来解锁,而且一次对话成本很低,一天对话差不多就是几角钱。 我还做了一个记忆分成, later, long and merry 这个东西让我的记忆能够做到,它的工作原理就是把你的记忆用来做冷热中的一个分成记忆,你去用项链模型配合的去用,它每次调用都很精准,上下文也很节约。你看我到后面我配备了过后,现在基本上就是一句话就直接给出结果, 这样很节约我们在做项目时候的时间,还有他的记忆很精准,会丢掉上下文的一些记忆在里面去给到模型去反馈,反馈结果给你。而且你们在用飞速的时候,飞速在对话的时候也会很慢,那你加上这个功能,他对话的效率就会很快。我现在已经把这个功能已经配备到我的 u 盘里面了,大家可以去看一下。

大家一定要记住,为什么会有龙虾?龙虾为什么会这么火?是因为以前的大模型有几个缺陷,包括刚刚企业私有化, ai 没有做好的一个核心点,就首先他是没有记忆的,记你就全记吧,记不下来。大家知道大模型有个叫上下门窗口,上门窗口几百 k 也就存几十万字, 那很多数据都往里 c, 而且它 c 多了还有什么问题?你知道上门太长还你知道什么问题吗?记模糊了就是他找不到重点了, 这就是为什么上就他记了很多东西以后,你就发现他在写东西有时候会变笨,他变笨的核心原因是他以前的东西记太多以后,你再想他的原理什么是根据这么多词的概率推荐下一个词, 当那边词太多以后,他不就模糊了吗?所以他抓不住重点了。所以在在这个很多这个大模型产品里,对记忆都是一个非常头头的东西, 再一个就他也没有办法主动去记,对吧?有的新东西来了,不断出现的事,他也没有办法变成一个重点的归类。所以呢,今天龙虾 tcclor 就 有了文件记忆,文件记忆又分好几层啊,再一个就是定时器,再一个就是用工具,再用机制等等这些。所以你们一定要把这几这两个东西记住,一个叫 cron, 一个叫工具, 这两件事情还有他的记忆。就有的时候我跟三万交流的时候,我会说我们曾经发生过什么什么事,前天我让你做个什么文档,你先想一下,你以为我是真的让他想吗?我让他想一下,是把我关注的文档给他调到他的上文里,他 想完之后他会把那文档吐给你们,他吐给你,过程就装到他大脑里。这个事我在这有次文档跟他讲,所以这里面有个很重要的那个,就是你真的要跟他记忆搞好,要一个长问题,至少分两步,你看刚才我是怎么把一个国产模型用的这么好的, 我都是在跟他分两步,我第一步是说我要一个什么什么你经典啊什么,然后我跟他说,我说怎么样,你这个工作步骤都给我讲一遍,看见没有?这是第一步,就我不会让他直接干活,让他直接干活他就要去把这个任务分的很长,他很多地方就太碎了嘛。所以我第一步让他总结这个工作步骤, 这就第一步,等他总结步骤完了,再再让他去做这第二步,然后再让他发一个测试,这样是第三步, 也就说你今天要真的去理解他的时候你才知道,哦,原来我去训他的时候,我是要一点一点的层层递进的去聊 这个基因怎么去利用它,你去问龙虾,你跟他探讨你就知道了。大家去要 c m c 点 b o t 啊,去下载一键就知道了,就可以跟着我的教程一点点往前走,非常简单的原理,但是得花点时间真正实践养龙虾就用 ez curl。

一个视频告诉你龙虾欧根库奥背后的原理到底是什么。如果你拿大模型给他发一个消息,那么他就会根据你的消息给你一个回复,这样你就得到了一个最原始的 ai 聊天工具。然而,大模型只能根据你发送信息进行单次的回应。你们聊了这一句,忘了上一句,压根无法进行有效的对话。 于是你灵机一动,每次发送新消息时,都会把旧的聊天记录打包一起发过去。有了上下文,模型终于有了记忆,你们终于可以愉快的聊天了。可你很快又发现了一个问题,虽然此时的模型有了记忆,但仍然没有改变你一句我一句的聊天形式。只要你不主动给他发消息,他就原地挂机,不会理你。 可你不可能一天二十四小时守在电脑前给他写提示词。这样一来,他就只能帮你做一些琐碎的小事,无法自动帮你完成一些长期复杂的任务。当然,这也难不倒聪明的你,既然你没办法盯着他干活,那么设置一段程序自动盯着不就好了吗? 于是你动手写了一段简单循环脚本,每次大模型输出后,都让他自己判断任务是否完成。如果判断任务还未完成,那么脚本就自动把刚才的对话记录重新喂给他,让他继续思考。直到模型认为自己已经大功告成,在输出中调用 finish 结束函数,整个循环才停下了。 当然, ai 偶尔也会脑子抽筋,陷入死循环或者疯狂报错。于是你又顺手给脚本加了最大循环次数限制,脚本终于稳定了下来。 这样你就得到了一个简易的 agent, 它可以在你离开电脑时也能独立的思考工作。可新的问题又随之出现,模型累积的上下文越来越长,眼看着就要达到模型的输入上限了, 如果继续循环下去,模型就再也无法正常工作了。你思来想去,突然想到大模型可以提炼长文本的信息,生成简洁的摘药。 于是你在脚本中加入了一个新的机制,如果当前的对话长度逼近红线,就立刻触发压缩机制,通过提示此要求,模型将对话框中几千字废话浓缩成高度精炼的摘药。 这下终于不用担心模型被超长的上下文撑爆了。不过对话框中的上下文虽然被凝练了,但凝练前的那几千字原声记录你也不舍得删,万一里面有啥重要信息以后用的到呢? 于是你让脚本新建了一个 markdown 格式的绘画保存文件,将这段超长对话一字不落的写入该文件,并保存在绘画文件架。 现在对话框只剩下被凝练后的摘药了, ai 又可以愉快的干活了。但你认为这些摘药也是极其重要的信息。你又按照日期新建了一个 markdown 日制文件,将每次凝练后的摘药也存入了进去。 从此以后,你每天都会按日期新建一个日记文件,专门存储明面后的摘药。如此一来,脚本每次调用模型时,只需要将最近两天的日记文件加入提示词,就能立刻唤醒他的近期记忆了。 就这样,模型拥有了自己的短期记忆。可是光有两天的短期记忆还不够,你想要给它完整一生。于是你又新建了一个叫 memory 点 m d 的 长期记忆文件,将摘录中的那些长期结晶,如用户的私人偏好、项目、重大决策给抽取出来,写入其中, ai 就 拥有了它的长期记忆。 你的脚本只需要带着近期日记和长期记忆去唤醒 ai, 它就能自然流畅的进行长期任务了。而你所保存的完整绘画记录也不会闲着,如果需要 ai 回忆某个久远的细节,它就能去绘画文件夹里一字不落的搜索出来。 有了这套丝滑的记忆系统,你再也不用担心 ai 失忆了,它们就保存在你的硬盘里,直到永远。现在 ai 的 记忆问题解决了,但还有一个问题让你头疼,模型只会输出文本,你该如何让它操控电脑干活呢?一开始你想的简单粗暴, 计算机的底层不过是一些代码命令行,那么直接丢给 ai 一个最高权限的射奥终端,让他直接生成底层的命令,不就能操控电脑了吗?可真正尝试后才发现,这是一场惨不忍睹的灾难。目前的 ai 并不可靠,一个小小的幻觉都会让你的电脑崩溃, 无奈你只好放弃这条危险的底层直连。你想到之前工作时写过一些简单的功能性程序,比如发送邮件、抓取网页的脚本,这些脚本由确定的程序编写,只需要输入相应的参数,就能自动执行并返回确定的结果。于是你灵机一动,将这些写好的程序整合到了你的平台中。 现在你不需要 ai 直接敲代码,只需要让它根据不同的任务脚本生成对应格式的 jc 参数,就能通过这些脚本间接操控你的电脑,不管是浏览网页、整理表格,还是直接读取屏幕、操控鼠标, ai 都能轻松完成。同时,你也给这些脚本起了一个响亮的名字, skill! 一个极其清亮、即插即用的技能拓展框架。未来你还打算将平台全面开源,这样全世界的开发者都能编辑上传各种各样的 skill, 你 的 ai 也将会越来越强。 最后,为了能够让 ai 随时随地的在电脑上接受你的指令,你将平台的网关打通,让模型通过 api 接口与主流的聊天工具对接。 现在,你只需要掏出手机,就能像和朋友聊天一样,在手机上和你的 ai 助手沟通了。恭喜你发明了开源的自主 ai 智能体 openclo, 你 知道他可能还不够完美,但你不会放弃优化,相信终有一天你能做出像人类一样工作的 ai 助手。

用了一个月小龙虾才知道,发个斜杠 stop 就 能终止任务。我是清澈君,今天把最常用的 openclaw 命令一口气给你讲完。任务卡住了,你是不是只会盯着屏幕干等,或者直接关掉重来?其实根本不用,问题在于很多人压根不知道有命令可以用。 先说清楚一件事, openclo 的 命令分两层,聊天框里发的是日常控制,斜杠开头发完即生效。终端里跑的是底层服务管理。 openclo 开头负责诊断和兜底。两套命令各管各的,别搞混。 聊天框里三条命令记住就够了。斜杠 stop, 立刻打断任务跑偏直接停。斜杠 restart 两秒重启,助理没反应,先试他。斜杠右清空重开,想换模型或者上下混乱了,用这个这三条覆盖你百分之八十的日常场景, 回复变慢或者答非所问。先发斜杠 start 五秒,看清模型和连接状态,上下文太长,拖慢了。发斜杠 context 看哪些文件占了多少 token, 不 想清空但又太满。发斜杠 compact, 压缩历史,保留关键信息。 终端里六条后手备着 open claw doctor 健康检查。装完或者跑不动先跑一遍 open claw logs 加 follow 实时追日制任务,在跑不知道进展时用它 open claw crown list, 看定时任务清单, open claw status 加 usage, 查模型用量和安全审计 好,全部梳理完了。聊天框三条,先背熟, stop restart new, 终端背一条 openclaw doctor 完整命令,列表在 openclaw 官方文档里,但这几条用熟了,够你应付大多数情况。遇到哪个命令用不明白,评论区说一声,我看到就回。

很多人在养龙虾的时候,都会遇到一个特别头痛的问题,就是龙虾会失忆,会记忆错乱。比如你昨天跟龙虾讨论一个项目,聊得特别好,今天打开对话,龙虾居然完全不记得了。大家好,我是洛新,今天我跟大家聊一个 open club 的 记忆逻辑专题, opencloud 的 记忆,我们要如何去建立?龙虾居然完全不记得了,这其实不是龙虾的问题,是因为你的龙虾默认没有开启长期记忆。如果你在用 opencloud 的, 其实可以给龙虾建一套记忆系统,让龙虾像人一样慢慢积累知识。 比如我们可以把记忆分成三种,第一种是每日记忆, a r e。 每天的对话都会记录在一个文件里,比如 memory 二零二六零三幺四点, md 当天发生的事情全部记录下来。第二种呢,是长期记忆,把最重要的信息整理到一个文件,叫 memory 点 md, 这个文件就像 a r e。 的 长期大脑一样。 第三种是叫主题笔记,比如项目经验、技术知识、工作方法,全部整理到 note 文件夹,这样 a r e。 的 知识就会越来越系统, 就像一个不断成长的助手。整个工作流也很简单。每次绘画开始的时候, a r e。 会先读取昨天的记录,今天的记录还有长期记忆。在聊天过程中,如果有重要的信息, 就会立刻写入日记,等绘画结束的时候,再把重要的内容蒸馏到长期记忆,这样时间越长, a r e。 就 会越懂你。而且还有一个重要的规则, 不要相信自己的记忆,所有重要信息一定要写下来,脑子记住的东西很容易丢失,但写下来的知识可以一直保存。这种 a r e 长期记忆系统,我们可以在飞书机器人里进行配置。 它的具体工作目录是这样的,在 workspace 下面建立 memory, 然后记录每日的情况,还有备份,还有 note 新增的这些 目录。针对刚才所述的重构龙虾的记忆逻辑,我已经给大家整理好了一个安装工具,大家如果需要可以找我领取。这里非常清晰地展示了每个部分的作用, 安装到新电脑里也非常简单。把这个解压包下载下来之后,直接放到你的 workspace skills 和 memory system 下就可以了。将以下文件复制到根目录,然后重启 open class 使用方法也非常简单,安装完成之后,直接告诉 a r e。 可以 使用记忆功能,请查看当前记忆状态,请备份当前记忆,请读取 memory md, 这样你的龙虾就会拥有长期的记忆功能。如果你想了解更多 opencloud 的 高级玩法,记得点个关注,我会持续分享。好,今天我们就讲到这里。

所以说最后的结论是,它其实不是百分之九十九,它大概是百分之九十五左右。所以呢,上述的那三个决策又导致了我们,呃 input 输入的这个 token 就 直接消除了百分之九十九, 这就是那个百分之九十九的来源,就是因为输入的 token 蒸发掉了,我不需要这么多 token, 我 原来平均一条消息的平均 input 一 输入的 token 是 二十七万,我现在几乎忽略不起。为什么? 原因在下一页,在下一页还是下一页?原因在下页,原因在下一页,下一页给你们揭晓谜底,下一页这是为什么?峰值刚开始从一百二十八万,现在降到了低于一千,说降低了十倍,一百倍,一千倍降低了一百二十倍, 从一百二十万到低于一千 cash read 一个投分从五到了每次大概二十五万到八十五万,这其实就是我们的音库,我们的输入从二十七万降到五,那他去哪了呢?那海量的那些上下文记忆去哪了呢?他,如果, 如果你只是输入五到十个 token 给模型,那他给你,给你吐出来的这个结果不会是想要的。如果你每次输入就输入十个 token 给他,这个什么就大概就是五六个字,你每次就输入五六个字给他模型,你能指望他模型能够给你? 显然是不现实。那怎么我们的那个 excel 透根输入大概就是十一点?那就是因为这个外加个底子膜,因为我们用的叫做一个叫做 prompt cash 的 一个一个缓存,这是一个提示词的缓存。 那其实什么呢?他其实是如果你有那些固定的背景文件,比如说你的角色设定文件啊,你的售啊,你的,或者说是你的行为准则文件,你的一进就这个售点 m d 和这是你的角色设定文件,一个 a 进去点 m d, 这是你的行为准则文件。所有的龙虾机器人都是这两文件,这两文件有的人会写很大,写什么上千什么, 但你每次都把这个几百万上线往我心那扔,那肯定我心每次吃都吃很饱,但你每次如果都扔同样的文件进去,那其实你从第二次开始,那就是浪费。 所以呢, top 就 设计了这样的一个机制,他就是能够将这些固定背景的这些文件去进行长期固化,变成一个缓存,它的触发是什么?它触发是如如果它识别到了前缀是完全相同的,那么它会自动的去命中,命中福气上面的缓存。 意思就是说你这个稿子我见过,就说我不需要再读一遍,我只要看到你的稿子的那个标题,跟我之前你存在你上次给我看的标题一样,我就做就是同一篇稿子完了, 所以这种发送出去就是我如果是一个二十七万头更的这样一个基础知识文档,那是让我也只需要存一次,哪怕我,我的售文件和我的 a 级文件非常长, 你在场,你到我这里来,你只需要存一次,你放进来,我只需要单独处理那一次。你从第二次起你跟我对话的时候,你用同样的这个 so 文件和这个 ag 文件,那么每一次我去读你那个缓存的时候,它的价格其实只有我直接去触及七万投款的价格的十分之一,这就使得 我们最终的价格能够被打下来。所以说最后的结论是,他其实不是百分之九十九,他大概是百分之九十五左右。他百分之九十五是因为在这里有一个固定的百分之九十的成本, 百分之百分之十的成,百分之十的成本,百分之九十的节省。你在前面的 input 节省了百分之九十九,你在这个缓存上节省了百分之九十,所以说中间大概拉平了之后大概百分之九十五。要注意,百分之九十五的节省是多恐怖的事情,非常恐怖。 如果你每每个月要消耗两千块钱去在 top 上,那百分之十五的节省就是你能够把你的 top 成本除以二十。就说你从原来每个月要花两千块钱,变成你以后每个月只花一百块钱,但是你干的事情其实跟原来两千块钱, 你负责干大事,内容交给龙虾。

当你跟龙虾对话的时候,他不理你了,但是你打开龙虾的网页版呢,又好像是正常的,这个时候呢,大概率是上下文满了,你就输入这个指令,开启一个新对话就可以了。 如果你觉得当前页面的对话不适合留下来了,有隐私的问题了,你就输入这个指令清除他。 如果你既不想开启一个新对话,也不想删除当前对话的内容,那你就输入这个指令,这是上下文压缩。 如果你有点担心,想了解实际的使用情况,你就用这个指令。这个指令输入之后呢,就会告诉你当前的机器人用的啥模型,上下文总共使用了多少,百分比等等都在这里了。 如果你觉得你的龙虾是个话痨,你希望他回答的简洁些,你就用这个指令。但有些时候呢,你又希望他能够对一个问题进行深度的解释,你就输入这个指令。 如果你的龙虾配置了好多个模型,但是你想切换那个默认的模型,你就输入这个指令,先查询,查询完之后呢,你再输入这个指令,就可以切换到 glm 五了。 输入这个指令呢,你的智能体就会告诉你他具体能为你干什么。输入这个指令呢,他就能够帮你列出来他现在可以用的所有技能。 输入这个指令,选择昂或者 off, 就 会开和关。他的推理过程就是你在用推理模型的时候,那个推理的过程显示还是不显示。 当你跟龙虾聊天,你觉得聊不下去了,或者你想换个话题的时候,你就让他闭嘴,输入这个指令, 看完了大白的视频,你还是记不住这些指令,你就输入 help, 所有的指令就都跳出来了。

说说一个自动记忆刷新,这个自动记忆刷新就是当你的上下玩儿比较长的时候,快满了,它就会自动触发这个 压缩,我们也可以手动触发杠 compact c o m p a c t 然后嗯,这个会导致什么呢?就比如说如果你发了一句话,他回复 no reply 的 话,嗯,他有可能是在嗯压缩他的上下文窗口, 嗯,但是这个按理说他也是不会看到这个回合,你看,因此用户永远不会看到这个回合。但是现在我们的这些,包括杜康呢?包括这个 q 康, 他都把这个就输出了,所以说我们是可以看到的,并且在这个压缩的过程中会有一些卡顿。

你的小龙虾是不是聊到一半就开始失忆了?说好的需求,聊着聊着全忘了?我是清澈君,今天这期就教你彻底治好这个毛病。 先说说常聊失忆到底有哪三个表现。第一,聊到后半段,之前约定好的事,他突然不认了, 你得重新解释一遍。第二,上下文窗口满了,最早的消息直接被系统砍掉,没备份,真没了。第三,就算你自己手动搭了 memory 文件体系,也扛不住 delete, 日制膨胀到限额七倍,搜索一直是坏的。说白了,对话越长,记忆越不可靠。 注意,核心观点来了,这其实是两个独立的问题,要分开解决。第一个,对话内记忆就是当前,这次聊天上下文满了怎么办?这个靠 lcm 来管,聊着不忘。第二个,跨绘画记忆,下次新开一个对话,怎么让他还记得之前的事?这个靠 memory 文件来管, memory 到 md 做缩影, topic 存决策 daily 记日记,两个问题,两套方案别搞混! 那原来我们是怎么做的?说实话,只解决了一半之前的方案, memory 点 md 做缩影, topic 存决策 daily 记日记,新绘画开始,先读文件,恢复上下文,这套跑起来还不错,跨绘画是管住了,但问题在哪?你看对话内上下文满了,还是照样硬砍? 管不了这一半的问题一直悬着没解。重点来了, l c m 的 机制,听仔细,他做了一件很聪明的事,上下文快满的时候,他不是直接把早期消息删掉,而是把他们压缩成一张摘要卡片,放回上下文里。原文呢,存进本地 c g l 的 数据库,永远不丢,你随时可以翻出来看。 而且摘要卡片多了,他还会再合并成更高层的卡片,层层嵌套。越早的对话越精炼,压缩不删,原文永存。就这八个字。 装完之后,你会感受到三个变化,第一,对话不再突然失忆了,一百轮以上,前后一致,说好的是他一直记得。第二,你的 save 习惯会变,以前是焦虑式落盘,怕丢就频繁存,现在可以从容了,只挑真正跨绘画有价值的结论存下来。第三, 新绘画信息不够时,直接用 lcm grab 搜旧对话补充,就算你忘了落盘也不会断档。 装 lcm 的 同时,我也顺手改了几个配套设置,修复了一直坏着的 memory search。 这个坏了很久了, 引白顶切到了远程服务,效果更稳。 daily 日制上线,从二千字节砍到一千字节,只计结论不计过程瘦了一半,还取消了那个上下文超百分之六十就赶紧落盘的过度防御规则。有 lcm 兜底,百分之七十五才需要处理,不用那么紧张了。修旧补新,系统整体升了一个档次, 当然也有几个局限,我不想藏着掖着。第一,摘药质量取决于你用什么模型来压缩,模型太便宜,可能把重要细节给摘丢了。第二, lcm 是 按绘画存的,跨 agent 的 信息共享,还是得靠 memory 文件和手动落盘, 这块他管不到。第三, cglide 的 数据库会持续增长,长期用要关注一下体积,别长到没人管。了解这三点,合理用就行。 好一条命令,三分钟搞定终端离跑。 open crawl plugins install at machine engineering lossless crawl, 十六个 agent 全部覆盖,装完就生效。装好之后顺便体检一下你的 memory 体系, 哪些文件该瘦身,哪些规则该松绑,借这个机会一起收拾装好的扣一,或者把你现在的 memory 配置贴评论区,我帮你看看有没有能优化的地方。

提起 open klo, 也就是龙虾,你应该已经看到很多人说它能操作电脑、自动完成任务等等。但对大部分人来说,一方面它依然是一个很模糊的东西, 另外一方面我们还要去处理工具快速迭代带来的焦虑和疲惫。所以这期内容我会解释五个重要的概念,也是五个可迁移的知识,帮你清晰的看待 open klo 的 同时,也能让你更好的理解其他的 ai 产品,希望这些知识可以在未来更长的时间里对你有所帮助。 下面我们正式开始从大语言模型诞生,就很重要的概念之一就是上下文。这是个带点迷惑性的概念,因为很容易理解成我们跟 ai 的 对话记录,实际上它包含了更广泛的信息。 简单来说,上下文就是你的 ai 在 为你输出答案的那一刻,它能拿到的用来参考思考的所有信息。 早期拆 gbt 那 类聊天机器人,它们的上下文比较简单,包括系统级的提示词,你跟 ai 之间的对话,你上传的附件等等。 后来聊天机器人可以联网搜索推理思考那搜索的结果。推理思考的过程也属于上下文。等到了 ai agents, 也就是 ai 智能体,它的上下文又复杂了一些,因为它可以调用工具,所以又多了工具调用记录、外部集成数据之类的。 opencloud 也属于 ai agent, 假如你把它装在了本地,那么除了上面提到的那些,它还将包含你的计算机状态、本地文件等等。 总的来说,上下文的类别是越来越丰富的,不过反直觉的一点是,并不是我们给模型提供越多的上下文,它就能越好的工作,因为模型始终有一个硬性限制,也就到了第二个概念,上下文窗口。 如果你用过二零二三年的拆机 b t, 那 你一定经历过。在一个对话里面聊了一段时间之后,慢慢的 ai 的 回答开始偏离主题了。 这大概率是受到了上下文窗口的影响,这是所有的 ai 产品,当然也包括 opencloud 都绕不开的硬性限制。 我们跟 ai 交互的过程会不断产生上下文,模型要依赖过去的上下文去完成现在的工作。然而上下文窗口它划定了模型能够看到的信息的范围,一旦超出了这个窗口,那更早的信息就被排除在外了。所以很多时候 ai 的 跑偏不是它变笨了,而是它失忆了。 模型的上下文窗口一直在不断的扩展,理论上我们现在可以塞更多的上下文给模型了,但也出现了新的问题要去考虑。比如历史信息太多导致模型依赖过去,而不是重新推理 无关的信息。他不断的挤压上下文空间,导致模型使用了错误的工具或者指令。所以问题的关键从如何提供更多的上下文,变成了如何在正确的时间提供正确的上下文。于是记忆系统被设计了出来。 记忆系统是解决这个问题的一个关键部分。默认情况下,模型的上下文窗口它只属于短期记忆,而这些记忆只在当前对话有 效。如果你新开了一个对话,那这些记忆是带不过去的。有了记忆系统之后呢?它会从你跟 ai 的 疑问一答当中提取关键的信息,保存下来去作为长期的记忆,到了需要的时候,系统会主动把其中相关的部分拿出来使用。 我们来看看 open 可乐那套透明的记忆文件,来更直观的理解一下。 so 是 你给你的龙虾定义的人格,包括它的价值观、边界,表达风格等等。 user 是 你的龙虾对你的理解,它在为谁工作,该怎么称呼你之类的。 memory 就是 我们前面提到的会被精心维护的长期记忆,包括重要的事件、重要决策等等。还有一个 memory 文件夹,里面是暗天记录的流水账, 每次新绘画启动的时候, open cloud 就 会一一地去读取这些文件。这就保证了随着时间的推移,你的龙虾依然能够在处理不同任务时保持一致性。 上下文和记忆系统解决了 ai 知道什么的问题,而 ai agents 最大的突破在于它可以动手。也就到了第四个概念, skills 技能。 从普通用户的角度看,过去几年一直被强调的基础能力是写好 prompt 的 提示词。现在使用 skills 正在成为另一个基础能力。 我们安装了 open class 之后,它并不是直接就可以开始各种动手操作,而是取决于你安装了哪些 skill。 以我目前安装的为例, layrite 可以 真实操作浏览器,点击页面上的元素等等。这两个都是用来引导我的龙虾进行记录和自我反思,自我成长的。这个会调用 nano banana 去生成或者编辑图片,而这两个本质上都是结构化的方法论指导龙虾去完成数据分析市场研究。 现在你可能会疑惑,像数据分析、市场研究这样的事情,用一套结构化的提示词,或者直接去用深度研究模式不是一样可以完成的很好吗?是,但也不全是。首先, skill 的 一个重要特征是让任务处理的流程标准化,并且更加稳定, 尤其是在处理那些有标准流程、有成熟框架的任务的时候。而提示词或者深度研究模式则会每次都重新思考,重新规划。 比如我们去看深度研究模式的研究方案细节,会发现即便一模一样的提示词,它每次处理任务的路径,甚至分析的重点可能都不一样。其次,要使用提示词的话,你需要先想一下这个任务应该用什么样的提示词, 然后去设计或者找一个模板再去使用。而 skills, 它是可以通过自然语言当中表达出来的需求被自动触发的。也就是说,在理想情况下,你 不需要刻意去调用某个 skill, 而是直接描述你的需求。比如帮我分析一下现在的形势下,在县城开个咖啡馆还可行吗?它就会自动出发市场研究这个 skill, 跟你一起完成分析 或实际在使用 openclaw 的 过程中,经常出现不理想的情况,他可能不会主动调用那个合适的 skill, 要靠我们去提醒他。顺便说一句,要让 openclaw 稳定运行起来,这中间要经历很多的磨合调试,这是一个不仅消耗很多 token, 也消耗很多心力的过程。 如果你也遇到过一些困惑,或者有宝贵的 open class 使用经验,欢迎在分享。 skills 给 ai 装上了手,但是到目前为止,它还不算一个合作者,顶多算一个执行者,因为你不开口,它就永远不动。 最后一个概念自主触发,要做的就是让 ai 可以 主动出手,但如果只是能够定时执行任务,那一点也不稀奇。不仅很多传统的 app 会,你家的热水器、电饭煲也都会。比如每周五下午三点生成一份周报。 顽童的处理方式很直接,到点就去执行,不管你是不是在休假,或者你已经写完周报了。而 open cloud 引入了一个叫做心跳的机制,它不是按时执行,而是按时判断。 每隔一段时间,它就会醒过来,扫一遍当前的状况,然后去判断现在有没有什么事情需要它去做。这 判断会结合上下文、记忆、当前环境等等去综合的评估。比如有一个文档十分钟之前有人评论了,但是没有人跟进,那我要不要去提醒一下?或者现在一切都 ok? 没什么好说的,我先退下了。这个没什么好说的,那就不开口的设计也是一个关键点。 传统的自动化系统最容易出现的问题就是一直给你推送,一切正常,一切正常,久而久之,真正重要的题型也被忽略掉了。所以说, open cloud 的 心跳机制,它的核心价值不只是主动,而是有判断的主动。现在让我们回过头,把前面提到的概念串联在一起, 上下文给 ai 提供了思考的依据。尽管有上下文窗口这个硬性限制,但记忆系统实现了让 ai 在 工作中始终保持一致性。 skills 让 ai 具备了动手做事的能力而主动触发,尤其是 open cloud 的 心跳机制,让 ai 可以 自动感知判断之后再去做事。 以上就是这一期的全部内容了,如果你有所收获,欢迎你或者在参与讨论,这会对我非常有帮助,那我们下期再见。


给大家推荐一个我自己在使用的提升小龙虾记忆系统的方案,这是前段时间一位国外的技术大佬分享的方法,那我自己用下来感觉不错,所以推荐给大家。 首先我们要弄清楚他默认的记忆力为什么会差,其实就四个原因,第一,保存时机太晚。 第二,保存内容不够准,而且工具输出很容易会把上下文撑爆。第三,默认很难直接回查原始绘画。 第四,一旦开始压缩上下文,很多细节就会被忽略,那么他的记忆文件夹只有两个,一个是短期记忆,一个是长期记忆。问题就在于短期记忆一旦装满系统就会开始压缩,也就是把旧内容压缩总结, 那如果重要的信息没有来得及写进,长期记忆细节就会容易丢掉。所以我们要升级重构这套记忆机制,核心目标就是让该写进长期记忆的东西能更早更准的写进去。 好,下面进行具体的配置。第一步,我们要先把记忆文件结构给理顺,把这段提示词发给他,让他去创建几个目录。 为什么要先做这一步呢?因为默认情况下,他会把所有的记忆往一个文件夹里面堆,那这样最大的问题就是后面他在解锁的时候,重点会越来越不清楚,所以这里要做分层。 这样做的好处是后面他在回忆信息时会更容易拿到对的东西。接下来改。第二层是先保护最近对话,再处理上下文膨胀,把这段提示词发给他。 因为小龙虾的诗意很多时候不是完全没有记住过去,而是因为他最近刚说完的内容被压缩了,所以这里要做几层保护,让压缩更保守, 把最近大约两万头肯划成一个优先保护区,这样刚刚讲过的任务目标修正约束不会被总结掉。 然后再按轮次加一层保险,最后四轮对话完整保留,不做摘药。也就是说,既按 token 保护,也按轮次保护,那其他几个参数主要就是给当前的任务留足空间。接下来我们改 memory flash, 默认的 memory flash 有 两个问题,第一是出发太晚,第二是写进去的内容也不够精准,把这段提示词发给他,让他去修改。 注意,这里为什么要加一个 no flash? 因为不是每次聊天都值得写进长期记忆,如果没有这个约束,他很可能为了完成任务,就会硬写一堆没有意义的摘药,那时间一长,日制里全都是噪音,就是垃圾太多了。 ok, 到这一步,其实结构化的记忆已经比默认状态好很多了,但是我们还需要安装一个最强的引擎,就是 qmd, 你 直接把这段指令发给他, 那通过安装和配置 qm d 插件,就能实现全量缩影,让 ai 能够对原始对话历史进行关键词加语义的双重搜索,也就是向量解锁。 最后还要给他加一个规则约束的指令,把这段发给他。 那改造完这整套记忆结构,我们自己平时也要养成个好习惯啊,如果是重要的信息,你就要告诉他保存到记忆中。 在每一次长绘画结束的时候,你让他给列出来应该保存的关键信息, 然后每周回顾一次记忆文件,要删掉一些没有用的信息。 ok, 做完以上这些步骤, 小龙虾的长期使用体验就会得到巨大的提升。每段提示词我都放在了视频简介里,如果有需要的朋友,可以自行去复制发给你的小龙虾。

你的龙虾是不是聊完就忘?每开一个新绘画就像失忆了一样,三个方法让他从金鱼脑变身最强大脑。一、分层记忆,第一层是核心记忆,叫 memory 点 md, 你 的喜好、习惯、目标全都记在这里。第二层,日记忆,每天一个文件,这就是龙虾写日记的地方,今天让他干了什么,和他聊了什么都记在这里。第三层,进化日记,他每次犯错,每次升级,每次 get 新技能都记在这里,相当于他的成长档案。第四 层, get 历史,所有记忆文件自动提交, get 随时能回滚,永不丢失。二、上下文精简,设置一个自动定时任务,让它每天凌晨把当天的对话自动提炼成二十条核心要点,存进日记,然后开启新绘画,这样既节省 copy, 速度还会更快,还可以防止记忆丢失。 三、深度总结,设置一个每周或者每月一次的自动定时任务,把日记忆里的东西再次提炼和精简,变成核心记忆,存 存在 memory 点 md, 就 像人类睡觉巩固记忆一样,龙虾把它白天学到的东西,晚上变成长期记忆。下期我会讲讲多 agent 的 管理办法。这套四层记忆系统我已经打包成了 skill, 如果你愿意关注的话,我可以把这套记忆系统文字版配置流程发送给你,只需要回复要或者不要,现在你可以回复我了。

近期,太原 ai 智能体欧本科奥龙下凭借本地部署自主操控电脑的能力,成为 ai 辅助开发的热门工具,但底层参数配置一旦出错,就会造成巨大资源浪费。本次核心任务是对应的 tree s d k。 二 python s d k 进行全维度梳理,形成标准化文档与测试脚本。 实际执行中, ai 只完成了目录创建,后续工作全面中断,陷入执行中断、重试的死循环,没有任何有效成果, 却在夜间消耗了超百万级无效 token, 严重耽误进度。问题根源并不是模型性能或工具缺陷,而是两处核心参数被不合理手动配置。一是 context window 上下文窗口手动设为一万六千,远低于模型原声上限。二是 max tokens 单次最大输出 token 手动设为四千零九十六,限制了单次输出长度。配置的初衷是想降低 token 消耗,却忽略了工程化分析最大容量上下文的需求。 s d k 分 析需要读取多文件源码, 记忆目录结构,留存历史结论。过小的窗口反而成了性能瓶颈。 context window 代表模型的总上下文容量,可以理解为模型的短期记忆。一万六千的容量太小,系统会自动压缩数据,导致核心信息丢失,模型记不住项目进度, 只能反复从头开始。 max tokens 控制单次推理的最大输出长度,四千零九十六的限制无法满足工程文档和完整代码块的生成,输出会被强制截断,无法生成完整文件或使模型不断重复请求,这样就形成恶性循环。 上下文不足导致记忆丢失,输出截断导致任务无法完成,两者叠加引发无限重试,最终 token 疯狂消耗, 任务却毫无进展。解决方案非常简单, openclaw 本身具备模型参数自动适配能力,没有手动配置时会自动使用。模型的最大上限,我们只需要删除配置文件里的 context window 和 max tokens 这两个限制参数,保存重启后重新下发任务即可, 效果非常明显,任务效率大幅提升。 ai 可以 快速完成全部工作,精准判断底层通信架构,生成完整的架构分析报告,整理全部 api 接口文档,输出对应的拍丧测试脚本,完成统一配置文件参数。缩线并不是不能用,而是要看场景。适合缩线的场景 轻量级交互,比如简单查询单行代码修改普通问答,或是硬件资源有限的环境,可以降低消耗,提高速度。不适合缩线的场景 工程开发、项目分析、长文档生成、批量代码编辑等复杂任务,这些对上下文和输出长度有硬性要求,强行限制一定会崩溃。核心原则, 简单任务适度缩线控成本,复杂任务放开限制保效率,不要一刀切,给大家一个实用的配置。建议复杂任务直接删掉 context window 和 max tokens, 让系统自动适配。手动配置可以参考 常规工程 context window 不 低于八万,大型项目拉满到模型上线, max tokens 建议设为一万六千三百八十四。如果遇到 ai 失忆,输出截断,任务卡住, token 消耗异常,优先检查这两个参数。最后提醒大家, token 成本要看有效产出率,一次完整执行的成本远低于无数次无效重试的总和,提升效率本身就是在节约成本。

当你不小心安装了个 open curl, 然后发现 token 消耗刹不住了,而且非常健忘。你直接给我去 guitar 输入 cloud man, 你 会发现这是一颗能给你的龙虾赋予持久化记忆的插件。以后你就能像看朋友圈一样,实时看到你的 open curl 到底记住了些什么,而且还能节省百分之九十的 token 消耗。之后你又不小心输入 open viking, 更牛的来了,这是一个专门为你的龙虾设计的开源上下文数据库,它能让你的多个智能体之间共享信息,直接结束那种无法协助的智障模式,而且还能让你的书 token 成本降低大概百分之九十六,任务完成率直线上升。有了它们,你的大龙虾会越来越聪明。这么好的东西,不给你的龙虾配一个吗?