你是不是经常碰到这种情况,跟 open call 聊着聊着,他突然好像失忆了一样,完全不记得前面说过什么了。或者你聊完一个话题啊,切到下一个话题的时候,他好像变了一个人, 之前说过的事情呢,全忘了。这种情况特别让人抓狂。但其实呢,他不是 bug, 而是我们不了解 ai 记忆机制到底是怎么回事。今天呢,我一次性把这件事讲透, 我会告诉你啊, opencloud 的 记忆到底是怎么运转的,然后教你做一些简单的配置,让你的小龙虾真正做到过目不忘。今天学完之后啊,你也可以做到 opencloud 这样的 ai 智能体呢。它的记忆啊,分成两类,一类啊是短期记忆,一类呢是长期记忆。 短期记忆就是你这一次跟他对话的内容,也叫做上下文啊。在这一次对话里面呢,他会一直记得你说过的话。 但是短期记忆能记多少,取决于模型的上下文窗口有多大。比如我们现在用的 gpt 五点四,它上下文的窗口呢,大约是两百五十六 k 个 token, 也就是二十五点六万 token。 那 么 cloud opus 呢,最大可以达到一百万个 token。 窗口越大,一次能记住的内容就会越多,但是一旦内容超过了窗口的大小,他就会开始压缩,丢弃最早的信息,这就是你突然感觉到他失忆的原因。 你可以把短期记忆想象成你的工作台,桌面空间是有限的,那东西堆的多了以后啊,最底下的就被压住了,找不到了。 那长期记忆呢,就是把过去跟你发生过的事情保存到硬盘或者数据库里面,下次聊到相关话题的时候呢,他就会自己到数据库里面去搜索,把相关的内容提取出来。 所以长期记忆的容量几乎是无限的,关键在于他能不能在需要的时候准确的找到,并且回忆起来。 这就像是你的档案柜,东西都在里面,但你得知道怎么去翻,什么时候去翻。所以现在你就明白了,大多数人觉得 ai 老是失忆,本质原因啊,只是在用短期记忆,没有把长期记忆呢建起来。你指望工作台上堆下所有的东西,那迟早要塌的。 那么接下来我就会分别告诉你,短期记忆怎么管,长期记忆怎么建。 那么 openclaw 的 短期记忆要怎么管理呢?在默认的情况下啊,如果你一直跟它聊,那上下文确实会越来越长,尤其是各种工具调用啊,结果呢,会不断地堆积。但这里啊,我要补充一个细节了, openclaw 不是 完全不管上下文的,它其实可以通过一个叫做 context proning 的 配置去做自动的瘦身。 那么这段配置的意思啊,是,当这个绘画闲置超过两个小时以后呢,系统会自动裁剪旧的工具,结果比如解锁片段文件提取内容命令输出等等, 它会被替换成占位符或者摘药。而用户的核心对话消息呢,会优先保留下来。你可以把它理解成一个轻量级的自动清理机制,它能帮你控制 token 的 消耗。 但要注意啊,这个机制解决的是上下文太胖的问题,不是你已经换了一个新话题的问题,他会帮你瘦身,但不会准确的知道你现在是不是应该彻底翻篇了, 所以如果你一直聊啊,那上下文还会不断的累积的,用的越久呢,窗口还是可能会越来越满,满了之后啊,系统就会进行压缩了,那么最前面的内容就开始丢失,这也是为什么很多人会觉得透支消耗的特别严重。 有人可能会想,那是不是上下文窗口越大越好呢?其实不是,因为窗口大了以后啊,有两个代价,第一个代价就是 token 消耗惊人。 比如啊,一个一百万 token 的 窗口聊满了以后啊,你每对话一次啊,他就要消耗一百万的 token, 你 跟他聊十次呢,就是一千万呢, 新闻里看到谁一天消耗了几亿 toc, 其实就是窗口开的太大了。第二呢,速度会变慢,因为 gpu 资源消耗也大得多。目前呢,有些开源项目,比如说啊, lostless clock, 它试图解决压缩丢信息的问题, 它的思路啊,就是把被压缩掉的这些原始的内容啊,存到外部数据库里面。那么每次对话的时候呢,再恢复回来, 想法很不错啊,但没有解决根本问题,因为你并不需要 ai 记住每一句聊天记录啊,你上一话题聊的是编程,你现在开始聊内容规划,你真的需要它记住刚才每一行代码吗? 所以我认为啊,管理短期记忆最好的办法不是安装复杂的插件啊,而是养成一个简单的习惯,聊完一个话题就输入斜杠六这个命令呢,会做两件事, 第一啊,把当前的对话记录归档到 memory 目录下面,按时间戳来保存。第二呢,它会清空上下文窗口,重新开始, 你只要养成这个习惯,两百五十六 k 的 上下文空间在正常使用情况下完全够用,头壳消耗呢也会大幅度的下降。但你可能会问,斜杠六之后,那前面聊过的东西不就全部都清掉了吗?每次都要重新介绍一遍啊? 不会,这就是长期记忆要解决的问题了。 那我们怎么建立起长期记忆呢?如果你想要看完整的配置,我所有的配置文件的细节,欢迎你来到范凯说 ai 社群。
粉丝1.7万获赞3.6万

要让 openclaw 成为我们长期的合作伙伴,他一定要具备一个稳定且持久的记忆系统。那这两天我发现我在跟 openclaw 聊的上下文比较长的时候,他会遗忘我们之前提到的一些内容,比如说一些经验教训或者方法论, 那我就去找了有没有这样能够让我们的记忆搜寻更加的准确,不会遗忘的。开源项目也被我找到了,它叫 memory linuxdb pro, 那 它用到了一个向量数据库,叫 linuxdb, 你 可以理解它就是我们跟 ai 聊天历史的一个仓库,那未来当我们提到类似的内容的时候,它会从这个仓库当中帮我们精准的提取出来。 那如果不用它, openclaw 默认的记忆机制是什么呢?它会把我们的聊天历史放在一个文本文件当中, 当我们提到与之类似的内容的时候,它会通过文本匹配从这些文件当中来提取,那文本匹配相比向量匹配,它的准确率就会低很多。而这里面的 lsd 就是 一个向量数据库,它是通过向量匹配的方式来提取的, 那提取的准确度和稳定性就会高很多。所以推荐大家去安装这个开源项目, 它是真正可以让你的 openclaw 具备一个持久且稳定的记忆系统的,那安装起来也很方便。你可以把这个地址扔给 openclaw, 让它帮你安装好那需要的一些 apikey, 它也会告诉你,你对照着安装就可以了。

你们有没有这样的经历,头一天晚上刚弄到一半的项目,第二天你的 openclaw 就 已经完全记不得了,甚至只会回你一句,又是美好的一天啊! 而这是大多数刚接触 openclaw 的 用户都会遇到的事情,失忆?那如何才能让 openclaw 记住更多的事情,减少失忆带来的影响呢?首先咱们需要先搞清楚为什么你的 openclaw 会失忆带来的影响呢?首先咱们需要先搞清楚为什么你的 openclaw 会失忆。 我们刚用大模型时都会有一个上下文长度,现在普遍的都在二百 k 左右,当单次对话的上下文快满的时候,系统会自动压缩旧内容,就有可能导致一些记忆被遗忘。 并且当你开启一个新对话,就会又从零开始,没有任何持久记忆体验,就像咱们用网页端 ai 工具一样,没有任何的连续性,这时你就需要一套完善的记忆系统。 那欧本科罗所谓的记忆系统并不像人脑这样智能,它是靠外部系统模拟出来的,通过写文件、向导、数据库等等,从历史记忆文件中找到用户所说的内容。 那如何才能部署一套完善的记忆系统呢?咱们一步一步来说。那为了照顾到广大使用 linux 或者 wsl 部署欧本科罗的用户,我这使用了一块来自林克预装好了欧本科罗的乌邦图系统盘做演示。 这块系统盘已经将乌邦图和 openclo 打包好了,用户只需要插上电脑,更改下启动顺序,就能进入乌邦图使用 openclo 了。那我这使用的硬件设备是来自林克的 gti 十五 ultra 迷你主机, 自带三十二 g 内存,里面已经有了一块 win 系统盘。我这实在是懒得拆机啊,就直接使用硬盘和外接的形式, 那只需要改一下启动顺序就能直接进入,那后续如果需要更换硬件设备,也只需要将硬盘盒插上就能立刻运行。 opencloud, 我 这采用了两套记忆系统,相辅相成,基本上不会丢失记忆信息。 第一套是传统的文件记忆,也就是常说的 md 文件,这是最底层的备份层,也是最可靠的持久化存储。这一套记忆系统又分为三层,文件系统。第一层 memory 点 md, 这是核心记忆层,这一层存储的是用户基本信息、账号、密码、重要设备长期编号等等。 这一层的特点呢,是永久不变,如果不是刻意去修改,就会以之前设定的信息一直存着,每次绘画启动时必读。第二层是 memory project 点 m d 项目层,这一层存储当前进行的项目、项目进度、代办事项等等, 特点是动态更新,项目结束后可以进行清理。第三层是每日日制,每天咱们都会跟 oracle 产生大量的对话信息, 将这些对话信息生成对话摘要,完成的工作,重要的决定按照日期进行规档,方便后续回溯。那每日日制是每天自动生成,不需要咱们手动来管理。我这里在林克的这块 ssd 上已经部署了三层记忆体系, 下面就通过几个简单场景演示一下这套系统是如何运行的。我这里有一台非牛纳斯 ip, 地址是幺九二点幺六八点五点九八,那欧风很好理解,这是重要信息,会将其写入 memory 点, md 持久化。下次你问非牛纳斯的 ip 地址是多少,它就能答上来了。 那看似这套文件记忆已经非常完美了,那我为什么还要弄第二套记忆系统呢?文件记忆有一个致命的缺点,只能精确匹配关键词,比如前面说到的非牛纳斯 ip 地址,有可能下次你问非牛的 ip 地址是多少,他就找不到信息了。 另外,当你的问号使用时间一长,就会出现文件多了,读取慢,搜索更慢的情况。那这时咱们就需要第二套记忆系统羽翼记忆了。简单点来说,羽翼记忆就是将散落的碎片记忆关联起来,例如说 nars 就 能找到非牛 nars 极空间滤帘等等, 并且能够将跨主题的引含关系挖出来,使用下面的搜索能够做到毫秒级的搜索,那同时支持模糊匹配,说个大概也能够找到。 我这使用的是 cognitive brain 向量语义搜索系统,但由于很多向量搜索 api 都需要付费,所以我自己选择的是在本地部署模型,运行在这台林克 gti 十五 auto 上是完全没有问题的。 当然,如果你本地设备性能比较低,也可以使用付费的 api。 这一套向量语义搜索部署的步骤稍微有点麻烦,我这里打包成了 skill, 发布到 call 上,直接搜索就能在本地部署。 输出完成后,让 oppo nano 运行键连接就行。最后就是优化一下解锁过程,通常是先在上下文找,再去文件记忆系统搜索,如果搜不到,再去使用语音搜索,这样你的 oppo nano 就 能精确的从文件中找到过往的记忆了。 那当然,如果你每天都会高强度使用 oppo nano, 那 每日日日可能会遗漏到一些信息,可以根据自己的需求配置三小时日日记忆或者五小时日日记忆。 那为了避免产生过多空白涌于记忆文件,也能设定当前时间段,对话超过十条就生成当前时间段的小时记忆,这样能极大程度的确保记忆不丢失。 好了,以上就是今天分享的 open call 完整记忆方案的内容,两套系统搭配,让 open call 彻底告别失忆。整个演示我都用的林克 gti 十五,而且搭配预装 open call 的 ssd, 不用折腾安装,不用拆机,外界改下启动顺序就能直接使用。如果你是代表小白,不会配置环境,那这种开箱即用的体验真的非常省心,那希望对你有所帮助,让我们下期视频再见!

opencloud 小 龙虾天天失忆?昨天一起熬过的夜,今天早上一问全忘了。教你一个技能彻底解决这个问题。和你的小龙虾说安装 cloudhub 的 agent rachel 技能,这是我自己制作的 agent 记忆复盘和自我迭代的技能。最后一步,添加定时任务。 这么跟小龙虾说,凌晨两点执行 agent retry 技能复盘昨天的行为,并且把结果发给我。第二天一早检查小龙虾昨晚发送的这样的信息,就是成功执行了。你的龙虾会失忆是因为我们看到的聊天记录不等于它的记忆。 agent retro 会把前一天我们所有的聊天记录拉出来,详细的分析做了什么事情,做对了哪些做错了哪些有什么需要改进的,以及分析用户的画像, agent 自己的画像,最后再去更新它的长期记忆文件。长期记忆是 open cloud 的 特点, 在记忆的基础上,能够自我迭代的龙虾机器人会是越来越懂你的 ai 助手,关注我,带你玩转 open cloud!

大家好,我是麦冬,今天我们要聊一个很多人在使用 open class 时都会遇到的困惑,为什么我的 open class 第二天就像失忆了一样, 昨天刚教过的东西,今天一问就答不上来,这到底是怎么回事?今天我就来为大家解析一下 open class 的 记忆机制,让你彻底明白他的记忆到底是怎么回事。我总结了两个核心问题,第一是记忆断层,教过的东西转头就忘, 第二次能力倒退,昨天明明还接的非常好,今天就像完全没有学过一样。其实这里面最大的问题不是 open class 失忆了,而是很多人把上下文、短期记忆、长期记忆这几件事混在了一起。 所以这期视频我就把 open class 的 记忆机制讲明白, open class 不是 简单的记住或者忘记,它本身是存在记忆分层的设计的。首先我们来看第一层上下文,很多人会觉得昨天我刚跟他讲过这件事,他当时也接的很好,那不就说明他已经记住了吗?其实不一定, 因为很多时候他只是还在当前绘画里面,所以能接住你的上下文。这更像是你刚说完,他短时间里还没忘,不代表他已经把这件事沉淀成可以长期服用的记忆了。你可以把这个理解成上下文是当前聊天窗口里临时带着的信息, 而记忆是经过沉淀之后,下一次还能稳定调出来的信息,这两者不是一件事情。第二层记忆分层。 很多人以为跟 open class 聊天,让他去记住某一件事情,他就会把这件事永久性的记住,但其实不是这样的,在 open class 这里,记忆其实是分层的,不是所有内容都会直接进入长期记忆。 open class 中的 daily memory, 也就是我们讲的短期记忆, 它是按天记录的记忆文件,这里面会存放最近发生了什么,哪些是值得留档,以及一些阶段性的过程信息。这些内容有价值,但它更像是素材库或者草稿区,不等于以后一定会被稳定调用。而另外一个文件 memory md, 也就是我们所讲的长期记忆, 这里面存放的则是我们的稳定编号、固定流程、长期项目的一些背景、明确的一些规划,以及经过我们反复验证过的经验。 所以很多时候你以为他已经记住了,但其实只是被先写进了 daily memory, 还没有沉淀到长期记忆那一层。 daily memory 更像是 opencloud 的 当天笔记,它不是所有聊天都无脑往里塞,更容易进入 daily memory 的。 通常是这些内容 有明确任务进展的,有阶段性结论的,有用户偏好和规则的,你明确说过以后记住这个的,后面明显还会反复用到的。 所以, daily memory 会把今天发生过什么,哪些东西是值得记录的,先记下来。但写进 daily memory 的 东西,不等于已经进入 open class 的 长期记忆了,它更像是一个可整理、可提炼的记录层。还有一个很多人会忽略的点,就是上下文压缩。但是在讲上下文压缩之前,你要先知道一件事情, 上下文本身是有上限的,它不是无限长的。而这个上限一方面取决于你正在使用的模型,它本身支持多大的上下文窗口。 另一方面也取决于 open class 运行的时候,你给他配置了多大的上下文?而当绘画越来越长,上下文越来越多的时候,系统为了继续运行,往往会把一大段完整的聊天历史压缩成更短的摘要,只保留系统认为最重要的部分。问题在于,压缩不是无损的,它一定会做取舍。 有时候你觉得非常重要的细节,如果系统没有判断成最高优先级,在压缩后就可能变弱甚至消失,这就会造成一种很真实的体验。前面几段他还记得,聊到后面突然开始答的不对,第二天或者新阶段重新再问,感觉像失忆了。 讲到这边,你就大概能理解 open call 为什么会失忆的几种原因了。第一个,昨天教的东西可能只停留在了当时的上下文里。第二个,短期记忆并没有被转化为长期记忆。 第三个,在绘画过程中发生了上下文的压缩,尤其是在长对话中,早期的关键信息被压缩丢失。 那么我们该如何减少这种失忆感呢?关键在于不要只在聊天里随口提一句你把它记住,而是要明确的告诉他,把重要信息写成可以附用的记录。比如你可以直接告诉他这是一条长期偏好,或者以后默认按这个执行。 更直接的方式是明确要求它把它写进 memory 点 m d 里面,这样信息才能真正进入长期记忆。我们来看一个具体的例子,比如设置偏好。如果你只是说我喜欢简洁一点,这很模糊, open clock 可能无法准确理解和记忆,但如果你明确的写成我的长期偏好,文案默认简洁自然,别太像模板这样具体明确的描述就更容易被 open clock 稳定的调用和执行。再比如项目规则,如果你只是说这个项目,你记一下 open clock, 可能并不知道该记什么。 更好的做法是把项目规则明确化,比如我们可以从以上的六个维度来构建项目规则,这样结构化的信息才能被 open class 有 效的存储和使用。所以减少失忆的核心方法就是不要只是简单的说记住这个,而是要把信息写成可以被执行、被解锁、被附用的内容。 通过结构化和明确的描述,让 open class 能够准确的理解并将其存入长期记忆,从而实现稳定的调用。好了,本期视频到这边就结束了,工具会变,但方法更重要,我是麦冬,下条继续。

openclaw 三点八,能让你的龙虾消耗更少的 token, 更省钱,想要速度更快,然后回答也会更精准,那这个原理是什么呢?首先使用 openclaw 比较久的用户都知道,你跟他聊天聊的比较多了,他就会失忆。 其实这是因为你跟他聊,你们的记忆呢,上下文呢,就会不断堆叠,堆叠堆叠,直到啪失忆了,因为他的这个上下文是有一定的量,当达到一定量的时候呢,他就会把某些一部分的记忆 给压缩,换成一些 summary 的 总结,这个俗称 compact。 那 这样呢,就会导致,哎龙虾聊着聊着就失忆了。 所以我们开发了曼九点 ai 这样一个记忆管理的插件,你可以理解为把你的记忆去上传到云端,然后通过 f t s 技术,在你和它聊天的时候,只召回跟你正在聊,正在做的工作,直接相关的一些事情。 那这个云端的空间是无限大的啊,当然云端的存储就跟网盘一样,如果你的这个虾不小心搞死了,对吧?重装一下,只要把密码重新一输, 所有的记忆都会回来。我觉得这个是 open cloud 这个非常基础的,也是非常必备的一个记忆的一个工具了。那回到刚才我们说的这个 context engine, 怎么帮助到我们更省 token, 然后更精准,更快呢?那其实 在有 context engine 之前呢?呃,市场上也有非常多的这个 memory 的 插件,整个这个 memory 体系有点像网盘一样。呃,你的 context 内部是一个黑盒的,它到底什么东西该留,什么东西该存,什么时候? compact 其实你是完全不知道的,那在很外围的地方去存取一 一些这个记忆上的东西,那 context engine 呢?其实提供了更细力度的一些,呃,整个生命周期的一些接口,比如它提供了像这个 bootstrap, assemble, 呃, compact after turn 等等。那通过这些 hooks 可以 让你 啊,这个让你这个记忆的插件呢?像这个手术师一样,可以把整个 context 更细力度的,整个生命周期什么时候该存,什么时候该取,什么东西要一直留到最后,那让你参与整个生命周期,这样你就有机会把整个 context 做得更加的精准,更小。那其实大家都知道,因为 context 它相当于你跟这个 ai 对 话的时候的这个上下文的容量,那如果没有这样的一个小手术的去处理,它会带一大堆的废话,那把这些废话去掉之后,不但更快更省钱, 而且呢,它自然这个给这个大模型,呃一个更精准的输入,那自然响应也会更加的完美。那 context engine 是 今天刚发布的,同一天我们就实现了对 context engine 的 支持,呃,也实现了这个更细力度的 context engine。 那 除此之外呢,曼姆九点 ai 还可以实现多加的共享 实时的哦。比如说我们在做一些大的工程的时候,我们会编排,我们会有一个 orcas, orcas 就是 一个编排者,然后他有哪些项目经理一样,然后管理更多其他的龙虾, 比如谁负责写 prd 啊,谁负责开发啊,谁负责做设计,谁负责上线测试等等。那这个时候呢,麦姆九点 ai 呢?只要共享同样一个 space id, 就 可以实时共享这些啊龙虾的一些记忆,那这些是更高级的玩法,我可以在后面的视频里面给大家去分享, 请大家多多关注我,了解更多 open cloud 相关的一些知识。那曼九点 ai 也希望大家多多支持。现在还是免费的,无限的一个存储,走过路过不要错过,我们下一期再见。

最近我踩了一个欧风可绕的大坑,从三点二版本升级到三点八版本以后,各种问题都开始出现,聊天卡死、工具调用失败,甚至记忆也失效了。折腾了半天才发现问题就是版本不稳定。更坑的是,很多人升级后不知道怎么回退。其实方法很简单直接啊,执行这行命令, 它就会把 open 壳啊重新安装回三点二版本。所以,如果你升级后也遇到各种奇怪的问题,先别怀疑问题,这只是版本不稳定造成的。

家人们是不是被 openclaw 的 诗意整破防了?让他记两百字内回复,转头甩你八百字长文。昨天刚说的要求,今天就查无此语,用久了还净翻旧账。 这哪是 ai, 简直是金鱼成精。别骂他 bug, 其实是你没摸透规矩。 openclaw 嘴上说记住了那都是客套话,聊天窗口的话关了就没。只有写进文件里的才算真记忆, 它的聊天框就是张便利贴,写满就撕,啥也留不下。而记忆文件才是正经笔记本,存硬盘里咋重启都在 想让它记牢,就得找对地方写。它有三层记忆,重要的是往高处放准没错,永久偏好是 user 和搜 md 启动必看最靠谱 长期记忆是 memo md 纯偏好和项目背景。注意别抄两万字,抄了直接砍。每日日制就是天而更只看金箔,两天的最不顶用。为啥总失忆?啥原因?戳中百分之九十九的人,要么只说没写光口头吩咐转头就忘, 要么对话太长触发压缩,口头指令直接蒸发。就连 ai 专家都栽过这坑,要么 ai 手滑腹写了记忆文件,辛苦整理的内容全清零。别慌,三件事搞定百分之八十的失忆问题, 直接抄作业就行。第一,让他干活前先查记忆,把记忆规则粘进 agent md。 第二,严禁他复习文件,把文件操作规则盯在搜 md 最开头。 第三,开域压缩存盘复制指令,让他改配置,再补个兜底规则,防止丢信息。日常用也有小技巧,让他记东西别光说,记住要说清写进哪个文件,纠正错误让他改完发。前后对比新项目,先整理背景写进 memory, 每隔两到三周清理一次 memory。 兄弟别抄字数,要是还出问题看数差手册自定义文件名没用就用八个固定的文件 被清空,让他按对话补回来。长对话先存盘记忆不准就定期清理加优先搜近期日制基础配置搞定,还不够新手装 q m d 插件,懒人用曼木林重度用户冲 call 个你 选一个就够用。其实 opencall 的 记忆系统贼靠谱,透明又好改出问题全是因为没养成写文件的习惯,没调默认配置,没告诉他。别乱复习,把这几招用上,再也不用跟他的鲸鱼记忆较劲了。现在就去看看你的 memory md 是 不是记对东西了。

我今天打开 openklo, 然后又看了一下我接下来 ipi 的 账单,我的心就痛了一下,哈哈哈,烧美金真的是非常酸爽的一件事情,所以我就决定一定要探索一下 openklo 的 省钱大法。今天是第一篇,第一篇的省钱的原理就是把调用 ipi 全部换成调用订阅账户。那咱 们具体怎么样通过订阅的账户去接入 openklo 呢?这个地方我画了一个地图,咱们有两个方式可以去接入到订阅账户,而不是 ipi。 第一个方式我们可以直接通过终端的命令来进行输入, 这一行命令就是 open klo 自己的一个命令,它就会出现这样的界面,你在这个里面你先选一下 logo, 接下来他就会让你去选你要改哪项配置。很多项配置都可以改,咱们直接选模型就行。我是喜欢用 jimmy, 所以 我就选了谷歌的模型,然后这个地方就会出现 你几种接入谷歌模型的方式。 api 方式就是咱们说的最耗钱且没有上限的方式。然后呢,下面有两种都是 awesome 的 这种方式,它只要带了这个 awesome 的 方式,其实都是可以接已经订阅的账户的方式。那它有两个地方可以选,一个是通过反重力去调用它这个 awesome, 另外一个是通过 jimmy 颗粒来调用反重力,国内用,所以我就直接选了第三个。那回车之后,它就会直接弹出来 粘在这个里面的一些界面,你直接按它的操作去操作,它就能自动获取这一串 office token 了。那你如果是用 openai 或者 cloud, 它的订阅账户其实也是同理,比如说如果我选的是 openai 的 模型的话,那在这个地方除了 api 的 方式之外,它通过 office 去登录的方式其实是通过 codex 去登录的,那我就直接选 codex 就 好了。 第一种方式大家就这么样的一个流程,那第二种方式我们就用 cloud code 写出我们就好了,因为 cloud code 是 可以直接修改 opencloud 存在本地的配置文件的,就是咱们的模型选的是哪个,用的是哪种登录方式,全部都写在这个配置文件里,你就让他直接去改这个配置文件,那你的其实词里面 记得有几个地方哈,第一个主模型一定要记得改,主一定要有啊,因为他那个模型里面是可以配置多个的,他用就是一定是要跟他说清楚,你要配置的模型,你是用他的订阅账号付费,不要只去跟他说把这个 jimmy 换成 collog, 或者把 open a 换成 collog, 不要只说这一句,一定要说付费方式是订阅账户付费,而不是 api, 那 这样那个 collog 就 会直接去改这个文件里面的相关字段,那改的时候呢,可能需要你再去获取一下这个 token, 就 会直接去改这个关键词就好了。比如说我这还是 征战为力的,我就输入这条命令,我就能获取他了。 ok, 那 以上就是咱们先介绍的第一种省头肯的方式,我这边让他探索其他的儿童可乐的省钱技巧, 包括他每天都会让他把我的头肯消耗额度给我打印出来。后面方便咱们用一个更加量化的方式去看有没有哪些手段思路帮我们可以节省一些费用?今天就先分享到这了,后面还会再分享更多跟儿童可乐相关的内容,欢迎大家关注,下期见!

装了 openclaw, 但发现它什么也干不了,甚至有点笨。那是因为你还没有去 clawhub 给它装 skill。 clawhub 上有一万七千多个 skill, 我 从下载量前三十和我自己高频使用的做了交叉筛选, 只推荐这十个,装完至少强三倍。第一个 skill writing, 安全审查员,他会在你安装任何 skill 之前扫描安全风险检查红旗标识、权健范围和可疑模式,能检测 prom 的 注入工具、逃毒、隐藏恶意代码。建议在装任何其他 skill 之前先把它装上。第二个自我进化 skill, 它是 cloud 交互下载量第一的 scale, 解决大模型失忆症。它会自动把每次的错误日期、成功经验和你的编号存到本地数据库,下次遇到类似问题,直接调用历史经验实现,越用越聪明。这个 scale 的 价值不在于第一天,而在于第三十天, 用的越久, agent 越像你的数字分身。第三个, tablie search ai 专属搜索引擎,让 agent 学会上网搜索,而且搜出来结果是 ai 友好的。 不同于传统搜索引擎返回一堆链接, tabl 直接返回干净的结构化内容, agent 拿到就能用。第四个 summarize, 全格式内容,摘药专家,网页、 pdf, 图片、音频、视频,什么格式都能一口吞下去给你摘药。 我的日常用法是 tabla 搜索加 summary 总结,先搜到相关页面,再把整篇内容压缩成五百字未给上架文,效率翻倍。第五个, find scales, 寻找 scale 的 scale, 用自然语言告诉 agent 你 需要什么技能,它帮你找到并安装对应的 scale, 不知道装什么的时候直接问他就行。六个 using superpowers 来源于 superpowers, 这个强大的插件,核心理念是让 agent 严格按照先查 scale 再行动的规则做事,杜绝偷懒和无距离探索。如果你发现 agent 不 用你装好的 scale, 就 自己瞎搞, 这个 scale 能帮你管教他。第七个, react 最佳实践技能的性能优化圣经 worst one 方共同团队出品, react 和 next 最佳实践前端开发者必装。 第八个前端设计技能,帮你写出更有设计感的前端页面。按 zorbike 官方出品强制 agent 先做设计思考,再写代码,把从能跑就行提升到设计合格。第九个, github github 全流程操控,让 agent 直接操作你的 github 仓库, asos prci 一 条命令搞定。最后一个浏览器操作技能,让你的 opencloud 像人一样打开网页,点击按钮,填写表单,截图画面。最后帮大家总结一下。

欢迎收看我是大厨,只跟你聊最实在、最有用、最有意思的内容。 嗯,好,今天咱们聊一期特别扎心的问题,你用 openclaw 接入的飞书机器人是不是也经常而失忆?就是那种聊得正 嗨,他突然给你弹出一行红字, context limit exceeded, i've resisted our conversation, 然后之前聊的全没了,就好像他失忆了,连自己叫啥都不记得。别慌, 今天咱就一招搞定它,让 opencloud 给你家机器人装上呃,永久记忆,从此告别失忆忆。今天这期内容核心就是解决这个 context limit exceed 的 报错,让飞书机器人能记住所有对话,再也不丢聊天记录。 咱们会从问题根源讲起,拆解两个核心参数,再手把手教大家配置、重启验证,还会教大家看日制查记忆文件。最后附上官方文档和避坑指南。 不管你是对接 opencloud 的 开发者,还是遇到对话清空问题的运维同学,或者想做无限长对话的 ai 应用集成者,今天的内容都能帮到你。记住这两个核。接下来咱们先搞清楚这个 context limit exceeded 到底是咋回事。首先看这个典型报错,相信很多同学都见过,机器人 直接提示上下文限制,超出以重置对话 a, 还贴心提示要把 reserve tokens flush 设到二万以上,翻译过来就是 ai 的 上下文窗口被占满了。 opencloud 触发了自我保护机制,直接也把对话清空了。 这里要先澄清两个误区,这绝对不是非说 api 额度不够,也不是网络出问题了。核心原因就一个, ai 的 短期记忆区域,也就是上下文窗口被对话占满了, 聊得越长,占用的 token 越多,一旦到了上限,就只能强制重置。咱们的解决思路也很明确,调整压缩策略,再加上主动的记忆冲刷,让对话能要解决问题,核心就靠这两个参数, reserve tokens floor 和 memory flush 里的 soft threshold tokens。 先看这张表,咱们把参数作用键一直都列清楚了。第一个 reserve tokens floor 是 系统保留区的安全底线,压缩对话后必须给系统留够这么的 token, 防止把系统提示工具调用这些核心内容截断。建议只按模型来,一百二十八 k 模型设三万四万点,三二 k 模型设八千一万。第二个 soft threshold tokens 是 主动记忆冲刷的预值 token, 用到这个数,系统就会自动总结对话清空。上下文计算也简单,模型上线减去 reserve tokens floor, 再减点安全余量,比如一百二十八 k 模型,减四十 k, 再减二 k, 设八十六 k to the ninety k 就 行。大家可以看这个配置文件片段,就是在 open law dot json 里的 agent 呃 dot default dot dot complexion 下面加这两个配置, reserve tokens floor 设四万 memory flush 开启 soft threshold tokens 设八万九千六百,这俩参数配合用前者保护系统。咱们先把 reserve token 讲透, 这是保障系统稳定的关键,它的核心规则是对话压缩后剩余的空间必须小于等于这个值,才算符合安全要求。咱们可以看这段伪代码理解逻辑,系统先算当前用了多少 token, 如果超了上限就压缩对话历史 压缩后再算剩余空间,要是剩余的还比 reserve tokens floor 大, 就继续压缩,直到剩余空间低于这个安全底线为止。这里要注意调参的分寸,调高这个值,系统固定内容更安全, 但对话能用的空间就小了,压缩会更频繁。调低的话,系统提示可能被截断,导致工具调用失败, ai 行为也会异常。 最佳实践是按模型上线的百分之二十、百分之三十来设,比如 gpt four dot one d twenty eight k 模型。如果说 reserve tokens floor 是 恶防守, 那 memory flash 就是 恶主动进攻,能让 ai 实现真正的长期记忆。 e soft threshold token, 指就是触发水位线,当用掉的 token 达到这个数,就会自动启动冲刷流程。 第一步, ai 会根据当前对话生成总结。第二步,把总结写到 memory 文件夹下的日期命名文件里。 第三步,清空当前上下文,但保留系统提示和长期记忆。第四步,回复 no reply, 用户完全没感知对话就默默续上了。看这个完整配置视力除了开启 enabled 和涉域值,还能自定义 system prompt 和 prompt, 告诉 ai 该怎么总结,怎么存档。 这里一定要注意,必须把 enabled 设为 true, 而且工作目录要一光说不练假把式。咱们现在手把手教大家配置生效。首先看这个生产环境可用的完整配置快。除了之前说的两个核心参数,还建议把 compaction 的 mode 设为 c f g r 的 安全压缩模式, system prompt, copper 和 prompt 也换成中文,让 ai 更清楚该干啥。接下来是生效步骤,一共四步。第一步,找到配置文件,一般在 a openclaw slash openclaw dot json 打开编辑。第二步,把刚才的这块加进去。 第三步,重启网关,根据部署方式选命令。 systemd 用 system tool restart dot pm two 用 pm two restart 直接运行的话,就先杀进城再重启。第四步, 验证配置,执行 openclaw config get agents dot default dot compaction, 确认参数改对了。 这四步配置完怎么确认管用?咱们用日制记忆文件双重验证。先看日制,根据你的部署方式, 用 kernel to p m two logs 或者 tm to f 查看日制,只要能看到 memory flash, triggered 这类关键词,就说明冲刷正常。出发了。在查记忆文件工作目录下的 memory 文件夹里, 家里慧生按 a i m m d, d 到 m d 的 文件打开,就能看到 ai 总结的对话要点。比如用户问了上下文义出问题的,讨论了 reserve tokens floor 参数, 这就说明对话被正确规范了。如果没触发,先检查 soft threshold tokens 是 不是算错了,得小于模型上限减 reserve tokens floor, 再确认 memory flash dot enabled 是 true 工作目录能写。 这里还要避个坑,别用旧的 threshold 字断没用。正确的是 soft threshold tokens, 另外飞出免费版的 api 调用显然是另一回事。呵,这个问题没关系,最后执行。如果大家想挖的更深,推荐几个官方文档。第一个是 opencloud memory 记忆文档, 里面有 memory flash 的 完整说明。第二个是 session management and compaction, 讲压缩算法的底层逻辑。 第三个是 system prompt 概念,能帮大家理解充刷石系统提示的作用,这些文档都是权威参考,能避免踩坑,最终效果特别香。开启 memory flash 后,飞书机器人能支持数百轮对话,重要信息自动归账,再也不会上下维一出用户聊得再久。最后咱们快速回顾一下核心要点, 第一, reserve tokens floor 是 安全盾,保护系统,固定内容,避免压缩过头出问题。第二, memory flash plus soft threshold tokens 是 恶记一笔, 主动总结规章,实现无限对话,无感续接。第三,配置重启验证三步到位,日字能查,记忆可读, 效果立竿见影。总结下来,就靠这两个参数,就能让 opencloud 机器人拥有真正的长期记忆,再也不用面对 context limit exit 的 报错。今天的内容就到这里,感谢大家收看。如果遇到问题,欢迎在评论区留言,也可以关注 b 站的大叔大,咱们下期再见!

很多人听到斜杠六第一反应就是,那我不是把前面聊的东西全都清掉了吗? 不会,前提是你要把长期记忆系统建起来。真正成熟的用法啊,不是 bai 在 短期记忆里面死记硬背啊,而是让他把历史内容归档。所以 等你未来聊到相关话题的时候呢,再自动解锁回来,这样短期记忆可以保持很清亮,长期记忆却越来越厚重。 这也是为什么我现在越来越离不开 openclaw 小 龙虾,因为它很多时候比我自己还能记得我到底说过什么,做过什么。想看更完整的 openclaw 记忆系统教程,请看我的主页这里。

你的 open claw 装完还是白板,那是因为你没装这六个 skill, 想让你的小龙虾直接封神,先给我装这六个必备 skill, 一 键覆盖你百分之八十的场景,不然你没装它,真不如直接用网页版豆包。先说怎么装,一分钟搞定。 我们打开永冻虾七二四 claw, 打开后点击右上角的兑换码,输入三三三,输入后即可免费使用。 接着我们点击左边的技能,就可以看到所有的 skill 了。然后就是 skill 了。第一个,必须要装 anthology, 很多 ai 聊着聊着就失忆了,但开启它 openclaw 瞬间拥有结构化长记忆, 它能给你的人设项目任务做个持久化档案库,跨任务附用上下文,哪怕你第二天再打开,他依然知道昨天聊到哪了,长会话绝对不跑偏。第二个,打工人和爬虫党必装的 agent browser, 千万不要傻傻自己去手动查数据,复制粘贴了。装上这个,相当于给你的 ai 配了一个无头浏览器, 不管是刷网页、自动填表、竞品价格监控,还是抢票直击, ai 直接模拟真人给你把活干了。第三个,小白最怕找不到插件,反手就装 fine skills, 你 不用再打开浏览器去搜 x x x 技能在哪装,直接在对话框里喊一嗓子,帮我找处理 pdf 的 技能,它帮你自动去 klohab 的 三千多个插件库里搜 点下,自动装上,这不比手动复制命令箱?第四个, ai 总是胡言乱语,输出太长,顶出去了,必须靠 context manager, 这玩意儿就是 opencloud 的 垃圾清理大师,他能智能剪裁对话,压缩 token, 把废话通通过滤掉,只留下核心干货给大模型看,推理成本直降,回复又快又准。 第五个也是安全人必看的,想乱装插件怕中毒?先上 skillbetter, 这是整个技能体系的安检门,你在装任何新技能前,它都会给你出份详细的体检报告。这个插件有没有危险?操作会不会偷你文件?会不会联网偷发数据? 新手听我句劝,这个是保命的底牌,一定第一个装!最后一个算账党辅音, cost report openclaw 调 api 不 花钱吗?装了 cost report, 你 的每一次绘画,每一个技能操作,烧了多少 token, 花了多少美分,全都能升成财务级报表。 这个月 ai 助理是帮你赚了还是让你亏了,一目了然,绝不花冤枉钱!最后这六个神计,从记忆、操控、管理、裁剪、安全到成本,吃透了你的 openclaw 才算真的觉醒。好了,兄弟们赶紧去试试吧,还有什么问题打评论区,下期见!

你的 openclo 是 不是也总忘事?三个文件让他一辈子记着?我们刚开始折腾 openclo 那 一个月,趁他差点被气疯,动不动就要跟他重复,我是谁?你是谁?你什么角色,拿什么工具,干什么事?说八百遍,结果一张嘴又是一脸懵。好几次我真的不想玩了, 直到我把灵魂六件套最后三个整明白, identity user 整明白,这仨 ai 再也不会犯迷糊了。 第一个 identity 这个文档内容超简单,就是让我们告诉他你是什么角色,说话什么味儿,做事什么调性,甚至管理事情什么风格。 第二个 user, 这里就是我们的档案,我的经历,我的职业,我在意什么,我讨厌什么,全写下来,再也不用被他气到想骂他,他永远会知道我是谁。第三个 to, 说白了就是 ai 的 工具箱,想让他干活,就要给他配相应的工具, 用什么软件,什么工具,出发条件是什么都给他写明白。这三个文件一次性写入,基本不用改, ai 就 从一个路人成为了我的搭档。灵魂六件套看到这就已经分享完了,你觉得哪一个对你最有用?评论区唠唠,关注我,一个五十岁折腾 ai 的 摄影师。

大家好,我是小众 ai 的 主力人清澈君。我跟我的 ai 助理聊了一个多小时的项目细节,结果第二天一开心绘画,他什么都不记得了。这种感觉就像是你给 ai 注入了灵魂,却忘了给他配上记忆。这 几乎是每个人配完 open club 之后,都会撞上了第一堵墙,这是玩转 open club 系列的第三篇。今天咱们就一口气把记忆、作息、习惯这三件套给讲透了, 要让你的 ai 助理真正火起来,感觉像个核心模块,记忆是用来解决我是谁,昨天干了啥的问题。 作息让他告别被动等待,学会主动干活,而习惯则是定义他处理任务的专业方式。咱们的解决方案就分三步走,第一,搭建记忆系统。第二,配置作息系统。第三,塑造他的行为习惯啊,我们先从第一步开始,首先啊,就是记忆系统,要解决 ai 的 失忆症,可不是简单粗暴的建一个文件,然后把所有东西都扔进去, 我们需要的是一个更聪明的方案,一个三层结构,我们来看这三层,第一层, memory 点 md, 文件你把它当成一个总,所以 只放纸针,比如说关键文件的路径,绝对不要放具体内容。记住,这个文件一定要小,最好控制在二 kb 以内,不然每次对话都等于让 ai 背着一本百科全书来上班,会直接撑爆它的上下文窗口。第二层, memory 下线文件夹,这就是 ai 的 每日工作日期了,每天一个新文件,记录当天干了什么,踩了什么坑。第三层, group memory 点 md, 这个是专门给群聊用的,和私聊的记忆分开管理,保证信息不会串线,所以你看这套系统的核心逻辑其实很简单,记忆不是为了存下一切,而是为了让 ai 知道去哪找需要的信息,效率才是关键。 现在解决了失忆问题,但 ai 还是像个客服,等你吩咐才动。所以第二步就是要给它建立作息,让它动起来。作息系统主要由两个部分组成,一个是 heartbeats, 也就是心跳机制,它就像一个兜底的巡检员,系统会定时问 ai 有 事吗?没事就保持安静,一旦有异常或者有事要汇报,它就会主动跳出来。 另一个叫 chrome, 你 可以把它理解成一个极其精准的定时闹钟,像我让它每天早上四点三十推选择题,四点五十推预报,就是靠它到点自动执行。一个负责一场兜底,一个负责规律,工作分工非常明确。 说到筐,我得分享一个我踩过的坑。我一开始设的是早晨四点半的报告,结果每天中午十二点半才发出来,查了半天才发现是把服务器的 ugg 标准时间当成了北京时间。所以 大家配置的时候,这个时区千万别搞错了。有了记忆和作息, ai 已经很像样了。那还差最后一步,就是塑造他的行为习惯,告诉他怎么聪明的干活, 而不是让他自己瞎试。这就得靠 tools md 这个文件了。注意啊,这个文件不是给你自己看的,是写给 ai 看的工具使用说明书。他清清楚楚的规定了 ai 有 哪些工具,什么场景用哪个,以及哪些是绝对不许碰的。 如果不写这个,他就会在所有工具里乱试一通,效率非常低。另一个关键文件是 bootstrap md, 也就是 ai 的 开机启动清单。他定义了每次新绘画开始,在你打出第一个字之前,他应该主动先做些什么。 有了这个才叫真正的助理。一个标准的启动流程就像真人一样,分三步,第一,读记忆,先同步一下昨天的工作进度。第二,查代办,明确今天的核心任务。第三,主动汇报,把紧急事项第一时间告诉你,而不是等你来问。听到这,可能觉得要配置的文件有点多,别担心,完全不需要一次性搞定,我给你一个清晰的实施路线图, 建议分三步走,第一步,先把 memory d, m d 和日期规则给加上,解决失忆这个最核心的痛点。第二步,用 cron 把你每天都在重复做的那些事给自动化了。最后,像 heartbeat 和 bootstrap 这些高级优化功能,你可以根据自己的需要再慢慢加上去。 好了,当记忆、作息、习惯这套核心骨架都搭建完成之后,你的 ai 助理才算真正有了活人干。那么,你最希望你的 ai 每天能帮你记住或者主动完成哪件事呢?欢迎在评论区聊聊你的想法,也别忘了关注小众 ai, 获取更多硬核实用的干货。

你的小龙虾是不是总记不住上周聊过啥?我是清澈君,今天教你把它的记忆系统彻底打通。很多人遇到同一个问题, memory 文件夹存了一堆,小龙虾还是答非所问,对话聊长了,早期内容直接被截断,关键决策就这么没了。说白了是两套系统各管各的,你没把它们接起来。 记忆系统其实就两个东西,一本笔记本,一支录音笔。 memory 是 笔记本存。结论,比如上次 colorm 区搞错,要显示写 a 舍伤害, lcm 是 录音笔存过程存。你们来回讨论四十分钟的完整对话,两套缺一个记忆都是残的。 小龙虾找记忆靠的是编辑,不是关键词匹配是意思接近,你说定时任务出问题,他能找到。 cron 时区搞错一个词都没重复,照样找得到。存储就是 markdown 文件,简单但很管用。 对话太长怎么办?压缩但不是截断,早期对话会被压成摘要,原文还在,需要的时候逐层还原,就像把旧文件装进抽屉,桌面只留最近用的 opencloud。 四点一的搜索升级了向量语义加 bm, 二十五关键词两条路同时跑,互补盲区。一个月前的笔记权重自动降一半,旧内容不再抢排名,返回结果还会驱虫不再三条都说同一件事, 四点一还有一个关键动作,压缩之前先把结论抄进笔记本,这一步把两套系统真正串起来了。录音整理之前先写好笔记,历史对话也能被 memory search 搜到。笔记没记的录音笔兜底。 小龙虾记不住事,大概率不是记性差,是解锁没通。去跑一次 memory search 测试,看返回的是不是你想要的那几条,配好 embedding 模型,混合搜索自动就开了。哪一步卡住了,截图发评论区,我看到就回。

open claw 被 anthropic 断工了,结果人家反手掏出个更强的版本,这剧情编都编不出来,他们官方就回了一句, anthropic cut us off gpt 五点四 got better we moved on, 说白了就是你切就切,我换条路照样干。然后四点五版本直接甩出来,社区炸了,不是那种小更新的炸,是真有料的炸。我说三个我觉得最猛的第一个,他搞了个叫追命的东西。记忆巩固啥意思呢? 你之前跟 ai 聊天关掉就没了,下次开全网你得重新介绍自己,重新说需求,跟失忆了一样。现在他会把你聊天里的关键信息自己攒起来, 用的越久越懂。你就像带了个助理,这助理不会每天早上忘记你是谁。然后第二个多肽生成直接内置了。 以前你想拿 ai 出个视频出个图,得自己对接接口调参数,一堆配置搞半天,现在它全给你装好了,视频接了十一家,音乐三家,图像五家,你有哪家密钥就直接用一句话出结果, 而且它不锁死你,不是说只能用某一家,是全开放,你自己挑第三个提示词缓存,这个听着不刺激,但真省钱。 你平时用 ai 干活,很多指令是重复发的,以前每次都重新算一遍,稍托肯,现在重复的直接走缓存, 快了也便宜了,像我这种每天高强度用的,成本直接砍了一截。最后说个我自己的看法, osropik 断供这事短期确实不好受,但长期来看反而是好事。它逼着整个行业往多模型不依赖单一平台的方向走,你的工具不应该因为某家大厂一变脸就废了。 openclaw 这波操作我服的,不贵不炒,直接产品说话,切了就换,换了更强做技术的就该这样。

你是不是经常碰到这种情况,跟 open call 聊着聊着,他突然好像失忆了一样,完全不记得前面说过什么了。或者你聊完一个话题啊,切到下一个话题的时候,他好像变了一个人, 之前说过的事情呢,全忘了。这种情况特别让人抓狂。但其实呢,他不是 bug, 而是我们不了解 ai 记忆机制到底是怎么回事。今天呢,我一次性把这件事讲透, 我会告诉你啊, opencloud 的 记忆到底是怎么运转的,然后教你做一些简单的配置,让你的小龙虾真正做到过目不忘。 其实做到这一点啊,并不难,我现在每天都离不开 opencloud, 因为它记得我所有的事情和所有的对话,也拥有我知识库里的大量的知识。所以它对我来说呀,已经不是一个聊天工具了, 而是一个很强的外部记忆库。很多事情呢,我一时想不起来,我第一反应就去找他。今天学完之后啊,你也可以做到 open class 这样的 ai 智能体呢。它的记忆啊,分成两类,一类啊是短期记忆,一类呢是长期记忆。 短期记忆就是你这一次跟他对话的内容,也叫做上下文啊,在这一次对话里面呢,他会一直记得你说过的话。 但是短期记忆能记多少,取决于模型的上下文窗口有多大。比如我们现在用的 gpt 五点四,它上下文的窗口呢,大约是两百五十六 k 个 token, 也就是二十五点六万 token。 那 么 cloud opus 呢,最大可以达到一百万个 token。 窗口越大,一次能记住的内容就会越多,但是一旦内容超过了窗口的大小,他就会开始压缩,丢弃最早的信息,这就是你突然感觉到他失忆的原因。 你可以把短期记忆想象成你的工作台,桌面空间是有限的,那东西堆的多了以后啊,最底下的就被压住了,找不到了。 那长期记忆呢,就是把过去跟你发生过的事情保存到硬盘或者数据库里面,下次聊到相关话题的时候呢,他就会自己到数据库里面去搜索,把相关的内容提取出来。 所以长期记忆的容量几乎是无限的,关键在于他能不能在需要的时候准确的找到并且回忆起来。 这就像是你的档案柜,东西都在里面,但你得知道怎么去翻,什么时候去翻。所以现在你就明白了,大多数人觉得 ai 老是失忆,本质原因啊,只是在用短期记忆,没有把长期记忆呢建起来。你指望工作台上堆下所有的东西,那迟早要塌的。 那么接下来我就会分别告诉你,短期记忆怎么管,长期记忆怎么建。 那么 openclaw 的 短期记忆要怎么管理呢?在默认的情况下啊,如果你一直跟它聊,那上下文确实会越来越长, 尤其是各种工具调用啊,结果呢,会不断地堆积。但这里啊,我要补充一个细节了, openclaw 不是 完全不管上下文的,它其实可以通过一个叫做 context proning 的 配置去做自动的瘦身。 那么这段配置的意思啊,是,当这个绘画闲置超过两个小时以后呢,系统会自动裁剪旧的工具,结果,比如解锁片段文件提取内容命令输出等等, 它会被替换成占位符或者摘药。而用户的核心对话消息呢,会优先保留下来,你可以把它理解成一个轻量级的自动清理机制,它能帮你控制 token 的 消耗。 但要注意啊,这个机制解决的是上下文太胖的问题,不是你已经换了一个新话题的问题,他会帮你瘦身,但不会准确的知道你现在是不是应该彻底翻篇了。 所以如果你一直聊啊,那上下文还会不断的累积的,用的越久呢,窗口还是可能会越来越满,满了之后啊,系统就会进行压缩了,那么最前面的内容就开始丢失。这也是为什么很多人会觉得透支消耗的特别严重。 有人可能会想,那是不是上下文窗口越大越好呢?其实不是,因为窗口大了以后啊,有两个代价。第一个代价就是 token 消耗惊人。 比如啊,一个一百万 token 的 窗口聊满了以后啊,你每对话一次啊,他就要消耗一百万的 token, 你 跟他聊十次呢,就是一千万呢, 新闻里看到谁一天消耗了几亿 toc, 其实就是窗口开的太大了。第二呢,速度会变慢,因为 gpu 资源消耗也大得多。目前呢,有些开源项目,比如说 lostless clock, 它试图解决压缩丢信息的问题, 它的思路啊,就是把被压缩掉的这些原始的内容啊,存到外部数据库里面。那么每次对话的时候呢,再恢复回来, 想法很不错啊,但没有解决根本问题,因为你并不需要 ai 记住每一句聊天记录啊,你上一话题聊的是编程,你现在开始聊内容规划,你真的需要它记住刚才每一行代码吗? 所以我认为啊,管理短期记忆最好的办法不是安装复杂的插件啊,而是养成一个简单的习惯,聊完一个话题就输入斜杠六。这个命令呢,会做两件事, 第一啊,把当前的对话记录归档到 memory 目录下面,按时间戳来保存。第二呢,它会清空上下文窗口,重新开始。 你只要养成这个习惯,两百五十六 k 的 上下文空间在正常使用情况下完全够用,头壳消耗呢,也会大幅度的下降。但你可能会问,斜杠六之后,那前面聊过的东西不就全部都清掉了吗?每次都要重新介绍一遍啊? 不会,这就是长期记忆要解决的问题了。 那我们怎么建立起长期记忆呢?分两个维度,第一个维度啊,静态记忆 memory md。 在 opencloud 的 workspace 目录下,有一个大写的 memory md 文件, 你可以把一些固定的,希望他永远记住的东西呢,写到里面去。比如你是谁,你的工作习惯,你的偏好,一些长期不变的规则。 opencloud 每次信对话都会自动提取这个文件的,所以写在里面的信息它永远不会忘。 但是呢, memory md 呢,它不能写太多,因为它每次都会加载到上下文窗口,写得太大会挤占你宝贵的短期记忆空间。 所以它适合存规则,不适合存所有的知识。例如啊,我会在 memory md 里面呢,写上这样的规则, 当我提到选择题内容、创作、标题提纲、 youtube 视频口播稿等话题的时候呢,我孟轲老师会主动的读取一份选择题和创作指南的文档,然后按我的要求来执行 好。那第二个维度呢,是动态记忆 memory search。 如果你想让小龙虾记住过去所有的对话,甚至帮你管理一个庞大的知识库,那就要用到 memory search 了。那 openclaw 呢?它内置了一个基于 sql lite 的 本地向量数据库,叫 sql lite, 实现了 openclaw 动态的长期记忆功能。当你跟 openclaw 聊到某个话题的时候啊,会触发它去长期记忆库里发起搜索。 如果你事先把你的知识库,比如各种 markdown, 文件呀,笔记呀,文档啊都锁引到了记忆库里面,它就会自动找到最相关的内容, 然后把这些信息呢,从档案柜里拿出来,放到当前的工作台上。这个过程啊,就像人的回忆机制,比如我跟你提到 palantier 这家公司,你的大脑会自动关联出啊,你之前看过相关的新闻分析和讨论, 人脑靠的是联想,而 opencloud 靠的是向量解锁原理不同,但效果很接近。 现在你就能理解为什么前面说的斜杠 new 不 会丢信息了。因为你每次执行斜杠 new, 当前的对话都会被归党和锁引到长期数据库里面。 所以下次你再聊到相关话题的时候呢, memory search 就 会自动地把之前的内容全部都解锁出来。所以你完全可以放心地频繁斜杠拗,让短期记忆保持清爽,长期记忆却越积越厚,整个系统呢,越用越强。 好,那接下来我们就来讲最关键的部分,怎么样把长期记忆真正的配置起来。其实要打开 openclaw 的 memory search 核心呢,就三件事。第一件事啊,是开启 memory search 功能,你要明确告诉 openclaw, 你 希望启动这个长期记忆解锁能力。 第二件事呢,就是告诉他你希望他额外记住什么。那么除了你和 openclaw 平时的对话记录之外呢,你可能还希望他记住你的知识库, 比如 obsidian 里的 macdunk 笔记啊,项目资料啊,文档啊等等等等。那这些都可以一起加入到缩影范围里面。那第三件事啊,要给它选一个 embedding 的 model。 embedding model 本质就是把文本向量化,就变成可以被解锁的格式。只有完成这一步啊, open file 才能在你未来聊天的时候呢,从海量的信息里面准确找到相关的内容。 这个 embedding model 其实有很多选法,如果你图省事呢,你可以直接用云端的母写,比如说 openai 的 germanite, 甚至阿里云、腾讯云的 embedding model 都很好了。它们的成本其实很低啊,你一个月大概率也就是几美分,十几美分,完全不是个大问题。 但是如果你想更本地化,那你也可以像我一样,在本地安装一个 embedded model。 比如我现在本地用的是欧拉玛跑的一个 bgm 三,那这个模型大概就占一点四 g 左右的内存。 那么本地模型有一个明显的好处了,就是你批量建锁影的时候呢,它不会因为短期请求太多,被云端的 api 给限流。所以如果你的知识库比较大,或者后面会经常重建锁影啊,那我觉得本地方案会更好。 具体怎么配呢?最简单的方法啊,不是自己手写配置文件,而是直接让 ai 帮你配, 你可以直接把需求告诉 codex 或者其他你顺手的 ai 工具?比如你跟他说啊,帮我给 openclaw 配置 memory search, 帮我选一个 embedding model, 并且把我的某个知识点目录纳入所引,然后呢,把 api 再给他,他就能把配置文件帮你写好了。 我觉得最关键的呢,有四点,第一啊, sources, 我 这里同时打开了 memory 和 sessions, 前者负责长期记忆,后者负责近期绘画历史。那么这样做的好处是,它既能够记住长期稳定的信息,也能兼顾你最近正在做的事儿。 第二, extra pass 这个配置可非常关键了,我把它指向了我的 workspace, 就是 我平时真正工作的目录啊,里面有我的知识库,写作内容,还有项目资料,工作规划。换句话说呀,就是你把什么目录接进去, openclaw 就 更容易理解你。 所以如果你想让他真正的了解你,重点啊,不是让他多记一点,而是让他接触到你真正重要的工作语料。 第三呢, provider 和 model, 我 这里用的是本地的欧拉玛,配合 bgm 三。那么这样做的好处就是批量锁引的时候呢,它不容易碰到云端 api 的 病发限制。对于中文场景来说, bgm 三的效果我觉得也不错 好。第四就是 query 下面的混合解锁策略,我这里啊,不是只用向量解锁,而是用了混合搜索。 简单来说啊,就是百分之七十呢是靠语义的理解,百分之三十呢,是靠关键词匹配。那么这么做的好处啊,就是它既能理解你表达背后的意思,它还能更好地命中一些特定的术语文件名,地址,命令这些精准的内容。 另外呢,我还打开了一个时间衰减机制,也就是 temporal deki, 我 把半衰期设成了九十天。 这么做的意思呢,就是我越新的信息呢,权重就越高,越旧的信息呢,权重就会慢慢降低的。这样系统在排序的时候呢,会更优先参考近期有用的内容,而不会总是把特别老的内容排到前面去。 所以这套配置呢,是我现在在用的,而且我觉得已经是比较稳的一套方案了,你完全可以直接照搬。后面呢,你根据自己的场景再慢慢微调 好了。配置好 memory 设置之后呢,接下来最关键的问题就是怎么真正让它开始工作呢?你其实可以直接告诉小龙虾,让它去执行,所以它就真的自己会去做了。我这里为了演示呢,手动执行一次 opencl memory index, 因为我用的是本地欧拉玛的 bgm 三模型,所以整个锁影过程你看就非常的快。在锁影完成了之后啊,我们可以看到它已经在我的电脑上建好了对应的长期记忆库了。 那么你看到我的系统一共缩影了九百四十九个文件,其中既包括了我的知识库内容,也包括我过去和他的对话记录,总共大概他分了两千四百七十三个切片,那这些信息最后都会保存到本地的 sqlite 数据库里面。 那么接下来我们就可以实际测试一下它的剪索效果。比如呢,我先搜索一个词儿, power, 这是一家很厉害的美国上市的 ai 软件公司啊, 好,你会发现啊,他很快就能搜出很多相关信息,有些结果呢,是来自我知识库里的笔记,有些结果呢,就来自过去我跟小龙虾的对话记录,所以就是说他不仅能解锁文档,也能解锁历史绘画。然后呢,我们再看一个更贴近真实使用场景的例子, 比如我在 telegram 里面直接问小龙虾一句话,你还记得以前我们聊过怎么样用 ai 来管理知识库的吗? 因为我过去确实跟他聊过很多相关话题啊,而且积累了很多 markdown 的 笔记。所以当我这样问他的时候呢,他就会自动的搜索长期记忆了,然后把相关的内容重新找出来。 所以你会看到他不仅能把相关的信息召回,还会明确的告诉我这些内容来自哪些文件,哪些记录。所以像这种效果啊,他本质上就是长期记忆在发挥作用。 所以从这里你就能真正的理解 memory search 的 价值。它不是让 ai 死记硬背所有的内容啊,而是让它在你需要的时候,能够从过去的知识库和历史对话里面呢,把最相关的信息重新找回来。当然了,我这里为了掩饰啊,我提示的很明显了,直接引导它去搜索。 其实在真实的使用当中啊,你不需要每次这么明显的说,你只要上下文足够的相关,它通常就会根据情况自动触发回忆机制。所以整个系统最理想的状态呢,就是你平常放心的使用斜杠六,清理短期记忆, 保持上下文的清亮。而所有重要历史对话和知识库呢,都已经进入到长期的记忆库里面了,等你未来再聊相关内容的时候呢,它会自动的把这些东西全部重新找回来。 所以,这就是为什么我现在觉得啊, openclaw 它不只是一个聊天工具,而是真的已经开始变成我的第二大脑了。这也是为什么我一直在强调真正好用的 ai 啊,它不是单纯上下文更大,而是记忆系统更完整。 好。最后呢,你可以把 openclaw 的 记忆系统理解成一句话,短期记忆靠 memory md 和 memory search 来构建。 短期记忆的重点呢,不是拼命的把上下文窗口撑到最大,而是保持它干净清亮够用。而长期记忆的重点呢,也不是让它死记硬背所有的内容,而是建立起一个可以随时被唤起的记忆库。 而当这两套机制配合起来之后啊, open class 就 不再只是一个 ai 聊天工具了,它会越来越了解你,越来越记得你说过的每句话,做过的项目,积累过的知识,它会真的开始变成你的第二大脑。 你会发现啊,小龙虾不只是更聪明了啊,而是变成真正更懂你的大龙虾了。如果你在配置的过程当中呢,遇到任何问题,或者你想让我继续给你拆更细的实操细节,欢迎直接在范凯说 ai 会员群里面来咨询我。

你有没有跟 ai 聊天越聊越崩溃的时候?昨天啊,刚跟他聊过的一些事,重启对话框,他立马装失忆,反复问你是谁,半点之前的对话痕迹都没留下。明明刚教导完的设置,踩过的坑退出再打开,一切归零。 在深度玩过龙虾之后啊,分享给大家一套 ai 记忆系统,让你的助手从此告别失忆。 很多人搞不懂,为什么 ai 这么聪明却记不住事?普通的 ai 大 模型,没有本地持久化记忆的底层功能,他只会临时保留当前绘画的内容, 就像在沙滩上写字绘画一结束,程序一重启,相当于海浪打过来,所有的对话配置信息全被重墨,不留痕迹。这不是 ai 故意忘事,是底层机制限制。 想要他记住啊,咱们就得给他搭一个外置本地记忆库,把信息刻在石头上,也就是咱们的本地文件,彻底绕开原生记忆缺陷。 其实最基础的一步啊,就是需要先有个 memory 文件夹,这个就是个人文档,固定不变的重要信息全放在这里。昵称、核心配置、晋级要求,重启多少次啊,都不会丢。 就好比流水账,当天的操作,踩坑、临时事项随手记,后续想查哪天的内容,直接找对应日期,本档一目了然。 这里啊,要注意,像 overclock 呢,是可以直接要求他把信息录入这两个文件的,相当于啊,给他安装记忆库,给大家演示一下就清楚了。 好,这里我给他一个指令,让他记住这句话。 接下来他会找到 memory 文件夹,打开记忆文档,将这段指令记录在里面。 ok, 他 提示完成了。 就这么简单,靠本地文件存储,不靠 ai 临时记忆,重启之后啊,照样记得清清楚楚,再也不用重复交代了。 现在我们有了记忆库,但是你的龙虾很懒,除非啊,你去它,它才会去给你搜索记忆。这里啊,再给大家神奇 skills 这个技能书,可以让你的龙虾拥有一个主动翻找记忆库的能力。 当你问一个问题的时候啊,它会自动联想,就像有一个大脑在背后做记忆解锁,而不是啊,临时去翻文件夹,大大缩短搜索链路。 那么随着我们使用龙虾的时间越来越长,我们存储的记忆文件呢,也会越来越多,或者说,你是需要查大量资料的从业者,大量参考文件的学生, 那就要用到 abc 点这个本地知识整理工具,专门啊,把零散碎片变成体系化知识,把海量的文本资料变成龙虾专属知识库, 给大家看一下它的核心能力。笔记之间啊,互相引用,问题和解决方案直接绑定,再也不用零散找内容了。 还有啊,关系图谱功能,所有笔记的关系格式化呈现,上一张知识地图,一眼看清所有内容的关联,彻底告别碎片信息。 这样就能实现让 openclaw 负责实时记录, obsidian 负责整理规范,各司其职。其实啊,整个龙虾的记忆逻辑就是分成三层,打个比方, memory 文件是档案柜, delete 技能就是一个会主动翻资料的脑子。 obsidian 呢,就是给龙虾造一个图书馆。 这套三层式的记忆宫殿,本质就是给 ai 配了一个可以书写下去的记事本,并且每一页都有清晰的标签和目录,重要信息写进本地文件就忘不掉,并且能够快速提取出来。 它能让 ai 记住你的所有偏好,不再重复犯错,每一次沟通都能不断积累经验,学习进步,成为你的得力小帮手。好,本期视频就到这里,我是爱分享 ai 的 阿月,我们下期再见!