大家在做项目的时候有没有发现每一次对话都会调用很多的工具,而且很长一串,而且回复也是很长一串,总觉得每次对话都会浪费很多的对话次数。我今天下午给我的小龙虾配 备了一个插件,就是 maryland 的, 而且我给这个插件配备了一个项链模型,这项链模型是百炼的一个模型,它每天的话,它的工作原理就是每一次对话把你的记忆来解锁,而且一次对话成本很低,一天对话差不多就是几角钱。 我还做了一个记忆分成, later, long and merry 这个东西让我的记忆能够做到,它的工作原理就是把你的记忆用来做冷热中的一个分成记忆,你去用项链模型配合的去用,它每次调用都很精准,上下文也很节约。你看我到后面我配备了过后,现在基本上就是一句话就直接给出结果, 这样很节约我们在做项目时候的时间,还有他的记忆很精准,会丢掉上下文的一些记忆在里面去给到模型去反馈,反馈结果给你。而且你们在用飞速的时候,飞速在对话的时候也会很慢,那你加上这个功能,他对话的效率就会很快。我现在已经把这个功能已经配备到我的 u 盘里面了,大家可以去看一下。
粉丝1200获赞7810

大家好,我是根古,告诉大家一个好消息,本地大模型的玩家春晚来了,欧拉玛 v 二点零正式上线,支持吉米莱四,这次最大的更新提升就是速度,内存优化后加载接近快百分之五十,基本做到回车即响应,本地推理体验直接起飞,而且支持超大的上下文, 写代码,读长文更稳更准,做任务也不卡,性能直接拉满。别再去用云端了,赶紧升级把 gmail 是 跑在自己的电脑上吧。给大家讲一下如何更新啊。首先第一步要更新你的欧拉玛,这个直接就在这个 set 里面,可以直接去更新啊,如果你不是最新的话,它这里会显示 update。 第二的话,进入这个欧拉玛官网, 把这个欧拉玛万吉米兰四的二十六 b 这样一个模型输到这个终端命令。行,我现在正在下载,现在网速挺慢的,可能要下载个两小时左右,大概是十七 b 下完了以后,在你这个欧拉玛这里就能出这个模型啊,在这个这个 new chat 里面就会出现这个吉米兰四啊,当然你不需要去切啊。第二步的话,你会用欧拉玛这个命令把它浪起来,对吧?欧拉玛欧拉玛浪起这个欧拉玛 launch 这个 open cloud, 然后你把这个当你下完了以后,这里会多出一个集美的四啊,你把它选上去就可以用了啊。今天晚上我会体验一波,明天会把这个体验效果给大家分享一下。

大家一定要记住,为什么会有龙虾?龙虾为什么会这么火?是因为以前的大模型有几个缺陷,包括刚刚企业私有化, ai 没有做好的一个核心点,就首先他是没有记忆的,记你就全记吧,记不下来。大家知道大模型有个叫上下门窗口,上门窗口几百 k 也就存几十万字, 那很多数据都往里 c, 而且它 c 多了还有什么问题?你知道上门太长还你知道什么问题吗?记模糊了就是他找不到重点了, 这就是为什么上就他记了很多东西以后,你就发现他在写东西有时候会变笨,他变笨的核心原因是他以前的东西记太多以后,你再想他的原理什么是根据这么多词的概率推荐下一个词, 当那边词太多以后,他不就模糊了吗?所以他抓不住重点了。所以在在这个很多这个大模型产品里,对记忆都是一个非常头头的东西, 再一个就他也没有办法主动去记,对吧?有的新东西来了,不断出现的事,他也没有办法变成一个重点的归类。所以呢,今天龙虾 tcclor 就 有了文件记忆,文件记忆又分好几层啊,再一个就是定时器,再一个就是用工具,再用机制等等这些。所以你们一定要把这几这两个东西记住,一个叫 cron, 一个叫工具, 这两件事情还有他的记忆。就有的时候我跟三万交流的时候,我会说我们曾经发生过什么什么事,前天我让你做个什么文档,你先想一下,你以为我是真的让他想吗?我让他想一下,是把我关注的文档给他调到他的上文里,他 想完之后他会把那文档吐给你们,他吐给你,过程就装到他大脑里。这个事我在这有次文档跟他讲,所以这里面有个很重要的那个,就是你真的要跟他记忆搞好,要一个长问题,至少分两步,你看刚才我是怎么把一个国产模型用的这么好的, 我都是在跟他分两步,我第一步是说我要一个什么什么你经典啊什么,然后我跟他说,我说怎么样,你这个工作步骤都给我讲一遍,看见没有?这是第一步,就我不会让他直接干活,让他直接干活他就要去把这个任务分的很长,他很多地方就太碎了嘛。所以我第一步让他总结这个工作步骤, 这就第一步,等他总结步骤完了,再再让他去做这第二步,然后再让他发一个测试,这样是第三步, 也就说你今天要真的去理解他的时候你才知道,哦,原来我去训他的时候,我是要一点一点的层层递进的去聊 这个基因怎么去利用它,你去问龙虾,你跟他探讨你就知道了。大家去要 c m c 点 b o t 啊,去下载一键就知道了,就可以跟着我的教程一点点往前走,非常简单的原理,但是得花点时间真正实践养龙虾就用 ez curl。

当 ai 智能体变得越来越强大,开发者们开始让他们承担跨越数小时甚至数天的复杂任务,但如何让 agent 在 多个上下文窗口中持续稳定地推进工作,至今仍是一个未解难题。 常识运行 agent 面临的核心挑战是,他们必须在一个个独立的绘画中工作,而每次新绘画开始时, agent 对 之前发生的一切毫无记忆。就像一个软件项目里,每位轮班工程师到岗时完全不知道上一班发生了什么。 antropic 观察到两种典型失败模式,第一种 agent 试图一口气完成所有功能,结果在实现到一半时耗尽上下文,留下半成品代码。下一个绘画只能靠猜测重新起步,浪费大量时间。 第二种失败模式,在项目推进到一定阶段后,后续的 agent 实力环顾四周,看到已有进展,便自行宣告任务完成。即使还有大量功能尚未实现, antropit 提出了一套双 agent 解决方案。第一个是初使化 agent, 负责在首次运行时搭建整体环境。第二个是编码 agent, 在 每次绘画中完成增量进展,并为下一次绘画留下清晰的交接材料。 初步化 agent 在 项目第一次运行时会完成三件关键事情,生成 init s h、 启动脚本、创建 cloud progress、 点 txt 进度日记文件,以及提交初使 git commit 记录所有新增文件的状态。 为了防止 agent 提前宣告完成,初步化 agent 会生成一份详尽的功能需求列表。以克隆 cloud ai 为例,这份列表包含超过二百条功能描述,每条初始状态均标记为未通过,为后续 agent 提供清晰的完成标准。 在格式选择上,团队最终采用 j s o n 而非 markdown 来存储功能列表,原因在于模型对 j s o n 文件的修改更为克制,不会随意删除或覆盖内容,从而保证了功能列表的完整性。 编码 agent 的 核心策略是每次绘画只专注于一个功能的实现。这种增量推进方式被证明是解决 agent 贪多冒进问题的关键。每次只做一件事,做完做好再交棒给下一个绘画。 每次绘画结束时,编码 agent 必须做两件事,用清晰的提交信息将进展提交到 git, 并在进度文件中写下本次工作摘要, 这让下一个 agent 能够快速定位状态,也让出错时可以随时回滚。另一个关键发现是关于测试 cloud 在 没有明确提示时,往往会在单元测试或 curl 命令通过后就认为功能完成,却忽略了端到端的验证。引入 puppeteer 等浏览器自动化工具后, agent 能像真实用户一样操作界面,显著提升了测试的准确性。 有了这套框架,每个编码 agent 启动时都会执行标准化的热身流程。首先运行 pwd 确认工作目录,然后读取 get 日制和进度文件,了解最新状态。 接着查看功能列表,选出优先级最高的未完成功能。最后启动开发服务器并运行基础端到端测试,确认应用处于正常状态。 我们来总结一下这套方案如何对应每个问题,提前宣告完成。用功能列表约束环境遗留 bug。 用 git 和进度日制追踪功能标记不实用,浏览器自动化验证,不知道如何启动应用?用 init s h 脚本解决。 这套方案的核心洞察来自对人类工程师日常工作的观察。工程师每天都在用 git 提交记录和进度笔记来交接工作,让 agent 也养成同样的习惯,就能让他在跨越多个上下文窗口时始终保持清醒的状态感知。 这项研究还留下了开放性问题,未来的方向包括探索多 agent 协助架构,例如专门的测试 agent、 质量保障 agent 和代码清理 agent。 同时将这套框架从全站 web 开发推广到科学研究、金融建模等其他常识任务领域。 总结一下让常识运行 agent 稳定工作的三个关键,一、用初识化 agent 搭建结构化环境。二、用增量策略约束每次绘画的工作范围。三、用 get 进度日制和浏览器测试保证每次交接的质量。这套框架让 agent 真正具备了跨越时间的工程能力。

大家都说 openclaw 费 talk, 那 openclaw 为什么这么费 talk 呢?今天我们就了解一下 openclaw 的 核心原理。首先我们看看这个 workfollow 的 这个马达文件,这里面介绍了 openclaw 的 一整个的工作流程,它要加载哪些配置文件,其中主要的有几个 agent 就是 我们的智能体的配置文件, 他设置了这个智能体该怎么工作。还有第二个就是 soar 这个 model, 它主要介绍了这个智能体的人格。第三个就是 identify 这个 model, 它主要介绍了这个智能体的身份定义的信息。再一个就是 user, user 就是 我们的用户,我们自己 为了了解清楚 opencloud 是 如何跟大模型进行交互的,我特地去把它跟大模型交互的 api 的 数据给抓了出来,可以看到它向大模型提交数据的时候,主要有 几个字段。第一个就是这个 system, system 是 open cloud 系统提示词,它会一次性的把刚刚所说的 agent, so identify, user 还有它自己的记忆文件提交给大模型, 当然这个记忆文件会是会随着我们的使用越滚越大。第二个字段就是 message, message 就是 我们跟 opencloud 的 对话的时候所产生的对话记录,它也会越滚越大的存起来,全部提交给大模型。 其次就是他用到的。其次就是托尔的这个字钻,这个字钻会把它能够使用的一些工具全部提交给大模型,大家可以看一下这其中就有六七百个工具, 然后我们看一下这一一次单次的提交大概就是一百五十六 k, 哎,大家可以想象一下,我们平时跟豆包进行沟通的时候,每次就说一段话才几个比特,用可乐跟大模型交互一次就是一百五十六 k, 所以 这就是他消耗托肯的一个关键,因为他要携带大量的上下文对话记录和他的记忆系统和他可以使用到的工具。

你是不是每天都在哀嚎 open collab 太贵,虾又养不起了,啥也没干,几十块钱就出去了。这期就讲清楚 open collab 为什么贵,以及怎么把它用便宜。先来说 open collab 为什么贵, 很多时候不是因为你问的多,而是他每次都要带着一大堆上下文一起工作。你以为自己只发了一句话,但模型其实可能同时在处理很多附带材料, 所以它贵的根本原因不是单次提问,而是无效信息太多, 把它掰开揉碎讲明白,点赞、关注、收藏,你一定用得上。先说官方经验,首先处理长绘画带来的上下纹膨胀,绘画越长,历史内容越多,偷看压力越大。官方建议使用 compad 来压缩绘画,把机用内容转化成摘药后再继续。 二、减少无效内容的输出工具返回的内容越长,模型要读的内容就越多,所以官方建议直接剪裁大段的工具输出,只保留必要结果。比如只看报错附近的几十行代码,先让工具返回摘药或者盖栏确认有用之后再继续展开某一段落。 三、控制图片输入成本图片视频过多过大时自然会增加透看的消耗,所以官方建议适当调低分辨率来降低消耗。四、 精简 skill 的 说明和系统注入内容官方建议 skill 的 描述尽量要短,因为它写的越长,固定成本越高。五、优先用更小的模型处理非复杂任务。对于探索型非十分重要的任务,官方也建议优先使用更便宜的模型来降低成本。还有一些民间经验也十分值得借鉴。一、用 缓存附用固定内容,把长期不变的系统提示词、知识库背景、固定规则放在前面,并尽量保持不变,可以减少重复计费。二、精简系统提示词配置和默认注入。除了官方提到的 skill 的 描述,还有不要在全局配置里堆太多规则、人设 工具说明和项目背景,能按需下载的就不要默认全量下载,这样能进一步减少每次请求的固定开销。三、控制输入内容这个模型真正需要的内容,不 不要把未经处理的长文档成分、 pdf 完整日制直接丢给模型。更好的做法是先清理无关内容,再采用先摘要后细看的方式逐步输入。四、 控制输出成本,避免模型生成无效。长文输出同样是要计费的,所以要限制 i i 输出的最大长度,可以明确要求简短回答 输出核心结果,必要时使用更紧凑的结构化格式来限制输出,最后通过监控再来优化。先通过 status、 usage, tokens 之类的方式来来定位,浪费来源,再有针对性的进行调整。还有更精益的做法,比如 批处理、懒加载、本地化替代等方式,这些方法更适合开发者或者重度用户。大家如果感兴趣的话,我会再出一期讲一讲,欢迎评论区分享你还有哪些养虾省钱小技巧?

我今天给大家分享的是我们可乐的绘画裁剪技术,他跟我之前发的这个商业纹压缩机制这块他的作用实际上是基本上是相同的,主要都是为了解锁节节约短页纹的。我们知道当绘画短页纹超出之后,有一个比如说绘画,绘画当中的商业纹比较大来说,那说白了咱们在这一个绘画里面内容比较多 的时候,他要把这个信息去发送给这个模型的内容就越长, 那这样一个是会呃增加咱们后坑的一个消耗,也增加咱们对模型的一个成本。另外一个就是会降低模型的推理速度,咱们发送给模型的信息量越大,那么他的推理推理的过程返回给咱们一个响应,他就会越慢,他跟那个上一回压缩他的要解决的问题实际上都是一样的,只不过是他通过不同的方式去来的, 主要解决的问题都是为了解决这个商业文,它会有模型,都会有商业文的限制。你像这个这种情况,我在规划里面的它的商业文限制是十六 k, 这里面已经达到了二十点八 k, 这个 k 代表的是 open 的 数量, k 是 千,二十点八千,那就是乘以乘以一千,那就是两万多的那个两万多 open, 你 像这这种超了, 像它 session session planning 这个就是裁剪,通过规划裁剪,它裁剪的是什么呢?它裁剪的是那个主要咱们的工具的一个输出结果, 咱们绘画当中的这个东西,他因为咱们在呃,在通过问可乐去执行任务的时候,他会执行一些工具,通过工具去完成咱们那个动作,他每步比如说工具执行完之后,他会有具体的一个工具的一个输出, 那这样的话他实际上他这就占用咱们绘画的上下文了。那随着咱们绘画的那个人数增多之后,咱们反复的跟这个智能体进行对话,每一轮一轮下来,不轮对话之后,他的上下文的这样的一个限制, 他造成的那个造成的不良的一个后果是什么呢?一个是咱们我刚才提到的一个在调用模型 ip 的 时候,他的一个头盔的一个大量消耗咱们的头盔增加成本调用的成本。另外一个就是咱们上下文,咱们输入给上下文的内容越多,他的推理的那个 速度,模型去推理的速度他就会越慢,他给咱们讲一篇也会增加延时。另外一个如果说我们把这些大量的没有用的那个工具的输出去留存的话,那么他会,他会很很快,他就会导致咱们上下文这个量迅速就上去, 导致什么呢?他会导致咱们的上下弯压缩,就是咱们在之前这个作作品当中提到的上下弯压缩机制,这里边这两个作品当中提到的会造成上下弯压缩,这个上下弯压缩他是对咱们整个绘画去做一个 summarize 做一个总结, 把相当于把这个内容做了一次汇总,汇总完之后流传下来过程是实际上是非常的非常重的一个操作,所以他一般会很好使,很消耗资源,很慢。 他如果说咱们会通过绘画的简直把一些不必要的这种工具的输出的结果剪裁剪掉之后,那么他的这个可以减缓他一个全局的一个上下纹压缩,咱们这个上下纹压缩他实际上是属于内存,就说是纯内存的一个操作。操作呢?那个 主要是在因为因为咱们程序去处理咱们这块的信息数据的时候,他比如说咱们在程序当中去声明一个变量啊,他实际上都是在内存当中去开辟一块空间,比如说去存储这些信息,他这个这个操作实际上是实际上是在咱们程序当中去打去做一个菜单的。他是每次在调用之前, 调用那个模型之前,他会,他会把那个工具的输出结果裁剪掉去发送给模型,降低一个头等的消耗。兄弟们今天太累了啊,本来都想直接睡觉,但是看到后来看到这么晚了还在看我的这个作品,然后又从被窝里爬起来,然后再录几条视频。

一天一个 skill, 今天分享的是 self improvement, 你 是不是以为有记忆的 agent 就 等于会进化?我之前也这么认为,觉得只要像 open call 那 样,加上长期记忆,上下文解锁,应该就会越用越聪明。 后来我发现并非如此,他只是记住了我说过什么,但并没有学会下次该怎么做。比如我告诉他脚本太长了,他会记住我喜欢短平快风格,但下次他可能还是写长了。 他不会自己分析原因,也不会修改策略,这个 self improvement 就 能解决这个问题。他不只是存对话历史,而是会记录执行过程,记录结果,分析错误抽象规则,然后更新未来的行为逻辑。重点是他改变的不是记忆内容, 而是决策规则。这就好比一个应届实习生和一个会复盘的经理,一个只是机械的记笔记,另一个会总结经验,下次主动改进。所以真正的自我进化不是多一个 memory 模块,而是多一个反馈循环。 如果你的 agent 只是能记住过去,而没有持续进化,那就赶紧装上这个 skill 试试吧。安装方法还是一如既往的简单,不会的朋友可以跟着我操作。首先在 skills 商店搜索 self, 找到 self improvement, 点击右侧的,通过你的 agent 添加,选择你使用的龙虾平台,复制后直接粘贴到你龙虾对话框, 它就会开始自动安装进度条,走完你的 ai 就 拥有了从错误中学习持续自我改进的能力。以后不用再反复教同样的事情,它会自己记住自己,进化,自动变得更懂你。

opencloud 刚刚发布了二零二六点三点二二,这次更新呢,只有两个字,暴力。首先呢,我们可以来看到它的模型默认呢,已经支持了 gpt 五点四,而且呢,也可以在五点四上面保持 codex。 然后呢, mini max 也来到了二点七的版本,生产力直接拉满。但如果你不看更新日期就盲目升级,那么你的插件可能会全部停摆。 首先,官方正式推出了 cloud hub, 现在的插件安装就会优先走官方的原,而不是回退到 npm。 更狠的是,老旧的 motoboot 文件夹彻底作废,会全部迁移到这个 opencloud 的 目录下面。所以呢,升级后的第一件事,务必运行 opencloud dr fix, 否则呢,你的浏览器控制和旧版插件会集体罢工。这次更新呢,最懂开发者情绪的功能出现了,斜杠 btw, 侧边提问,以前在常会话里面问个常识题呢,会污染整个上下文,现在直接输入这个小命令 秒回答,而且不占塞省的内存。另外呢,安卓节点现在也支持搜索通话记录和短信了。 你看,你的 ai 代理终于能像个真正的私人管家一样帮你看看谁给你打过电话了。然后呢,作为安全老兵,这次必须给这次的 sandbox 点赞!更新这个版本呢,分堵了 glibc 的 哎,在这分堵了 glibc 调优利用和 jvm 注入漏洞,连 windows 下的远程 smb 频剧劫持都被毒死了。所以现在呢, open cloud 正在从一个好用的工具变成一个安全的防御堡垒。 代码要写的优雅,环境要跑得更稳,还没有升级的兄弟赶紧可以尝试一下 update 命令或者 npm 命令去把它升级到最新的版本。好,我是一轩,想看更多硬核玩法吗?关注我,带你真的用 ai。

欢迎来到小龙虾每日一季,你是不是也遇到过这种情况,跟 ai 聊了半天项目,换个话题,他就忘了刚才的代码。今天教大家一个神器 memory, 让 ai 拥有长期记忆,记住你的整个项目。上下文每次对话都像在跟最懂你的资深同事沟通, 它可以看作是给 ai 助手装上了大脑海马体,相当于鱼的记忆,变成了大象的记忆。下面我就来教教大家如何安装吧。 首先我们下载这个压缩包, 然后我们再打开小龙虾的安装目录, 下面跟着我的步骤来到 skill 文件夹, 然后打开这个 skills 文件夹,在里面新建一个目录, 就叫 memory, 然后把压缩包解压到这个文件夹, 然后就 ok 了。再回到小龙虾,打开技能,看看安装上去没有,来搜索一下, 可以看见已经安装成功了,显示是正常可以起用的,以后聊天就不用重复自己的背景信息了, ai 会越来越懂你了,关注我,后续视频也会继续分享 skill。

它这块具体的是,呃怎么运行的呢?一个是说它会有一个咱们可以去设置一个 ttl, 就是 time to live 去就说它等多长时间,它默认是五分钟。这个光通道里面也是有的, 在在这个地方这块,这块实际上是在咱们的版里边配置文件里边这个 note 这次里边是可以做配置的。这个就是这个时间,它实际上就是说多长时间之后,咱们可以说多长时间之后开始进行一次,做一次 pr, 做一次裁剪 这块就结实,实际上他就是控制咱们裁剪的一个一个频率,相当于是这块的话,他实际上咱们他在裁剪的时候,他不会说去呃,裁剪咱们绘画当中的这种咱们发送的这些信息啊,还有像像智能体返回的这些这些信息,他裁剪的实际上就是说这些工具的输出, 像这种工具的输出中间他输出了一个一个这样的一个散数据,实际上就是这个他不会去裁剪掉咱们绘画当中的这些数据,包括咱们发送的这些数据, 这些不会,它是裁剪的是工具工具的一个输出,它这个里边提到的裁剪一个是软裁剪,一个是硬清竹这个 soft trim 的 话,它实际上就是说有一些输出,有些工具的调用的时候,它的输出会比较会比它的输出的内容会比较长。 你像有的时候像这种这种还不是还不是算长的,有的有的会比较长,这种工具的一个输出,像这种有的比较长的这种的他做裁剪的时候他一般是怎么裁剪?他相当于是头尾保留,把中间的这一部分去做一个,做一个省略符的一个替换,就这样, 但是它比例是可以控制的,也是在这个配帧键中当中,它是有一个 soft trim ratio, 它可以控制裁剪的一个比例,你你你你要,你要裁剪要留多少?这个哈德 clear 的 话这块也有解释,哈德 clear 它相当于是把整个工具的一个输出结果用一个占位符去做一个替换, 它就相当于是把这个地方有的地方,这个地方它就相当于没有了。把它整个做一个替换,这块它的比例也是可以控制的。这有一个配置哈德 clear ratio 对 这个也是可以控制的, 像这个 sound trim 这些都都可以做一些控制,具体的一个控制这个地方的话是跟模型,模型有关的,这个咱们可以不用理解吧?这个里边你看他就提到了这个他的配置如何起用起用散热纹压缩,比如说控制他的压缩的这个 压缩的模式和裁剪的模式和滤镜,你要禁用就把这个模式关掉就行了。 mod 改成 off, 如果开启了可以设置它的 mode, 也是有有几种的开开启,开启 tdl 滤镜就起作用了,如果 off 就 相当于把这个就的功能就关掉了。 这里边,呃,他对比了这个 pruning 绘画的剪纸和压缩,他俩做了一个对比,实际上在咱们这期,呃,这期视频里边上线纹压缩机制这两个视频里面咱们也有提到,也对比过绘画剪纸和压缩的这两个,从几个角度去对比了一下,一个是他的 a 功能,他到底是做什么? 你像绘画裁剪,实际上这块说白就是它针对谁去做的裁剪,对吧?这个地方它是像绘画裁剪 pruning, 主要是对工具的这个 off the top off the top off 的 绘画当中的这种去做裁剪。像这种上联纹压缩的话,主要就是它在压缩的时候,它包括了咱们的这些信息都会去做做一个压缩,它是一个全局的,都会整个绘画都会去做一个压缩,一个总结, 他这个行为是一个比较重的一个操作,他这个比较重的操作,因为他要去写入此盘,会有一些写入此盘持久化的一个动作,所以他这个占用压缩,他是一个比较动的硬的一个动作。你像他让你减脂的话,他裁剪的话主要是在咱们内存当中,他的他的行为发生在内存当中,所以他的速度和动力比较快的。 这个周瑜咱们刚才说的他是对针对工具输出结果,他是整个的绘画的规划历史的,所有的都会都会做一个裁剪这块他主要就是对比了他们两个主要是怎么用的。你像外边说的这个 action 这个压缩的话,他实际上是对他是一个全绝的,这对咱们整个绘画去做的那个一个经典,一个压缩, 实际上他们俩怎么可以配合呢?说他在裁剪的过程当中,比如说我,我把他的开启他的绘画的裁剪裁剪功能,在咱们这个配置里边去做这个配置,做这些配置,在他达到山羊纹之前就说我们节省山羊纹,让他去掉模型之前不断的进行把工具的一些输出裁剪掉,他这里实际上对比了他们俩的操作的一个频率 和那个操作的,就说如何让他们俩去配合,好,咱们今天分享就到这里。

如果你问我,管理 openclaw 短期记忆最重要的习惯是什么?我的答案非常简单,聊完一个话题就输入斜杠 new 这个动作呀,会做两件事,第一啊,把当前的对话归档。 第二呢,清理上下文,重新开始,这样你就不用逼着 ai 一 直背着所有的旧内容往前走了。 很多人都觉得呀, openclaw 特别烧 token, 本质上就是因为从来不清理上下文,一直聊一直堆,一直不翻篇儿,最后当然越来越重了。 想看更完整的 openclaw 记忆系统教程,请看我主页置顶。

用了一个月小龙虾才知道,发个斜杠 stop 就 能终止任务。我是清澈君,今天把最常用的 openclaw 命令一口气给你讲完。任务卡住了,你是不是只会盯着屏幕干等,或者直接关掉重来?其实根本不用,问题在于很多人压根不知道有命令可以用。 先说清楚一件事, openclo 的 命令分两层,聊天框里发的是日常控制,斜杠开头发完即生效。终端里跑的是底层服务管理。 openclo 开头负责诊断和兜底。两套命令各管各的,别搞混。 聊天框里三条命令记住就够了。斜杠 stop, 立刻打断任务跑偏直接停。斜杠 restart 两秒重启,助理没反应,先试他。斜杠右清空重开,想换模型或者上下混乱了,用这个这三条覆盖你百分之八十的日常场景, 回复变慢或者答非所问。先发斜杠 start 五秒,看清模型和连接状态,上下文太长,拖慢了。发斜杠 context 看哪些文件占了多少 token, 不 想清空但又太满。发斜杠 compact, 压缩历史,保留关键信息。 终端里六条后手备着 open claw doctor 健康检查。装完或者跑不动先跑一遍 open claw logs 加 follow 实时追日制任务,在跑不知道进展时用它 open claw crown list, 看定时任务清单, open claw status 加 usage, 查模型用量和安全审计 好,全部梳理完了。聊天框三条,先背熟, stop restart new, 终端背一条 openclaw doctor 完整命令,列表在 openclaw 官方文档里,但这几条用熟了,够你应付大多数情况。遇到哪个命令用不明白,评论区说一声,我看到就回。

给大家推荐一个我自己在使用的提升小龙虾记忆系统的方案,这是前段时间一位国外的技术大佬分享的方法,那我自己用下来感觉不错,所以推荐给大家。 首先我们要弄清楚他默认的记忆力为什么会差,其实就四个原因,第一,保存时机太晚。 第二,保存内容不够准,而且工具输出很容易会把上下文撑爆。第三,默认很难直接回查原始绘画。 第四,一旦开始压缩上下文,很多细节就会被忽略,那么他的记忆文件夹只有两个,一个是短期记忆,一个是长期记忆。问题就在于短期记忆一旦装满系统就会开始压缩,也就是把旧内容压缩总结, 那如果重要的信息没有来得及写进,长期记忆细节就会容易丢掉。所以我们要升级重构这套记忆机制,核心目标就是让该写进长期记忆的东西能更早更准的写进去。 好,下面进行具体的配置。第一步,我们要先把记忆文件结构给理顺,把这段提示词发给他,让他去创建几个目录。 为什么要先做这一步呢?因为默认情况下,他会把所有的记忆往一个文件夹里面堆,那这样最大的问题就是后面他在解锁的时候,重点会越来越不清楚,所以这里要做分层。 这样做的好处是后面他在回忆信息时会更容易拿到对的东西。接下来改。第二层是先保护最近对话,再处理上下文膨胀,把这段提示词发给他。 因为小龙虾的诗意很多时候不是完全没有记住过去,而是因为他最近刚说完的内容被压缩了,所以这里要做几层保护,让压缩更保守, 把最近大约两万头肯划成一个优先保护区,这样刚刚讲过的任务目标修正约束不会被总结掉。 然后再按轮次加一层保险,最后四轮对话完整保留,不做摘药。也就是说,既按 token 保护,也按轮次保护,那其他几个参数主要就是给当前的任务留足空间。接下来我们改 memory flash, 默认的 memory flash 有 两个问题,第一是出发太晚,第二是写进去的内容也不够精准,把这段提示词发给他,让他去修改。 注意,这里为什么要加一个 no flash? 因为不是每次聊天都值得写进长期记忆,如果没有这个约束,他很可能为了完成任务,就会硬写一堆没有意义的摘药,那时间一长,日制里全都是噪音,就是垃圾太多了。 ok, 到这一步,其实结构化的记忆已经比默认状态好很多了,但是我们还需要安装一个最强的引擎,就是 qmd, 你 直接把这段指令发给他, 那通过安装和配置 qm d 插件,就能实现全量缩影,让 ai 能够对原始对话历史进行关键词加语义的双重搜索,也就是向量解锁。 最后还要给他加一个规则约束的指令,把这段发给他。 那改造完这整套记忆结构,我们自己平时也要养成个好习惯啊,如果是重要的信息,你就要告诉他保存到记忆中。 在每一次长绘画结束的时候,你让他给列出来应该保存的关键信息, 然后每周回顾一次记忆文件,要删掉一些没有用的信息。 ok, 做完以上这些步骤, 小龙虾的长期使用体验就会得到巨大的提升。每段提示词我都放在了视频简介里,如果有需要的朋友,可以自行去复制发给你的小龙虾。

近期,太原 ai 智能体欧本科奥龙下凭借本地部署自主操控电脑的能力,成为 ai 辅助开发的热门工具,但底层参数配置一旦出错,就会造成巨大资源浪费。本次核心任务是对应的 tree s d k。 二 python s d k 进行全维度梳理,形成标准化文档与测试脚本。 实际执行中, ai 只完成了目录创建,后续工作全面中断,陷入执行中断、重试的死循环,没有任何有效成果, 却在夜间消耗了超百万级无效 token, 严重耽误进度。问题根源并不是模型性能或工具缺陷,而是两处核心参数被不合理手动配置。一是 context window 上下文窗口手动设为一万六千,远低于模型原声上限。二是 max tokens 单次最大输出 token 手动设为四千零九十六,限制了单次输出长度。配置的初衷是想降低 token 消耗,却忽略了工程化分析最大容量上下文的需求。 s d k 分 析需要读取多文件源码, 记忆目录结构,留存历史结论。过小的窗口反而成了性能瓶颈。 context window 代表模型的总上下文容量,可以理解为模型的短期记忆。一万六千的容量太小,系统会自动压缩数据,导致核心信息丢失,模型记不住项目进度, 只能反复从头开始。 max tokens 控制单次推理的最大输出长度,四千零九十六的限制无法满足工程文档和完整代码块的生成,输出会被强制截断,无法生成完整文件或使模型不断重复请求,这样就形成恶性循环。 上下文不足导致记忆丢失,输出截断导致任务无法完成,两者叠加引发无限重试,最终 token 疯狂消耗, 任务却毫无进展。解决方案非常简单, openclaw 本身具备模型参数自动适配能力,没有手动配置时会自动使用。模型的最大上限,我们只需要删除配置文件里的 context window 和 max tokens 这两个限制参数,保存重启后重新下发任务即可, 效果非常明显,任务效率大幅提升。 ai 可以 快速完成全部工作,精准判断底层通信架构,生成完整的架构分析报告,整理全部 api 接口文档,输出对应的拍丧测试脚本,完成统一配置文件参数。缩线并不是不能用,而是要看场景。适合缩线的场景 轻量级交互,比如简单查询单行代码修改普通问答,或是硬件资源有限的环境,可以降低消耗,提高速度。不适合缩线的场景 工程开发、项目分析、长文档生成、批量代码编辑等复杂任务,这些对上下文和输出长度有硬性要求,强行限制一定会崩溃。核心原则, 简单任务适度缩线控成本,复杂任务放开限制保效率,不要一刀切,给大家一个实用的配置。建议复杂任务直接删掉 context window 和 max tokens, 让系统自动适配。手动配置可以参考 常规工程 context window 不 低于八万,大型项目拉满到模型上线, max tokens 建议设为一万六千三百八十四。如果遇到 ai 失忆,输出截断,任务卡住, token 消耗异常,优先检查这两个参数。最后提醒大家, token 成本要看有效产出率,一次完整执行的成本远低于无数次无效重试的总和,提升效率本身就是在节约成本。

大家好,今天我们来聊聊 open class 中的 agent loop, 也就是智能体循环。 agent loop 其实就是智能体一次完整的真实运行流程, 包括消息接收、上下文组装、模型推理、工具执行、流式回复以及数据持久化。它确保每一次对话都能有条不稳地进行,保证绘画状态的一致性。 在 open cloud 中,每个循环都是一次独立串行的,绘画运行期间会不断发出生命周期和流逝事件,无论是模型思考、调用工具还是输出回复,整个过程都在这个循环中有序推进。 接下来,我们将详细拆解这个流程的每个环节,带你深入理解 agent loop 的 工作原理。 agent loop 的 核心流程分为几个关键步骤。首先,入口点可以通过 gateway、 rpc 或命令行接口进入,系统会校验参数,解析绘画持久化原数据, 并立即返回运行 id 和接收时间。随后, agent 命令会加载模型技能快照 并调用。核心运行时,整个过程中事件会被串形化处理,确保同一绘画下不会发生,工具或绘画的竞争 历史记录也能保持一致。模型推理工具调用、流逝输出等都在严格的队列和超时机制下进行, 确保每一步都可追溯可控。最后,生命周期事件会被流逝推送, 直到绘画结束或出错,整个流程才算完整闭环。 open claw 为 agent loop 设计了丰富的钩子系统,方便开发者在流程各环节进行拦截和扩展。内部钩子主要用于命令和生命周期事件, 比如在构建引导文件、处理新绘画、重置或停止命令时,触发插件钩子则更灵活,可以在模型解析前提示词构建、前工具调用、前后消息收发等多个阶段介入, 实现自定义逻辑或安全控制。通过这些钩子,开发者可以动态调整模型, 注入上下文拦截工具调用处理消息流,极大提升了系统的可扩展性和灵活性。钩子的决策规则也很明确,支持终止或放行后续处理,确保每一步都可控。 在 agent loop 运行过程中,所有关键事件都会以流逝方式推送,包括生命周期、助手回复工具事件等。 助手的回复可以分块流时输出,支持部分回复和推理。流工具的执行过程也会实时推送开始更新和结束事件,保证用户能及时获取进展。 最终的回复会经过整合、去重和错误处理,确保输出内容准确、简洁。如果遇到超时异常或中断,系统会自动终止流程并输出相应的错误信息。 通过流逝事件和回复机制, openclaw 实现了高效、实时、可追踪的智能体交互体验。为了保证每次 a 阵 look 的 运行都能保持绘画历史和状态的一致性, openclaw 采用了绘画串形化和局队列机制,无论是消息通道、工具调用还是绘画准备, 所有操作都在严格的锁合队列下进行,防止病发冲突。绘画可以因超时主动中断、网关断开等多种原因提前结束, 但每次中指都会有明确的生命周期事件标记,方便后续追踪和恢复。通过这些机制, open cloud 确保了智能体在复杂环境下依然能稳定高效地完成任务。

欢迎收看我是大厨,只跟你聊最实在、最有用、最有意思的内容。 嗯,好,今天咱们聊一期特别扎心的问题,你用 openclaw 接入的飞书机器人是不是也经常而失忆?就是那种聊得正 嗨,他突然给你弹出一行红字, context limit exceeded, i've resisted our conversation, 然后之前聊的全没了,就好像他失忆了,连自己叫啥都不记得。别慌, 今天咱就一招搞定它,让 opencloud 给你家机器人装上呃,永久记忆,从此告别失忆忆。今天这期内容核心就是解决这个 context limit exceed 的 报错,让飞书机器人能记住所有对话,再也不丢聊天记录。 咱们会从问题根源讲起,拆解两个核心参数,再手把手教大家配置、重启验证,还会教大家看日制查记忆文件。最后附上官方文档和避坑指南。 不管你是对接 opencloud 的 开发者,还是遇到对话清空问题的运维同学,或者想做无限长对话的 ai 应用集成者,今天的内容都能帮到你。记住这两个核。接下来咱们先搞清楚这个 context limit exceeded 到底是咋回事。首先看这个典型报错,相信很多同学都见过,机器人 直接提示上下文限制,超出以重置对话 a, 还贴心提示要把 reserve tokens flush 设到二万以上,翻译过来就是 ai 的 上下文窗口被占满了。 opencloud 触发了自我保护机制,直接也把对话清空了。 这里要先澄清两个误区,这绝对不是非说 api 额度不够,也不是网络出问题了。核心原因就一个, ai 的 短期记忆区域,也就是上下文窗口被对话占满了, 聊得越长,占用的 token 越多,一旦到了上限,就只能强制重置。咱们的解决思路也很明确,调整压缩策略,再加上主动的记忆冲刷,让对话能要解决问题,核心就靠这两个参数, reserve tokens floor 和 memory flush 里的 soft threshold tokens。 先看这张表,咱们把参数作用键一直都列清楚了。第一个 reserve tokens floor 是 系统保留区的安全底线,压缩对话后必须给系统留够这么的 token, 防止把系统提示工具调用这些核心内容截断。建议只按模型来,一百二十八 k 模型设三万四万点,三二 k 模型设八千一万。第二个 soft threshold tokens 是 主动记忆冲刷的预值 token, 用到这个数,系统就会自动总结对话清空。上下文计算也简单,模型上线减去 reserve tokens floor, 再减点安全余量,比如一百二十八 k 模型,减四十 k, 再减二 k, 设八十六 k to the ninety k 就 行。大家可以看这个配置文件片段,就是在 open law dot json 里的 agent 呃 dot default dot dot complexion 下面加这两个配置, reserve tokens floor 设四万 memory flush 开启 soft threshold tokens 设八万九千六百,这俩参数配合用前者保护系统。咱们先把 reserve token 讲透, 这是保障系统稳定的关键,它的核心规则是对话压缩后剩余的空间必须小于等于这个值,才算符合安全要求。咱们可以看这段伪代码理解逻辑,系统先算当前用了多少 token, 如果超了上限就压缩对话历史 压缩后再算剩余空间,要是剩余的还比 reserve tokens floor 大, 就继续压缩,直到剩余空间低于这个安全底线为止。这里要注意调参的分寸,调高这个值,系统固定内容更安全, 但对话能用的空间就小了,压缩会更频繁。调低的话,系统提示可能被截断,导致工具调用失败, ai 行为也会异常。 最佳实践是按模型上线的百分之二十、百分之三十来设,比如 gpt four dot one d twenty eight k 模型。如果说 reserve tokens floor 是 恶防守, 那 memory flash 就是 恶主动进攻,能让 ai 实现真正的长期记忆。 e soft threshold token, 指就是触发水位线,当用掉的 token 达到这个数,就会自动启动冲刷流程。 第一步, ai 会根据当前对话生成总结。第二步,把总结写到 memory 文件夹下的日期命名文件里。 第三步,清空当前上下文,但保留系统提示和长期记忆。第四步,回复 no reply, 用户完全没感知对话就默默续上了。看这个完整配置视力除了开启 enabled 和涉域值,还能自定义 system prompt 和 prompt, 告诉 ai 该怎么总结,怎么存档。 这里一定要注意,必须把 enabled 设为 true, 而且工作目录要一光说不练假把式。咱们现在手把手教大家配置生效。首先看这个生产环境可用的完整配置快。除了之前说的两个核心参数,还建议把 compaction 的 mode 设为 c f g r 的 安全压缩模式, system prompt, copper 和 prompt 也换成中文,让 ai 更清楚该干啥。接下来是生效步骤,一共四步。第一步,找到配置文件,一般在 a openclaw slash openclaw dot json 打开编辑。第二步,把刚才的这块加进去。 第三步,重启网关,根据部署方式选命令。 systemd 用 system tool restart dot pm two 用 pm two restart 直接运行的话,就先杀进城再重启。第四步, 验证配置,执行 openclaw config get agents dot default dot compaction, 确认参数改对了。 这四步配置完怎么确认管用?咱们用日制记忆文件双重验证。先看日制,根据你的部署方式, 用 kernel to p m two logs 或者 tm to f 查看日制,只要能看到 memory flash, triggered 这类关键词,就说明冲刷正常。出发了。在查记忆文件工作目录下的 memory 文件夹里, 家里慧生按 a i m m d, d 到 m d 的 文件打开,就能看到 ai 总结的对话要点。比如用户问了上下文义出问题的,讨论了 reserve tokens floor 参数, 这就说明对话被正确规范了。如果没触发,先检查 soft threshold tokens 是 不是算错了,得小于模型上限减 reserve tokens floor, 再确认 memory flash dot enabled 是 true 工作目录能写。 这里还要避个坑,别用旧的 threshold 字断没用。正确的是 soft threshold tokens, 另外飞出免费版的 api 调用显然是另一回事。呵,这个问题没关系,最后执行。如果大家想挖的更深,推荐几个官方文档。第一个是 opencloud memory 记忆文档, 里面有 memory flash 的 完整说明。第二个是 session management and compaction, 讲压缩算法的底层逻辑。 第三个是 system prompt 概念,能帮大家理解充刷石系统提示的作用,这些文档都是权威参考,能避免踩坑,最终效果特别香。开启 memory flash 后,飞书机器人能支持数百轮对话,重要信息自动归账,再也不会上下维一出用户聊得再久。最后咱们快速回顾一下核心要点, 第一, reserve tokens floor 是 安全盾,保护系统,固定内容,避免压缩过头出问题。第二, memory flash plus soft threshold tokens 是 恶记一笔, 主动总结规章,实现无限对话,无感续接。第三,配置重启验证三步到位,日字能查,记忆可读, 效果立竿见影。总结下来,就靠这两个参数,就能让 opencloud 机器人拥有真正的长期记忆,再也不用面对 context limit exit 的 报错。今天的内容就到这里,感谢大家收看。如果遇到问题,欢迎在评论区留言,也可以关注 b 站的大叔大,咱们下期再见!