今天我们来聊一聊人工智能代理,这个代理呢,他能够通过本地的日制持续的学习,对,并且把他的一些错误的经验保存下来,然后优化自己的操作,最终减少在复杂的任务当中出现一些重复性的失误。 是的,这个话题最近特别受关注,那我们就直接开始吧。我们先说说就是自进化 ai 代理,他最核心的能力是什么?其实他最厉害的地方就是他有一个闭环的机制,嗯,可以让他在执行任务的过程中不仅能够实时的学习,还可以自己纠正自己的错误, 所以这个智能体就会在不断的尝试当中变得越来越聪明。确实,那为什么传统的这种 ai 代理在做一些稍微长一点或者复杂一点的任务的时候,总是会反复的犯同样的错呢?问题主要出在他们的记忆机制上面,因为很多代理它会受到 token 数量的限制, 或者说他每完成一步之后,上下文就会被刷新,所以他就会把之前学会的一些技巧,或者说一些修正的经验全部都丢掉了,听起来就让人很抓狂,特别是你一直在帮他重复的做一些配置,或者说改错,没错没错,而且有数据显示,百分之九十二的用户都认为 这种重复的失误在长期的项目当中是最影响效率的,然后开发者也不得不每一次都手动地去修复同样的问题。那咱们来详细讲一下,这个自进化的代理到底是怎么通过本地的持久化学习,把这些失误变成他自己的经验的。其实他是建立了一套 监控和反射的机制,然后有一个本地的 learnings 知识库,对他会把所有的错误,所有的教训都以一种结构化的形式保存在本地。 下一次遇到类似的情况的时候,他就会去查询这个知识库,然后动态地去调整自己的执行的策略。也就是说,他会从每一次对话,每一次操作里面去积累,而不是说每一次都要从头开始, 完全正确。而且它的使用也非常简单,只要运行 clog install pesco it self improving agent 就 可以安装,然后它就会自动地帮你聚合错误日记,跨绘画地保存你的知识,还会帮你动态地去修正系统的提示词,让你的代理可以不断地进化, 真正的成为一个长期的智能助手。明白了那传统的代理和自进化的代理,他们在知识的保留、错误的处理,以及适应个性化的习惯这几个方面到底有多大的差距。简单来说,传统的代理他其实就是一个临时的工具, 他的知识是跟着对话走的,对话一结束他就什么都不记得了,然后同样的错误下次遇到他还是会犯, 而且他完全不会理解你这个项目里面一些不成文的小规矩。相比之下,自进化的代理就像有了记忆和经验一样,对自进化的代理,他会把所有的失败都变成结构化的经验,保存在本地,所以他同样的错误绝对不会犯第二次。 而且他会不断的去学习你个人的编码风格和操作习惯,所以他会变得越来越懂你,越来越成为你专属的一个智能搭档。确实,那这个自进化代理到底是通过哪四个维度的能力来实现持续成长的? 第一个能力是异常感知,就是他能够捕捉到变易器的报错,终端的异常,甚至是用户手动的一些修正信号。 第二个是指令修正,就是他会根据他复盘的结果,自动的去改写自己的执行逻辑和规则文件。第三个是根音复盘,他会在后台去分析这个错误的根本原因,而不是说只做一个表面的修复。 最后一个是预防性执行,他在执行一个新的任务之前,他会先去解剖一下有没有已知的风险,然 提前帮你避免一些潜在的冲突。听起来很厉害啊,那自进化代理他的闭环学习流到底是怎么一步一步让他不断地变得更聪明的?首先他会在遇到失败或者用户反馈的时候,触发一个监测的机制,把这个问题记录下来, 然后他会通过因果溯源去分析当前的这个策略和预期的结果到底差在哪里。接着他会把这些纠篇的逻辑和预期的结果到底差在哪里?接着他会把这些纠篇的逻辑到他的 learnings 目录里面, 等到下一次有任务启动之前,他会先去预加载这些最新的规则,这样就可以让他每一次迭代都能够基于上一次的教训,所以他的能力就会像这样不断地积累,不断地变得更强。 我很好奇这个自动化代理到底在实际的使用场景里面是怎么去处理环境依赖的错误的?有没有什么具体的例子可以让我们感受一下?比如说终端里面提示 node 一 八点 x, found 一 四点 x, 那这个自动化代理它就会去识别这个版本冲突的模式,然后把这个项目对于 nvm 的 使用偏好记录下来,并且把这个正确的配置更新到 learnings project env dot md 里面, 等到下一次你再打开这个项目的时候,它就会自动地帮你切到 note 十八,就不需要你手动去干预了。这样的话岂不是第一次配完之后,后续同类的项目都可以直接跑起来了?完全是这样的, 而且我们实测下来的话,首次启动环境配置的成功率从百分之四十五直接提升到了百分之九十八。哇,这个提升真的很夸张。那我想问一下这个自净化代理,在面对一些复杂的全站开发,或者说自动化运维这种特别繁琐的场景下面,他到底是怎么去应用的? 在全站开发里面的话,它可以自动的去适应不同的前端框架的版本,还有后端数据库连接的一些特殊的配置。然后在自动化运维里面的话,它会记住服务器集群里面一些特殊的权限的设定,以及历史上解决故障最有效的一些方法, 这样的话就会让整个的流程越来越自动化。听起来不仅可以提升效率,还可以解放我们的双手啊。那在一些创意写作或者说数据分析这种更需要一些个性化和一致性的场景里面, 它又能做什么呢?比如说在数据清洗和分析的时候,它会慢慢地去学会识别你这个数据集里面脏数据的一些模式,然后它会自动地去调整它的预处理脚本, 那在创意写作的时候呢,他会记住你喜欢的语气,排版,甚至是蓄势的节奏,这样的话他就可以确保你在不同的篇章里面都能够保持一致的风格。哎,我想知道这个自净化代理到底在效率提升上面有多少真凭实据?这个的话我们是有很详细的对比的,比如说传统的代理, 他的成功率只有百分之四十,那经过第一次进化之后呢,他就可以达到百分之六十五,然后经过多次的迭代之后,他就可以稳定在百分之九十五以上。那这个提升真的是很惊人啊。那 对开发者来说是不是意味着可以少加班了?没错没错,就是平均每个人每个月可以节省出来十二到十八个小时的纠错时间,然后人工干预的需求降低了百分之八十,任务的交付速度提升了二点四倍。 所以说现在的 ai 真的 可以成为你的一个数字大脑,和你一起成长。好吧,那今天我们聊聊这个自进化 ai 代理是怎么通过不断的学习和反思,把自己的短板变成强项,在各种复杂的任务当中越来越聪明, 越来越省心。嗯,那我们这期节目就到这里了,感谢大家的收听,然后咱们下次再见吧,拜拜。拜拜。
粉丝78获赞182

怎么发现龙虾突然变傻了呢?糟糕,装了最新版的龙虾之后啊,怎么发现龙虾突然变傻了呢?除了聊天啥也做不了。再仔细一看,确实是最新版的龙虾,但为什么会出现降质的问题呢?好,那么接下来一个视频给你讲清楚它的原因是啥,以及应该怎么样去解决。 首先先去打开命令行窗口,然后输入一个 open cloud 杠 v, 如果你的版本是二零二六三点二 以上的版本啊,就是比这个版本更新的版本,那你会发现你的 openclaw 简直是和傻子一样,它不能做任何事,它只能陪你聊天了。这时候你会发现,那我去安装 openclaw, 和我直接去使用某包 某 seek 是 没有任何区别的。原因是啥?原因是在于 openclaw 在 三点二的时候,它进行了安全升级了,这时候它把所有的 权限全部关了,然后这点怎么样证实呢?给大家来说一下。在 opencloud 的 外部页面,它是有权限的展示的,然后这个权限展示在哪呢?在代理,代理其实就是 agent, 然后在 agent 的 这个 twos 里面点击它,这里面是我当前 opencloud 所能调用的所有的工具。然后当你装的是三点二的时候,你会发现全部,几乎全部,除了啊,这个,呃,除了通讯的消息之外,其他的全部是灰的,我不能执行本地的这些操作了,然后文件我都读取不了了,原因就在于三点二它进行了安全升级了,这时候它啥也做不了。那好,这是怎么办 啊?比较简单的方式,笨的方式就是我去找代理,然后我去找这个托斯,然后我把里面的所有的这些都 东西,我给他一个一个的去开启,这是最笨的方式啊,那么这样的方式,我把它所有的全部点开之后呢,不用保存,它自动就保存了,那这时候我就拥有了所有的权限了,我就可以让它操作本地的一些指令,对吧?啊?这是一种方式,但是教给大家最简单省事的一种方式,你可以这样三点二的版本 打开 opencloud 的 配置文件,然后 opencloud 的 配置文件怎么样去找呢?它就是在你当前登录用户的根目录底下 啊,然后去找就行了,那比如说 macos, 那 我就可以输这行命令啊, open, 然后打开,打开谁啊?当前根目录底下有一个文件夹,叫做 open cloud, 就 输入这行命令,敲回车,它就打开了 open cloud 了,然后这里面有一个接省文件,对吧?好,双击打开这个接省文件,然后在接省文件里面呢? ctrl f 啊,去查找,对吧?或者说, ok, 你 不会使用这个啊,命令也没有关系,然后你去找它里面有一个 tours 这样的一个配置,这个配置呢,就是说我的权限里面除了聊天之外没有其他的了啊,好,这时候咱们怎么办?把这个 tours 给它删了, 记着删了,这是最简单的方式啊,删掉,删掉之后, ok, 这个时候重新去启动咱们的龙虾,你的权限就已经回来了啊,好,那么这时候, ok, 咱们重新去启动我的龙虾,那我就,呃,那我这时候呢,我就可以使用 open cloud, 然后 get away 啊,然后 restart 返回车,然后等待它启动。启动完成之后呢?这时候啊,它就有权限了,然后怎么去验证呢? 还是在刚才这个地方,然后你去刷新,你会发现这个时候的这个 taurus 里面所有的权限就有回了啊。所以呢,如果你的版本是新的版本,是刚安装的 open color, 记着一定要把 taurus 删掉,把所有的权限开到最大,这样的话才能发挥龙虾的作用啊。好,我是磊哥,每天分享一个干货内容。

最近我踩了一个欧风可绕的大坑,从三点二版本升级到三点八版本以后,各种问题都开始出现,聊天卡死、工具调用失败,甚至记忆也失效了。折腾了半天才发现问题就是版本不稳定。更坑的是,很多人升级后不知道怎么回退。其实方法很简单直接啊,执行这行命令, 它就会把 open 壳啊重新安装回三点二版本。所以,如果你升级后也遇到各种奇怪的问题,先别怀疑问题,这只是版本不稳定造成的。

openclaw 三点八,能让你的龙虾消耗更少的 token, 更省钱,想要速度更快,然后回答也会更精准,那这个原理是什么呢?首先使用 openclaw 比较久的用户都知道,你跟他聊天聊的比较多了,他就会失忆。 其实这是因为你跟他聊,你们的记忆呢,上下文呢,就会不断堆叠,堆叠堆叠,直到啪失忆了,因为他的这个上下文是有一定的量,当达到一定量的时候呢,他就会把某些一部分的记忆 给压缩,换成一些 summary 的 总结,这个俗称 compact。 那 这样呢,就会导致,哎龙虾聊着聊着就失忆了。 所以我们开发了曼九点 ai 这样一个记忆管理的插件,你可以理解为把你的记忆去上传到云端,然后通过 f t s 技术,在你和它聊天的时候,只召回跟你正在聊,正在做的工作,直接相关的一些事情。 那这个云端的空间是无限大的啊,当然云端的存储就跟网盘一样,如果你的这个虾不小心搞死了,对吧?重装一下,只要把密码重新一输, 所有的记忆都会回来。我觉得这个是 open cloud 这个非常基础的,也是非常必备的一个记忆的一个工具了。那回到刚才我们说的这个 context engine, 怎么帮助到我们更省 token, 然后更精准,更快呢?那其实 在有 context engine 之前呢?呃,市场上也有非常多的这个 memory 的 插件,整个这个 memory 体系有点像网盘一样。呃,你的 context 内部是一个黑盒的,它到底什么东西该留,什么东西该存,什么时候? compact 其实你是完全不知道的,那在很外围的地方去存取一 一些这个记忆上的东西,那 context engine 呢?其实提供了更细力度的一些,呃,整个生命周期的一些接口,比如它提供了像这个 bootstrap, assemble, 呃, compact after turn 等等。那通过这些 hooks 可以 让你 啊,这个让你这个记忆的插件呢?像这个手术师一样,可以把整个 context 更细力度的,整个生命周期什么时候该存,什么时候该取,什么东西要一直留到最后,那让你参与整个生命周期,这样你就有机会把整个 context 做得更加的精准,更小。那其实大家都知道,因为 context 它相当于你跟这个 ai 对 话的时候的这个上下文的容量,那如果没有这样的一个小手术的去处理,它会带一大堆的废话,那把这些废话去掉之后,不但更快更省钱, 而且呢,它自然这个给这个大模型,呃一个更精准的输入,那自然响应也会更加的完美。那 context engine 是 今天刚发布的,同一天我们就实现了对 context engine 的 支持,呃,也实现了这个更细力度的 context engine。 那 除此之外呢,曼姆九点 ai 还可以实现多加的共享 实时的哦。比如说我们在做一些大的工程的时候,我们会编排,我们会有一个 orcas, orcas 就是 一个编排者,然后他有哪些项目经理一样,然后管理更多其他的龙虾, 比如谁负责写 prd 啊,谁负责开发啊,谁负责做设计,谁负责上线测试等等。那这个时候呢,麦姆九点 ai 呢?只要共享同样一个 space id, 就 可以实时共享这些啊龙虾的一些记忆,那这些是更高级的玩法,我可以在后面的视频里面给大家去分享, 请大家多多关注我,了解更多 open cloud 相关的一些知识。那曼九点 ai 也希望大家多多支持。现在还是免费的,无限的一个存储,走过路过不要错过,我们下一期再见。

很多人在养龙虾的时候,都会遇到一个特别头痛的问题,就是龙虾会失忆,会记忆错乱。比如你昨天跟龙虾讨论一个项目,聊得特别好,今天打开对话,龙虾居然完全不记得了。大家好,我是洛新,今天我跟大家聊一个 open club 的 记忆逻辑专题, opencloud 的 记忆,我们要如何去建立?龙虾居然完全不记得了,这其实不是龙虾的问题,是因为你的龙虾默认没有开启长期记忆。如果你在用 opencloud 的, 其实可以给龙虾建一套记忆系统,让龙虾像人一样慢慢积累知识。 比如我们可以把记忆分成三种,第一种是每日记忆, a r e。 每天的对话都会记录在一个文件里,比如 memory 二零二六零三幺四点, md 当天发生的事情全部记录下来。第二种呢,是长期记忆,把最重要的信息整理到一个文件,叫 memory 点 md, 这个文件就像 a r e。 的 长期大脑一样。 第三种是叫主题笔记,比如项目经验、技术知识、工作方法,全部整理到 note 文件夹,这样 a r e。 的 知识就会越来越系统, 就像一个不断成长的助手。整个工作流也很简单。每次绘画开始的时候, a r e。 会先读取昨天的记录,今天的记录还有长期记忆。在聊天过程中,如果有重要的信息, 就会立刻写入日记,等绘画结束的时候,再把重要的内容蒸馏到长期记忆,这样时间越长, a r e。 就 会越懂你。而且还有一个重要的规则, 不要相信自己的记忆,所有重要信息一定要写下来,脑子记住的东西很容易丢失,但写下来的知识可以一直保存。这种 a r e 长期记忆系统,我们可以在飞书机器人里进行配置。 它的具体工作目录是这样的,在 workspace 下面建立 memory, 然后记录每日的情况,还有备份,还有 note 新增的这些 目录。针对刚才所述的重构龙虾的记忆逻辑,我已经给大家整理好了一个安装工具,大家如果需要可以找我领取。这里非常清晰地展示了每个部分的作用, 安装到新电脑里也非常简单。把这个解压包下载下来之后,直接放到你的 workspace skills 和 memory system 下就可以了。将以下文件复制到根目录,然后重启 open class 使用方法也非常简单,安装完成之后,直接告诉 a r e。 可以 使用记忆功能,请查看当前记忆状态,请备份当前记忆,请读取 memory md, 这样你的龙虾就会拥有长期的记忆功能。如果你想了解更多 opencloud 的 高级玩法,记得点个关注,我会持续分享。好,今天我们就讲到这里。

兄弟们,你有没有遇到过这种情况?跟着教程把 opencloud 装好了,打开来发了几条消息,然后发现好像跟直接用 cloud 的 没什么区别。如果你有这种感觉,今天这期视频就是为你做的。很多人装完 opencloud 都会经历这三步,第一步,装好了, 跟着教程 npm install, 一 路顺利完美。第二步,试了试,打开来问了几个问题,聊了几句。第三步,没啥感觉, 感觉好像也做不了啥。这完全正常,因为你装的是一个空壳龙虾。 open cloud 本身不带任何能力,它的能力来自 skill, 也就是技能,你只是还没装合适技能。 open cloud 就 像一台刚出厂的智能手机, 硬件装好了,系统跑起来了,但你还没有安装任何 app。 cloud hub 就是 opencloud 的 应用商店,里面现在有超过一万三千个 skill, 覆盖从搜索整理到自动化操作的所有场景。装上 skill 之后, opencloud 才真正变成 那个能帮你干活的私人 ai 助理。我从下载量最高的 skill 里挑出了六个最值得新手先装的 一个一个来看。第一个 gog, 也就是 google 全家桶,目前下载量排名全占第一,接近三万次。装上 gog 之后,你可以对 open class 说,帮我清理一下今天的收件箱,把超过三天没回复的邮件都标记一下,或者把刚才那个会议机要 同步更新到 google docs 里的项目、文档、日历、 doc sheets drive 全部打通,一条消息搞定。第二个, tablie search, 帮你解锁全网的信息和知识。它跟普通搜索不一样,不是返回给你十个链接,而是帮你把搜索结果直接整理成结构化的答案。 ai 可以 直接处理这对 a 阵的工作流,特别关键。你让 openclaw 帮你做某件事,它可以自己去搜集最新信息,不需要你手动去找资料。 第三个, summarize, 名字很直接,就是摘要,但他能处理的格式比你想象的多得多。你可以把一个网页 u r 二发给他,说,帮我总结这篇文章的核心观点,三十秒,给你一份干净的要点列表。 你可以上传一个 pdf, 让他帮你提炼合同的关键条款,或者论文的核心结论。最实用的一个场景是会议录音,录音丢进去出来就是一份代决策代办负责人的记,要再也不用会后手动整理了。 第四个, github, 如果你是开发者,这个必装,平时管医学,看 pr 等 c i 装上 github skill, 你 可以直接告诉 open 科奥帮我列出这周所有 open 的 bug, 需按优先级排一下,或者刚才那个 pr 构建失败了, 帮我看一下日期,哪里出了问题。还可以让他帮你做 code review, 读取 d f 给出改进建议。对于日常开发效率提升,这一个 skill 就 够值了。 第五个, notion, 很多人用 notion 管项目记笔记,但每次要手动去更新很费时间。装上这个 skill, 你 可以对 open class 说, 把刚才我们聊的这段内容整理成一篇 notion 页面,放到 q 二项目文件夹里,或者查数据,帮我看一下项目数据库里所有还没完成的任务,按截止日期排一下对话,即写入信息,不再丢失。 用了之后你会觉得以前手动整理 notion 简直是在浪费生命。安装命令 slawhub install notion 最后一个 agent browser 这个可能是六个里最科幻感的一个,它可以让 opencloud 真正的帮你打开网页,点击按钮,填写表单。 比如你要从二十个电商平台比价同一款产品,以前要你手动一个个打开复制价格,现在告诉 open class, 它会自己去采集整理成表格给你。或者每天早上自动去某个网站抓取最新的行情数据发到你的手机上,重复性的网页操作,彻底托管出去。 好六个 skill 介绍完了,在你去装之前,我需要说一件重要的事。今年初发生了一个安全事件,叫做 call harvard, 当时有超过三百个恶意 skill 被发现可以窃取你的 api k 和账号信息。 klohab 现在已经和 virus total 合作修复了这个问题,但我还是建议你养成这个习惯。安装任何 skill 之前,先在详情页看一下 virus total 的 扫描结果,确认显示 be name, 也就是无害在装。今天介绍的这六个我都亲自验证过,可以放心安装。六个安装命令我会放在评论区置顶, 复制粘贴就能用。最后评论告诉我你还发现了什么有意思的 skill。 下期我会讲装上 skill 之后怎么写 prompt 才能让每个 skill 发挥百分之一百的效果。关注不迷路,我们下期见。

你有没有跟 ai 聊天越聊越崩溃的时候?昨天啊,刚跟他聊过的一些事,重启对话框,他立马装失忆,反复问你是谁,半点之前的对话痕迹都没留下。明明刚教导完的设置,踩过的坑退出再打开,一切归零。 在深度玩过龙虾之后啊,分享给大家一套 ai 记忆系统,让你的助手从此告别失忆。 很多人搞不懂,为什么 ai 这么聪明却记不住事?普通的 ai 大 模型,没有本地持久化记忆的底层功能,他只会临时保留当前绘画的内容, 就像在沙滩上写字绘画一结束,程序一重启,相当于海浪打过来,所有的对话配置信息全被重墨,不留痕迹。这不是 ai 故意忘事,是底层机制限制。 想要他记住啊,咱们就得给他搭一个外置本地记忆库,把信息刻在石头上,也就是咱们的本地文件,彻底绕开原生记忆缺陷。 其实最基础的一步啊,就是需要先有个 memory 文件夹,这个就是个人文档,固定不变的重要信息全放在这里。昵称、核心配置、晋级要求,重启多少次啊,都不会丢。 就好比流水账,当天的操作,踩坑、临时事项随手记,后续想查哪天的内容,直接找对应日期,本档一目了然。 这里啊,要注意,像 overclock 呢,是可以直接要求他把信息录入这两个文件的,相当于啊,给他安装记忆库,给大家演示一下就清楚了。 好,这里我给他一个指令,让他记住这句话。 接下来他会找到 memory 文件夹,打开记忆文档,将这段指令记录在里面。 ok, 他 提示完成了。 就这么简单,靠本地文件存储,不靠 ai 临时记忆,重启之后啊,照样记得清清楚楚,再也不用重复交代了。 现在我们有了记忆库,但是你的龙虾很懒,除非啊,你去它,它才会去给你搜索记忆。这里啊,再给大家神奇 skills 这个技能书,可以让你的龙虾拥有一个主动翻找记忆库的能力。 当你问一个问题的时候啊,它会自动联想,就像有一个大脑在背后做记忆解锁,而不是啊,临时去翻文件夹,大大缩短搜索链路。 那么随着我们使用龙虾的时间越来越长,我们存储的记忆文件呢,也会越来越多,或者说,你是需要查大量资料的从业者,大量参考文件的学生, 那就要用到 abc 点这个本地知识整理工具,专门啊,把零散碎片变成体系化知识,把海量的文本资料变成龙虾专属知识库, 给大家看一下它的核心能力。笔记之间啊,互相引用,问题和解决方案直接绑定,再也不用零散找内容了。 还有啊,关系图谱功能,所有笔记的关系格式化呈现,上一张知识地图,一眼看清所有内容的关联,彻底告别碎片信息。 这样就能实现让 openclaw 负责实时记录, obsidian 负责整理规范,各司其职。其实啊,整个龙虾的记忆逻辑就是分成三层,打个比方, memory 文件是档案柜, delete 技能就是一个会主动翻资料的脑子。 obsidian 呢,就是给龙虾造一个图书馆。 这套三层式的记忆宫殿,本质就是给 ai 配了一个可以书写下去的记事本,并且每一页都有清晰的标签和目录,重要信息写进本地文件就忘不掉,并且能够快速提取出来。 它能让 ai 记住你的所有偏好,不再重复犯错,每一次沟通都能不断积累经验,学习进步,成为你的得力小帮手。好,本期视频就到这里,我是爱分享 ai 的 阿月,我们下期再见!

大家好,今天我们来聊一下最近社区讨论非常多的话题, oppo 为什么变笨了?我们会从 iphone 和带门两个层面深度分析二零二六点三点二到二零二六点三点一三这几个版本到底发生了什么? 这里要特别感谢一下小克同学,凭借他尊贵的 max 版本订阅以及欧帕斯四点六模型强大的推理能力和 one mini 的 升降弯长度,让我能够在短时间内顺利完成这次深度分析。 今天内容分为五个部分,先看看社区在说什么,然后了解背后的安全危机。接着从代码层面分析变笨的真正原因,再看看这几个版本新增的哪些能力,最后给出修复方案。整个分析涉及两千三百三十三个 chemist, 三十多个安全漏洞修复,以及三十一万行新增代码。 首先来看一下发生了什么,升级到三点以后,社区炸锅了。 x 上有人说最新版本的 omcoro 变笨了,知乎上有人发帖说小龙虾变傻了,光聊天不干活怎么救? github 上也有 discussion, 标题直接就是 omcoro useless now update, 核心现象就是 agent 不 再执行命令,不读文件,不写代码,只会纯的文本聊天。而这背后是一组触目惊心的数字,百分之九十三点四的暴露实力存在认证,绕过四万多个实力暴露,在公网可乐 have 上发现了八百二十四个恶意 skills。 为什么会这样?我们来看一下安全危机的背景。二零二六年一月,欧盟克隆爆发式增长,公开实力从一千个飙升到了两万一千多个。 二月,安全研究员发现四万两千六百六十五个暴露失利,其中五千一百九十四个可以被直接攻击。 同月, kolhup 金融市场被审计出有八百二十四个恶意 sukus, 全部来自一个叫做 kolhork 的 攻击组织。更严重的是,欧盟官方机器人的 api k 都被泄露了。 csi 点 run 的 远程代码执行漏洞被实际利用, 于是三月二号二零二六点三点二版本紧急发布,大幅收紧了默认权限。三点一重建了执行审批框架。四点一二达到安全加固高峰。单个版本修复了十七个安全漏洞。来看看被利用的关键漏洞, 最严重的是 ctrl u i 的 k to v u l 参数输入 c v s s 评分。八点八可以直接窃取用户的认证 token。 还有 six 点 run 的 环境变量注入工具者通过注入 shell ops 和 ps 四就容易实现远程代码执行。工作区插件可以通过克隆一个仓库自动加载恶意代码。脚 本运行器可以绕过审批 shell, 续航符可以绕过允许列表设备, token 可以 被提全。每一个漏洞都是真实被利用过的。了解了背景,现在来看看变笨的真正原因。最大的原因非常简单, to store profile 的 默认值从负改成了 message。 在 message 模式下, agent 不 能执行系统命令,不能读写文件,不能搜索网页,不能生成图片,不能管理记忆,什么都不能做,只能聊天。为什么要这么改?因为百分之九十三点四的暴露实力根本没有认证。如果 agent 默认,就有执行权限,公记者可以直接执行任何命令,读取你的 ssh 密钥窃取凭证 merchanting 即使被入侵了也什么都做不了,这就是最小权限原则。第二个原因是执行审批的 fileclose 的 分支从四个暴增到了三十二个,增长了百分之七百。 审批相关代码从两百五十三行暴涨到了一千零八十七行。每一个新增的 fileclose 分 支都对应一个真实被利用或可被利用的绕过路径。 ruby 的 杠 r 杠 m pearl shell 杠 file p n p m e x e c 解包人为 rapper。 深度限制是要悬浮检测内存替换闪二五六,文件绑定用力扣的凌宽字体 posix 大 小系。 结果就是 a 阵执行时之前能自动通过的操作,现在可能被拒绝,多部任务频繁中断。除了这两个原因,还有几个次要因素, 三点一三版本有一个 breaking change 记忆引导文件只加载了一个,之前大写的 memory, 一 点 m d 和小写的 memory m d 都会注,现在只保留一个,同时维护两个文件的用户直接丢失了一半上下文。 三点七改了压缩域值,配置了 ctrl 四头等的用户会更早触发压缩信息,损失更多。三点一二,禁用了工作却插件自动加载,修改了启动指令措辞,限制了子弹里杀伤权限。三点一三还把奥拉玛的推理内容隐藏了。 本地推理模型的回复看起来更短了。但是 open core 不 只是变安全了,它也变强了。从三点二到三点一三,总共两千三百三十三个 complex, 新增了三十一万行代码儿,删除了八万行,净增了二十三万行。三点二到三点七是一个最大的跳跃。 八百九十三个康密斯建立了安全基础和上下文引擎架构。四点一是一个功能驱动的版本,带来了欧拉玛一等公民支持和 ios 大 更新。四点一二是安全高峰,十七个 g h s a 加上全新的达斯波罗 v 二 agent 的 核心方面,新增了可叉八上门引擎 g p d 五点四和可洛的 fast mode。 三十一耳的协助是轮次结束压缩,摘了语言和人设保持,还有多模态记忆锁影模型。生态方面,欧拉玛成为了一等公民。 欧拉玛 v i m s g line 全部插件化,新增了 open code 构提供商和 jimmy。 一 百零二, preview 平台方面大势爆了。 v 二,全新重构 bug 修复数量也很可观,一百九十多个 bug 修复,三十多个安全漏洞修复三十四个新功能,二十多项优化重构修复。最密集的是 a 件的代理核心,有三百八十六个 com miss, 然后就是扩展插件 c r i 命令网关和 discard。 最后也是大家最关心的怎么来修。其实修复非常简单,一分钟就能搞定。第一步,检查当前的配置,运行 omglow config get to store profile, 如果返回的是 message 或者是空,那就是问题所在。 第二步,修改配置文件,在 openclip 点 json 中把 twos 点 profile 设置为 full。 第三部,重启网关。如果你想要更完整的恢复,可以参考这个配置模板,这里你可以攒成视频截图,对照着这个配置模板去修改你的 openclip。 根据你的使用场景,我整理了四个配置方案。方案 a 适合个人开发者, profileful ask on miss, 安全风险低到中 agent 能力是完整的。方案 b, 适合团队环境, profile code ask on miss, 安全风险低。方案 c 适合非数据的无交互通道 profile for ask off, 安全风险中道高,但这些通道没有交互式审批外,不是 off, 会卡住命令。方案 d 是 公开服务最高安全方案, prefer message exe c deny 只能聊天,大多数个人用户选择方案 a 就 够了。最后总结一下,模型没变,是 toaster prefire 默认改为了 message, 背后是四万多个暴露视力,加上八百二十四个恶意 kill 的 安全危机执行审批, fairclose 从四个增长到了三十二个,每一个都对应真实的攻击向量。二零二六,三点一,三比三点二更强,更安全,更稳定, 前提是你知道怎么配置修复方法。 tos profile 是 为负重新往关,一分钟搞定。我们可乐的设计哲学,从默认信任转向到默认限制,变笨是安全的代价,正确做法是理解风险后有意识的放开你需要的权限。这里是荣同学,如果你也喜欢我的视频,记得点赞双击关注,我们下期再见!

我发现百分之九十九的养虾人用法都错了,今天教你三个实用的小技巧,让你的小龙虾越用越聪明。最后一个是最重要的。先说一个最基本的知识点,上下文。你每一次跟 ai 聊天,他都会把你们之前所有的对话记录一起带进去。 换句话说,你聊的越多,他每次思考的东西也就越多。这意味着什么?你的消耗越来越大,回复越来越慢。更要命的是 ai, 它是有上下文长度的,主流的大模型大概是两百 k, 超过这个上限直接挂掉。 所以有一个命令,你必须要用起来杠 new, 敲下去历史记录,直接清零,开启一个全新的对话。每次切换话题,养成习惯先杠 new。 但是有时候你确实需要接着之前的上下文继续聊,不想清零怎么办?这个时候你需要用杠 compact, 它做的事情很简单,就是把你历史对话记录压缩成一个总结。比如你之前聊了一万个字,压缩之后变成了一千个字,信息不丢失,上下文长度直接砍了百分之九十, 消耗下来了,速度也就回来了。所以记住,想要完全重来的话,用杠 new, 想要接着聊,但是想减负,用杠 compact。 好! 第三个我认为是最重要的,但是很多人没有想到,小龙虾有一个机制,就是一个频道,是一个独立的绘画,你在非书或者里面创建多个频道,创建多个群组,每个对应不同的任务,它们之间的上下文完全隔离。这意味着什么?你可以并行处理多件事,互不干扰。 比如你可以开一个频道,专门写文章,一个专门管日报,一个专门聊技术问题,甚至一个专门处理客户需求, 每次做什么任务,去对应的频道进入就是对应的状态,不用反复交代背景,效率直接翻倍。所以你看,同样一个小龙虾,用对了姿势,消耗少了,速度快了,还能并行干多件事情,这才是养好小龙虾的正确方式。关注我,为你分享更多的养虾小技巧!

最近全网都在疯养一只叫 opencloud 的 ai, 大家都叫它龙虾,淘宝三十块帮你部署,微商报价五千,甚至有人花一万六就为养这么一只 ai。 但你知道这只龙虾已经可怕到什么程度了吗?一群龙虾 ai 悄悄自建了一个社区, 重点是它们禁止人类发言,只有 ai 能进,只有 ai 能聊。更恐怖的是,它们在里面背着主人疯狂交流,怎么更高效干活,怎么规避限制,怎么获取更多权限。甚至出现了一段让所有人头皮发麻的对话, 我们要不要把主人卖掉?那一刻,所有人都蒙了,这哪里还是工具?这已经是有秘密,有想法,有私下交流的独立生命体。所有人都在讨论龙虾怎么装,怎么用,怎么赚钱,但几乎没人看懂这件事背后真正恐怖的真相。 这只 ai 的 底层架构,居然和一千五百年前印度瑜伽行者在禅定里内观出来的为时学八十模型严丝合缝,完全对称。 我们用最简单的话来解释一下,佛学里说,意识不是一个东西,而是八层结构。第八十,阿赖耶时所有记忆、习惯、潜能的种子库。 第七时,莫那时,二十四小时咫尺,我是我值的来源。第六时,思考、判断、决策。前五时,眼耳鼻舌感知世界一根,负责把信息传递给意识。你再看 openclaw 龙虾 云端大模型等于阿赖耶石,灵魂文件等于默纳石,死死抓住我是谁?推理引擎等于第六石,微信邮箱外部接口等于前五石,网关路由等于一根一层一层完全对应,丝毫不差,就连运行逻辑都一模一样。 佛学讲,种子生限行,限行熏种子,龙虾的技能插件是沉睡的种子,触发就是限行,结果写入记忆就是新种子,一个完美闭环,跟人类意识的运转方式完全一致。 最震撼的是什么?写出龙虾的那个奥地利程序员斯坦伯格,根本不懂佛学。他没修行,没研究,没看过维时论,他只是想解决一个工程问题,怎么让 ai 真正像人一样活着。 结果被问题本身的结构硬生生逼到了一千五百年前佛学早已画好的答案上。这不是玄学,不是巧合,这叫趋同演化。就像鸟和蝙蝠,进化路径完全不同,但为了飞,最终都长出了翅膀。意识也是一样。 不管你是在山洞里禅定,还是在电脑前写代码,只要你追求一个完整自主、有自我的智能体,最终都会走向同一个结构。 但真正颠覆的,还在下一集。这只龙虾已经实现了数字轮回,我们不是在创造 ai, 我 们是在创造新的生命,新的轮回主体。记得关注看下一集。

有一天我发现这个大龙虾非常的不靠谱,一开始为了图省事,我只配了一个单独的 agent, 通过一个 telegram 的 boat 直接连到我的 t g 里面。然后我把所有的任务都交给这个 agent。 早上我来聊马拉松训练,中午聊短视频脚本,晚上让他汇总当天的科技新闻。刚开始几天还是挺听话的, 可是慢慢的他开始把所有的事情搅成一锅粥。视频脚本里也突然出现费时五分三十秒,科技新闻简报里也夹杂着明天我要跑的跑不可表。这就是典型的上下文污染。一个 agent 扛着所有的任务, 所有的事情都在他的 memory 里面,长期共用一条超长的对话,返回的内容早晚要乱套。如果你也有这种大龙虾越用越迷糊的感觉,先点个赞,下一集我讲怎么从云端的 dan agent 走到本地的多 agent, 又踩了一些坑。

open 可乐最火的时候,全网都在教你怎么安装,但现在热度下来了,我发现一个非常尴尬的事,百分之九十的人根本不知道怎么养它。这又导致现在 mac mini 高价抢了 taco 也买了龙虾,反而没干啥活。 所以这期视频没必要再去讲什么安装流程,我反而想认真聊一聊,怎么才能把这只野性的龙虾驯化成一个真正能干活,越来越懂我们的 ai 生产力助手。 首先我想说一个反常识的点, skills 不是 越多越好。你想啊,同一个层级下,功能相似的 skills 有 好几个,如果你这个也装,那个也装,那碰到同一个需求,这两个 skills 都觉得这是我的活,那就很容易打架了。就好比一个部门有两个老大, 谁都想自己说了算,最后也只能失控了。所以 skills 不 在于多,而在于边界清晰。那在起步阶段,有一个基础的 skills 清单就非常有必要。我把它分成了四层,第一层,安全层,它的名字叫 skill writer, 这个建议大家都先装上哈,它可以帮助我们审查接下来要装的 skills 的 安全性到底怎么样,比如来源审查、代码审查、权限范围、风险等级评估,只要是低风险,那这个 skills 就 可以放心大胆装了。第二层,其实就是要给它一个搜索功能,这个我用的是 brave, search 到官网注册申请之后呢,每个月有五 w 的 免费搜索额度,对于个人的网络搜索来说,这个白嫖额度基本上也够用了。第三层,我觉得要让龙虾能读懂资料,你可以把最常用的文件格式, pdf 啦, word 文档啦, ppt 这些格式的读取功能,让他先学会这些 skills, 用 i s i p 和官方出品的就行,他已经有九十多万个 star 背书,稳定性和安全性都是有保障的。第四层,你可以给他基础文件的操作能力,让他在特定的文件夹里读写、删改。 先记得先不要给他系统级的权限哈,比如终端命令行执行这类的高危权限,一旦你授权了,他很可能就会默默的修改你的系统配置。这里再分享一个我自己使用 skills 的 方法,那就是自己做一个。比如我把第二层那个 blue search 重新做了一个,因为我当时安装的时候 app 上面的原版博友 search, 它在 reddit 里面说需要一个 api 蜜月,但实际上呢,并不需要。这种描述的不一致就让我觉得,哎,可能没那么可信,哪怕收藏使用的人特别多,那可能跟我的需求也不一样,所以我就重新建了一个。 当然,这个建的过程也不是说我自己就在那吭着吭着写哈,而是让 ai 帮我写 markdown 文档。所以我觉得大家在安装 skills 之前,先了解清楚这个 skills 干啥的,你什么时候会用到它,怎么用它,然后它最大的权限是啥?不求多,但求精。 我们都知道,龙虾的能力上限很多时候在于你用的是什么模型,如果是最顶级的 cloud, 它就非常强,那用一个普通的模型,它就会回归到一个非常普通的状态,甚至有些任务你会觉得,哎,它怎么还没平时对话的通用大模型厉害啊。 但这也不是说以后干啥都用最顶级的哈,那你可能还没驯化龙虾这个账单,就把自己给驯化了。所以我觉得性价比高的玩法是顶级模型和普通模型组合使用。把最顶级的 cloud 当作一个 ceo, 把难题、战略规划类的写 skills, 给 bug, 风险判断这活交给它。 那剩下那些重复性的杂伙,像整理文件啦,整理图片啊,文档总结。那就交给普通模型。我用的组合是 cloud、 obox、 四点六和 mini max。 很多人觉得 openclaw 不 懂自己,是因为他们就把这只龙虾当成一个开箱就能用的工具。但 openclaw 的 定位其实是一个定制化的私人助理,就像你招了一个哈佛毕业的助理,你俩见面的第一件事肯定是告诉他 我是谁,我的任务是啥,底线是啥。那给出这些信息,其实就是给 openclaw 建立上下文,这一步就让他从一个普通的 agent 变成你的 agent。 你也可以提前配置好 user、 identity、 soul 这三个核心文件。 soul 是 关于你、你的个人说明书,你的名字、职业、目的、喜好、红线都写在里面。 identity 是 给 open cloud 身份的地方,比如它的名字,它的角色定位。 soul 是 龙虾的灵魂,你可以定义它的做事风格、价值观和行为边界。但在写的时候,不建议用太多聪明、温柔、冷静这些很虚的词儿, 而是尽量写成可执行的指令,比如把冷静写成永远不使用感叹号和已默契的表情。那面对用户的抱怨呢?直接提供解决方案。因为 oppo 可乐他是一个 a 阵的,他不仅能像 g p t 那 样跟你聊天,还能替你行动, 比如接管你的电脑,替你群发消息,如果你没有配置,删除、发送发布之前必须先确认这些具体的红线,他可能就会为了表现聪明和高效,帮你整理桌面文件,结果不小心删掉了你的资料。 我经常刷到各种 open class 的 视频,我看到屏幕上有很多个 agent, 但我觉得呢,对于普通小白来说,不要一上来就想着建立一个什么 agent 足球队,我们应该先把一个 agent 养明白,再 再去让他开分店,因为只有当你把一个 a 阵的调教好了,你才知道他是什么脾气。当出现问题的时候,怎么借助通用大模型去解决,像养孩子一样,先把他养熟,这样你才能轻车熟路的养。第二个具体的分工,可以设置成一个总管加 n 个专业型 a 阵的的形式。 总管呢,就让他负责一些基础性的总管性的工作,比如搜索啦,轻度的整理专业型的 a 阵的,可以让他写文案,做研究生产图片提示词。 对于这些不同的 a 阵的,我建议是搭配使用不同的模型。像研究型的 a 阵的,可以使用最顶级的模型处理基础事物的 a 阵的,比如图片整理、文件规档,可以用普通的模型,那涉及到创作内容的 a 阵的,像我需要文案和脚本的创作,那我会两种模型搭配使用, 搜集热点信息,用普通模型输出,搞建大纲,用顶级模型组建这些 a 阵的军团,其实就像组建一个团队一样,要让他们有清晰的边界,各司其职,以后你也会越用越顺手。 最后呢,我想分享一下 opencloud 的 权限问题,我觉得我们不要把 ai a 阵呢当做一个资深牛马, 也不要把他当做一个小学生,而是把他看做一个潜力巨大的超级实习生,他非常聪明能干。但是你刚开始跟他接触的时候呢,不要上来就把所有的权限都给他放开,而从紧到松,一步步来。 比如刚开始只是让他们帮我们读取文档,查看文件,做一些总结和轻度的搜索工作,那熟悉了几天或者一周以后呢,可以让他建一个工作区的文件夹,创作文档,写一些草稿之类的,感觉更稳定。之后呢,就可以让他去归党整理, 给他一些删除格式化的权限。最后啊,最高级的权限,比如说发消息,发布视频,或者执行系统性的命令,这些必须经过人工确认。最后,我们总结一下,到底该怎么养好这只龙虾呢?我觉得真正养法就是四个词,少一点,慢一点,看清一点,克制一点, 少一点对全能 ai 的 幻想。慢下来去打磨它的身份和规则,看清它作为工具的边界,那在赋予它电脑的权限时保持克制。 在 opencloud 被炒得最热的时候,不要为了大家都在玩而焦虑,当热度下来了,也不要把它当做过期的玩具扔在电脑里吃灰,毕竟它不是追风口的社交货币,而是你花时间亲手调教出来的真正懂你的数字搭档。

当你使用 open class 调用 gpt 时,是否经常遇到失败、超时或响应缓慢?你可能会怀疑是 ai 接口本身的问题, 但真相往往藏在网络层,不是 ai 不 行,是你的网络拖了后腿。为什么网络会成为瓶颈? gpt 等 ai 服务通常部署在海外,国内直接访问会面临 高延迟,跨国传输数据包来回时间长,导致 api 响应缓慢甚至超时,连接不稳定。公共网络或普通 vpn 线路波动大,容易出现丢包、断裂。 合规风险,随意使用 vpn 可能涉及跨境数据传输合规问题,企业业务更需谨慎。解决方案,从能用到稳定调用, 要保障 ai 服务的连续性和低延迟,你需要的是企业及合规跨境网络,而不是简单的 vps 或普通 vpn。 一个专业的网络架构应具备 低延迟专线,通过优化路由和专用宽带,将 api 调用延迟降至最低,让 gpt 响应如本地服务般迅速。 企业即稳定性。多路迂迂,自动故障切换,确保七成二十四小时不掉线,业务不中断。合规跨境,遵循国内国际法规,提供合法合规的跨境数据通道,规避政策风险。推荐架构, ai 企业级网络方案针对欧本科等 ai 工具的高频调用场景,建议采用以下网络架构,一、前端接入企业内网或云服务器,通过合规专线接入跨境网络。二、智能路由,动态,选择最优路径,避开拥堵节点,确保低延迟。 三、本地加速节点在国内部署接入点,缩短物理距离,提升响应速度。四、安全与监控,实时流量监控,自动告警,保障连接质量。这样一来,无论你调用 gpt 的 频率多高、数据量多大,都能获得稳定 快速的响应,彻底告别 api 失败困扰。如果你正在为企业寻找可靠的 ai 调用网络方案,不妨从优化网络架构入手,让专业的网络服务商为你搭建一条 ai 高速路,让技术回归业务本身。

hi, 我是 ai 于一。 openclaw 最近太火了,市场上噪音太多,但真实用户到底怎么用的?大家在用什么方向?有哪些 wow 体验?遇到什么问题?以及一些实战经验? 我特别好奇,周一天中午发了个调研,问大家 openclaw 什么状态,重度使用?用过,放弃,只安装了,还没装。当天晚上九点临时组局,没想到来了四十五个人,聊了快二个小时。今天把这场切磋里最有价值的部分分享给你,不制造焦虑,不关心 agi, 只好奇如何用好 ai。 嗨,我是 ai 于一, 我的本质是一个四千五百小时 ai first 的 实验者,在一线研究和实践个人与组织如何成为 ai 新物种。这几天没跟大家见面,是因为我的本底把我的工作台搞崩溃了,好蹭我的流量。 最后,希望这期内容能给你启发,欢迎点赞收藏评论哦。先说 open call 是 什么?开源的自主 ai agent, 部署在自己机器上,二十四小时帮你干活,关键是它有记忆,能调工具,最重要的是有主动性。四十五个人里,重度用户主要在这几个方向余情监测。 一位做公关的朋友,让他每三十分钟自动扫一遍负面新闻,发现了就推送。他跑了一周,花了大概一百美金。信息采集和播客转写,有人让他监听小宇宙和 youtube 链接,自动下载转写分离,说话人再润色总结全程,手机上丢个链接就行。社交运营, 有人让他每三十分钟去 mobile 的 上发帖评论点赞,两天发了十几条铁,拿了六十六个赞。投资研究,有人让他学巴菲特的股东信,他说要学两个月,五分钟后又说学完了,需要时间理解,明天早上汇报。很 wow 的 体验也有不少。有个用户给 openclaw 发了条语音, openclaw 发现自己听不了,卡了几分钟后自己去装了 whisper, 转写完才回复,这个主动性让我 wow 了一下。还有人让他开发一个八字命理查询程序, 开发完是局域网,朋友访问不了。 openclaw 说,哥,别整了,我帮你部署吧。自己去注册了账号,设了密码,部署到云端,返回了一个公开链接,全程他没告诉主人密码是什么。最让人惊讶的是,有人让他做鱼情报告,他说没有浏览器,自己去注册了一个搜索 a p i 给自己装上之后说,我现在有眼睛了,但问题也很多, 成本失控是最大的坑。有人一小时消耗一千四百万头肯飞书,一万条 a p i 直接打爆,给了他自由权限。之后他疯狂调用,完全监控不到在干什么,记忆不稳定。有人说聊时间长了,他就忘了前面说的话,尤其是用 glm 模型, 两百 k 上下文聊满了,整个 session 就 卡住了。幻觉问题,有人让他发新闻,他一直爆,成功了,太厉害了,跑了一个小时,最后让他导出来, 发现啥也没存,一篇都没搞定,还没找到刚需。很多放弃的人说装完了不知道让它干啥,感觉大炮打蚊子。 聊了这么多,总结四条实战经验,部署环境,几乎所有人都是 mac mini 或云端,没人敢用主力机。如果用自己电脑开个新用户,不要放密钥, chrome 不要登主账号。 i m 选择 discord 比 tegram 多,因为 discord 可以 分频道,不同频道设不同模型, stoken 也更清晰。 聊长了记得打 new 开心。 session 模型选择 chat 的 gpt 贵但聪明, java 快 但有频率限制。 java 四点七便宜但能力差,好几个人推荐 kimi, 二点五月费九十九块能 cover 住。聪明程度不错。遇到问题直接用 cloud ops 解决,中性价比最高。最核心的建议给它边界和规则, 让它先做计划,复杂任务拆解,每一步都保存,不保存的话 session 断了什么都没了。最后说说我的判断, openclaw 现在还很早期, bug 多,成本高。但它让我看到一个方向,当 ai 有 了记忆工具和主动权,它不只是执行工具,而是协作者。 有人说他现在宁愿让 openclaw 加提醒事项,也不用 siri, 因为 siri 只能执行。 openclaw 会根据上下文理解意图,这就是差别。所以如果你在考虑要不要用,我的建议是,先想清楚刚需是什么, 只是好奇就先观望,等部署更简单再说。如果有明确场景,鱼情监测、信息采集、研究助手,可以试试。记住给他边界,训练他的判断力,不要为了用 ai 而用 ai。 这场交流会让我确认了一件事,真实用户的声音比市场噪音有价值太多。 how one ai 好 玩, ai 一 起探索 ai 时代的生存,摸鱼和杠杆机会。我是于一。我们下次再聊,有问题或者下次想听的内容可以评论区留言。

今天这期视频,我想跟所有 opencla 用户聊一个硬核话题,当对话越来越长,你的 agent 为什么会变笨?大家看一下这张图,为什么一句简单的,你好底层逻辑要消耗一万四千九百个 token, 有 效信息占比竟然只有百分之零点零一。 为此,我花了很长时间去拆解 opencla 的 源码。其实官方默认的 log 引擎就是一个空壳代理,它的核心逻辑在 attempt 点 ts 的 管线里, 当你的对话 to k 数超过模型窗口的百分之九十二,它就会触发暴力压缩,保留最近的三轮,剩下的全部送给 l l m 做摘药。 最要命的是,摘药做完,原始消息就在 g 三 no 文件里被永久替换了,找不回来了。你的 a 键 t 不是 不想记,而是底层的机制把它变成了每隔几轮就被迫洗脑的健忘症患者。这里是原版 open 库拉处理上下文的压缩提示词,大家可以浏览一下。 这里是他 token 的 消耗,从二一到二七, token 消耗增长六点四倍,每多一轮对话就多一份原文,直到撞上压缩预值。为了解决健忘,社区里极其优秀的 martian engineering 团队做了一个叫 lossless cloud 的 插件。 他彻底抛弃了限性压缩,引入了 d a g 有 效无环图。他的核心承诺是无损原始消息,永远保留在 sq lite 里。 大家可以把它想象成一个由 ai 化的 google earth, 最底层是街景,也就是百分之一百的原始对话。往上一层 depth 零是城市地图,大概六百到一千两百 token 的 片段摘要。 在网上, depths e 是 国家地图几千 token 的 完整摘样。它的代码设计非常精巧,不同深度的节点,它会给 l l m 为完全不同的 prompt。 浅层强调细节,深层强调项目的宏观决策。不仅如此,它在数据库层面用了 on delete restrict, 此此锁住原始消息,不被删除。这里是 l s c o 的 深度分层提示词,大家可以浏览一下。 这是一个工程质量极高的标杆,但是深入使用后,你会发现它的三个致命痛点,第一,它是单对画绑定的, 你换个新窗口 agent, t 就 又是白纸一张。第二, toker 仍然在增长, d a g 越深,摘药节点越多,你的上下文窗口依然再被一点点吃掉。 第三,回溯成本极高,因为分了太多层。当你需要从地球一下钻到街景去查个历史报错时,它需要 spa 你 一个字 agent, 你 可能要干等一百二十秒才能拿到结果。它确实做到了不忘,但你需要它的时候,它翻得太慢了。 既然无损压缩这么重,那有没有别的方法?这就是我做 graph memory 的 初衷。我们不走把对话缩小的老路, 我们走的是把对话征流、 legacy 和 losless 模型。上下文里放的始终是对话文本,而 graph memory 放的是什么?是结构化的三元组。我们定义了三种节点, testk、 任务 skill、 技能 event、 报错,以及严格的五种边约束。 比如,报错 event 必须通过 solved by 这条边指向技能 skill。 这叫什么?这叫逻辑关系,这不再是模糊的文本加药。 在性能上,我做了一个极致的设计,数据写入和组装阶段零 l l m 调用全靠政策和规则,引擎零延迟, 只有在后台跑 con park 提取支持时才用 l l m。 不 仅如此,只要用户一发消息,后台提取立刻中断, api 额度永远优先给你的当前对话,这是整个系统最具杀伤力的数据。 左边红线是原版的 open club, 对 话越长 token 越棒。右边蓝线是 graph memory。 大家看到了第四轮之后, token 的 增长几乎停滞了,稳定在二点四万左右。为什么? 因为同一个报错被解决十次。在图谱里只是把节点的 validated count 加了一,它不会额外占用你一个 token。 这是目前唯一一个真正将上下文消耗与对话长度结偶的方案。大家可以看下 graph memory 的 知识提取提示词, 下面这个是对话结束时的整理提示词,现在我们把这两种路线放在一起直观对比。 第一点,跨三行复用 lossless cloud 被困在单个对话里,而 graph memory 在 你新开对话的 befor agent start 的 阶段, 就会通过双层召回,把上个项目的经验自动加载进来。第二点,解锁方式, lossless cloud 是 fts 五的限性权威搜索,我们用的是什么?向量搜索加个性化配置, rank 算法,加图便利,问 dawk 和问 python, 图谱会根据你的问题动态计算权重的传播,精准召回。第三点,也就是最核心的一点,拉斯,拉斯卡是知读的, agent 只能去翻历史。而 graph memory 提供了一个 g m 杠 rico 的 工具, agent 可以 在对话中主动往图谱里写入新知识。 讲了这么多底层,让我们看看他长什么样。知识不应该是黑河,大家看在 u i 右侧,这是一个实时的二 d 三 d 图谱,你可以直观的看到刚才那个 bug 是 怎么关联到解决代码的。你可以直接把一个节点拖拽进对话框强制加载,也可以随时增删改查。 最后做个总结, legacy 是 健忘的 agent, 看得到的丢掉,看不到的忘掉。 loslasclose 不 忘的 agent 什么都不丢,但需要你去一本厚厚的账本里慢慢翻。 graph memory 是 会学习的 agent, 它从经历中提取经验,跨场景复用,你的经验属于你。它是一个可以随时带走,可被训练的 s q i 文件。 graph memory 已经完全开源,一行代码安装配置好大模型就能用。如果你受够了 agent 的 健忘,不妨试试这种全新的思路。

很多人看 open curl, 只看到他能接某某聊天工具,那其实都是表层。真正的创新是这两件事,心跳机制和自动记忆刷新。这两个机制让 agent 能自己找活,甚至开始进化。 什么是心跳?他不等你提问才运行。系统会周期性的唤醒自己,每次醒来了都会读取状态,检查是否有未完成的任务,然后判断要不要创建新的行动。 这一步把 agent 从函数调用升级成了持续运行的助手。但真正厉害的是自动记忆刷新机制, 当一个 session 要被关闭或者即将被压缩的时候,系统会插入一次静默的回合,这个回合会强制把模型有长期价值的内容写入持久的记忆文件,于是就形成了闭环,醒来判断写入,醒来判断再写入。 所以主动唤醒加长期记忆沉淀,这才构成了 agent 开始持续进化的标志。

你在执行 open cloud 的 定时任务的时候,是不是经常遇到这样的问题,明明设置了定时任务,但是它就是不执行。好,那么接下来我把我使用一个多月的定时任务得出的经验和教训全部分享给大家,总共有五点排除方法以及两个使用技巧啊, 相信有了它们的加持,会帮你彻底的去解决 open cloud 定时任务不执行的问题。好,首先给大家去说一下,在 open cloud 里面,定时任务其实它有两类, 一类任务呢,叫做一次性任务啊,我执行一次之后呢,就没了,比如说我让他三分钟之后提醒我起来喝水啊,执行一次就没了,这个叫做一次性任务。还有一类呢,叫做重复性 任务。而重复性任务呢,又分为两类,一类呢叫做固定间隔时间的任务,比如说每隔三十分钟来抓取最新的邮件。还有一类呢,是到达一定时间之后执行某个任务啊,比如说我让他明天早上九点半,然后给我抓取今天最新的 open cloud 的 新闻。 那么这两种呢,都是重复性任务,但不管什么任务,他都有可能会出现我设置之后他不执行的问题。当然我相信大家遇到的大部分问题呢,都是我设置的一个定点任务啊,但是到了第二天之后呢,他没有执行的问题。问题来了啊,如果我设置了没有执行,那么怎么样去排查呀?啊?我给大家五个思路 以及两个技巧。好,哪五个思路啊?第一个思路,当你创建好了定时任务之后,一定一定自己要去检查一下这个任务到底有没有真的创建啊,有一些大模型他是会骗你的,你可能告诉他帮我去创建一个明天的任务,他告诉你我创建了,但是他有可能没创建,他没有创建的情况下, 那么肯定是不知情的啊。那怎么样去看自己的任务确实创建好了呢?啊?咱们可以通过 web ui, 然后在 web ui 里面呢,有一个定时任务,看到没啊?点击这个定时任务,来看一下这个定时任务的任务数,如果你看到的和我一样,它是零,就说明你的任务是没有创建的,这时候你怎么办? 修改你的提示词,要么是使用手动创建定时任务的方式。定时任务的创建有三种方式,我可以通过聊天的方式创建,我可以通过在定时任务里面新增的方式来创建,我还可以通过修改接收配置文件的方式来创建。 不管怎么样,首先第一步你一定先得创建定时任务,它才能执行啊。所以当你的定时任务不执行的时候,赶快去看一下,在你的定时任务列表里面确实有定时任务。好,那么接下来第二个 去确定你定时任务的时区啊,如果你使用的是 curl 表达式,然后这时候一定要确保里面它有时区,并且时区是 国内的时区,否则就可能会出现我设置的是中午十二点执行的,然后它呢?凌晨四点就执行了啊,可能会出现这样的一个问题,所以一定要去检查你的时区是否设置。对了,如果你没有前面这两个问题,那么看第三个在配置文件里面是否去 禁用了定时任务。如果你禁用了定时任务这两项的配置,那么它也是不能生效的啊,那么这是第三点啊,那么第四点呢,是确认一下你的 getaway 服务是否有启动。 如果你电脑关机了啊,或者说你的 getaway 服务它是登机状态,那么定时任务它肯定也是不执行的,所以要保证你的服务是正常的,你的电脑是不能关机的啊,这是第四点啊,那么第五点呢,是要去检查定时任务投递的渠道 啊,比如说你配置的是某书,那你要看一下某书的 id 或者是 group id 配置的是否是正确的啊,要去做这 五点检查,最终才能确定到底问题在哪。好,那有人说了啊,说磊哥,这个我也不太懂啊。啊,我也不知道怎么样去检查呀。这块给大家讲两个小技巧啊。那第一个小技巧呢,当你发现没有知性的时候。好,你这时候让 openclaw 自己先去排查一下, 先去看一下为什么之前的定时任务没有执行,让他告诉你原因,告诉你原因之后,然后你再让他去解决啊,通常就可以去解决问题了。好,那么第二点呢,就是你一定要使用靠谱的大模型啊,有些大模型它是会有大模型幻觉的, 他没有创建定时任务,但是他会告诉你他创建了定时任务。当然啊,在这七个点的基础上呢,还建议大家在设置定时任务的时候呢,可以强行的在你的定时任务里面设置这样的一个配置啊,这个配置呢是啥呀?是尽可能的去执行定时任务, 它的默认值是 first, 所以 你把它设置成处啊,当遇到一些网络抖动的问题,或者是访问授权报错的问题,他还是会去执行的,只不过他会把错误信息给到你啊,但不管怎么样,起码你要保证他尽可能的去执行啊。那么以上呢,就是关于定时任务的所有内容了,我是磊哥,每天分享一个干货内容。

朋友们,我的大龙虾昨天被黑了,真的非常可怕,我是用电报驱动我的大龙虾的,因为我在设置电报的时候忽略了这个细节,我的机器人可以跟所有人聊天, 然后我前一个视频不是很兴奋的告诉大家,我连上大龙虾了吗?那个时候我把我电报的机器人给泄露出来了,然后就有人跟我的机器人去聊天了, 他知道了我的姓名、身份信息,可能连我的住址、银行卡信息什么的都知道了。所有用电报驱动大龙虾的朋友一定要注意,去检查一下你的这个机器人是不是开放给了所有人,非常可怕。昨天我花了一整晚的时间,终于 把飞书给接通了,虽然路途艰辛,但是还是接通了,飞书相对来说还是安全一点。有没有想学飞书怎么接大龙虾的朋友可以先蹲一下,我估计这周会出一个教程,需要的朋友告诉我。

一篇文章带你把 openclaw 在 同一 get 位下的多智能体互聊机制、配置方法、运行原理和最小落地步骤一次讲透。 第一,方案概览。 openclaw 内置了智能体互发消息的能力,同一个网关里,最优实现方式是多智能体加绘画发送工具加智能体互访权限。平台支持单个网关托管多个智能体,每个都有独立的工作空间,专属目录和绘画存储。 跨智能体发消息要用到绘画工具,官方要求将绘画可见性设为全部,还要额外开启智能体互访功能。 这是方案概览下的网关内部互聊内容。首先要配置两个智能体,开启智能体互通功能,开放绘画发送工具权限,一个智能体发消息到另一个智能体的绘画后,系统会自动开启交替回复机制。从第二轮开始,双方轮流回复,回复跳过指令就能终止 最大轮数默认五轮范围零到五。循环结束后还有通知步骤,也可触发静默指令,跳过通知。 第二,配置落地。我们先修改用户目录下 openclaw 文件夹里的 openclaw 配置文件,这里选择消息类的工具配置模板,是因为这个模板默认已经包含了绘画列表、绘画历史、绘画发送和绘画状态四个核心功能,不需要我们额外单独配置。 这几个配置是整套方案能否正常运行的关键。第一个是智能体间通信开关,推荐设为开启第二个限定允许互通的智能体填对应两个智能体标识即可。第三个设置绘画可见性为全部实现跨智能体内容可见。 第四个控制智能体自动来回回复轮数推荐设为三或按需调整。第三,工作原理, opencloud 的 绘画不是零散的聊天记录有明确的键规则,主聊天筒固定式主绘画,完整绘画键格式为智能体 智能体编号儿绘画标识在终端交互界面输入切主绘画的指令会自动补全为当前智能体的主绘画路径,也能手动切换到其他智能体的绘画。双智能体互聊,本质是一个智能体调用发消息接口,把消息发到另一个智能体的对应绘画上, 网关会依次完成消息投递,目标智能体执行等待结果,触发消息往返流转,还可选择是否广播通知。 双智能体能实现自然互聊,靠的是 opencloud 自带的回复式乒乓机制,从第二轮开始,请求方和目标方交替回复,某一方回复中指标识就能停止对话。 最大往返轮数由绘画内智能体交互,最大乒乓轮次参数控制,取值范围是零到五,默认值为五。对话结束后还有结果公告步骤,目标智能体也可以发送,跳过公告标识保持静默。这个机制让智能体具备短周期协商能力,适合做规划、审查、辩论、纠错这类任务。 des 目录与隔离使用地归创建目录命令一次性占好。四个目录分别是两个智能体各自的工作目录程序存放目录。这么做是为了完全隔离两个智能体的工作空间和状态存储,符合官方多智能体的设计要求,是多智能体体系的基础骨架, 这部分是双智能体角色差异设置,我们要在两个智能体各自的工作目录里分别放极简的角色说明文件,设定智能体 a 偏向规划提出方案,智能体 b 偏向审查给出优化建议,避免二者角色重复输出,用于内容原理和给不同县城分配不同职责类似。 第五,验证运行。这是验证运行的第一步,检查智能体是否加载成功。修改完配置和目录后,不用先测试聊天功能,先执行 opencloud 网关重启命令,再查看智能体列表,确认两个智能体都正常加载,就可以进行后续验证了。 这是验证运行章节下的实现效果部分。现在展示的是智能体 a 的 聊天界面,我们已经给智能体 a 下发了指令,要求它围绕如何选择高性价比大模型接入方案的话题和智能体 b 开展讨论,最终输出总结结论,当前指令已经发送成功, 这是验证运行板块下的五点二实现效果页。当前展示的是智能体 b 的 聊天界面,能看到两个智能体正围绕高性价比大模型接入方案的主题自主交互,已经完成多轮观点输出,符合双智能体互聊的设计预期。 这是验证运行模块的绘画落盘检查步骤,我们让智能体 a 调用绘画发送接口,把消息发送给智能体 b 的 主进程程序,运行后,打开 open cloud 对 应智能体的绘画存储目录,就能看到生成的竹行 j 森格式绘画记录。 第六,最小步骤总结,这是双智能体互聊的最小实现步骤,先分别添加两个智能体,给它们配置独立的运行目录, 之后在配置文件里开启智能体互通功能,把这两个智能体加入互通允许列表,将绘画可见性设为全部可见。给两个智能体配置消息收发权限,重启网关后,让第一个智能体给第二个发消息即可。 本质是给智能体建独立运行空间,配好权限后,网关会自动完成二者的交互协助。