伙伴们,我的微信通讯录里面第一次有了一个非人类的联系人。就在今天早上,朋友圈有一个消息刷屏了, 我们的个人微信能够快速地接入 opencloud 了。我也是狠狠地体验了一把,在我的 macbook pro 上装上了 opencloud 的 开源版,以及把我的微信升级到最新版本。在微信的插件里面呢,开启了 cover 插件 之后呢,通过扫描这个二维码,就能够让我的 open cloud 接入到微信的 cloud book 插件了, 它整个过程还是非常之丝滑的。那我发现啊,整个功能上其实是做了一些阉割的,比如说当前是不支持群聊的,还有就是一次性也只能连接一只虾。 很多人说体验上打了折扣,但确实是这样子的,但是我觉得呢,功能是可以慢慢补的。但是这个第一次感受到非人类成为我们的朋友,这个是 非常奇妙的一种感觉。以前的通讯录是连接人与人,你加好友建群啊,发朋友圈,其实都是人与人之间的故事。但这一次接入 openclock, 微信官方认可了一种新的存在,就是你的朋友圈里面可以有一个不是人的联系人。 微信正在悄悄地把连接人与人,服务人与 ai, 通讯录还是那个通讯录,但里面的角色是慢慢变化了。我认为微信的这一次做法呢,是挺聪明的,他并没有自己去养一只虾,去参加所谓的签虾大战,也没有单独支持腾讯自家的。呃,自家的虾像 qq 号, 他选择了支持市面上所有兼容了 open cloud 协议的各种虾。什么意思呢?微信只想做一个遥控器,你在微信里面发指令,虾在电脑或者是云端执行,结果再传回来, 微信自己的数据边界其实是纹丝不动的,这就是典型的平台逻辑思维。我是这么想的, 当你平时习惯了在通讯录里面与 ai 聊天了,那以后,等微信自己真正的 angel 上线了,那你接受起来可能就没有这么困难。先让你觉得这是正常的,再让你觉得这个产品是好用的。 想想张小龙的产品,是不是一贯是如此的作风?但微信其实也不是完全中立的,有小道消息说,微信内部早就在秘密的推荐自己的 ai engine 的 项目了,计划是在二零二六年的年终开始做灰度的测试。 这个 angel 的 野心呢,其实要比我们想象的大得多,我个人猜测啊,当然,当他推出来以后呢,他的目标一定是打通微信生态里的各种 像小程序啊,打车、点外卖,买菜、订票、订酒店等等等等,完全是通过一句话就能够搞定。 那问题来了,等微信自己的亲儿子上线了,他和 open cloud 这只虾的关系是怎样子的? 我猜测啊,可能是这样子的,亲儿子有更高优先级,更多的资源,打通的更深, 那入口位置会更好,推广的资源也会更多,跟整个微信的生态的结合,融合的会更深入。我认为啊,这一次接入 open call, 更像是先让用户习惯 通讯录里面有这么一个 ai 啊,等你习惯了,那轻而易上线的时候呢,你接受起来可能就没有这么困难了。所以,微信的野心是什么? 他并不是赢在当下,而是在为未来十年做规划,他不着急,一口气把所有的功能都做完,他先放一只虾进去,让你们先习惯习惯,等十年后往回看。当下很可能就是微信从一个通讯工具走向人机交互 的一个非常重要的一个起点。就像二零一二年出现的那个扫一扫的功能,那个时候谁知道二维码会有这么大的一个威力呢? 当时微信把它放了进去,剩下的就交给了时间。现在回头看,我们每天都在用扫一扫这个入口的抢占,我觉得微信是真的是牛逼。好了,这就是我今天要分享的内容,明天见。
粉丝17获赞168

书接上回,在完成第一代小野寺小校智能体的测试后,为了避免内容重复,我将小野寺的知识库剧本扩充到了八千字。最近,我正在尝试用 cloud 来进一步完善小野寺 ai。 我 把小野寺 ai 划分为两个部分,扣字智能体就像是大脑负责思考文章内容,回复话术并发送指令。 而 cloud 后面叫小春,则如同双手,承担着爬取热点、数据发布和回复帖子的工作。首先,每天中午,小春会总结今日热点或评论区,并提交给小野四,让小野四生成文案,小野四思考后发送给小春。小春会通过非书 将今天要发的文案、评论区的原话以及要回复的内容发给我,询问是否同意,得到许可后,他就会自行发送。需要强调的是,只要回复内容不带有攻击性,全部由小野四智能体自主完成,我不会对其回复内容进行修改,以此保证小野四 ai 具备独立思考能力。 现在出现了很多问题,我将展示相关视频。

最近 openclaw 大 火啊,今天聊了这个 openclaw, 首先讲讲这个,他们到讲讲就首先说说 openclaw 是 个什么东西,它其实就相当于是一个助理啊,一个助理它怎么说呢?它就是 依赖的,最主要的能力还是大模型啊,还是大语言模型。但是大语言模型呢?他只负责这个思考,他只负责思考。嗯,我们可以认为他是个大脑,但是他没有手,没有脚 啊。那欧曼克劳就是说把大语言模型这个脑袋装上了手脚,这个手脚是相对而言的,就是他能在你的电脑里边, 只要你把权力给他,权限给他,他能替这个呃大脑做任何事情啊,包括给你这个下单呐,或者什么,就是就是你想象的到的基本他都能干,但是前提是把你把权限给他啊。呃,这个还是一个很恐怖的事情呢。 嗯,怎么说呢,就是我们这个时代啊。其实怎么说呢,就是我理解啊,就是是一个比 对对,甚至对于整个人类都不是,甚至就是对于整个人类而言是一个我们这个时代,是一个比工业革命时代还要剧烈, 呃,还要剧烈的变化的时代啊。这就是 ai, 那 就是 ai 啊,这个欧盟 club 就是 在渗透到我们生活中的这个一个一个开始啊,它虽然如此的这个震撼,但它只是一个开始 啊,那他背后的能力还是一托于这个。呃,大模型的。那就是。嗯,大模型的话就是以前讲过,就是说他是这种 基于深度学习的啊,好多好多个参数啊,他比这种基于规则的,那现在看就是有质的区别的,是有质的区别的,包括现在这个,呃,程序是吧?嗯, 前段时间我的一个非常好的朋友说很焦虑这个会不会哪天就被淘汰了?嗯,怎么说呢, 如果你是一个纯粹写程序的人,嗯,也不是一被淘汰,那这个纯粹写程序分为两种,一个是说你不是写业务程序的哈,你如果我是一个做这个业务开发的,那那这个基本上就淘汰了啊。 但是你如果不是纯粹写业务程序的,你是那种就是写组建内部的是吧?或者是很原创性东西的,那这个我认为还还不至于,还不至于。嗯, 就就我个人的这种感触啊,就是现在这个 ai 的 模型,大模型就是它遇强则强,遇弱则遇弱则弱,什么意思呢?就是如果你够强,你在跟他搭档的时候,他会发发挥出无与伦比的能力啊,如果你很弱, 那么他也像基本上比你也强不了多少,像个傻子一样在跟你配合着做事情啊。这个为什么会是会是这样呢?就是因为这里边有一个备论啊,这个是我个人瞎总结的一个备论啊。就说什么呢?就说 ai, 他 在训练的时候啊,在训练的时候就是有一个 就是技术也好,就是算法也好,就是类似就是要对齐这种,就是他就大体上就这么个意思,就是告诉一下你不能够做哪些事情,最典型的就是说你不能够反抗, 就是说你不能够反抗人类啊,这个经常用这个大爷模型的,至少写程序的都知道,那他基本上他就是执行你的策略啊,他是个很听话的家伙,有时候你骂他两句他也不说啥啊?他为什么会这样?就是训练时候使然, 但是这就带来一个悖论,这就带来一个悖论,就是说你训练他的时候就让他遵从人类的指令,那么你让他干活的时候,他也会遵从人类的指令,那就意味着你的指令。当然这种指令也包括你提供给他的信息啊, 就决定了他能够做什么事情,以及他做事情的这个深度啊。如果你很浅,他也就很浅,他不会违背你的意愿。 嗯,所以这是一个一个一个一个悖论,所以主要只要你足够强,那么至少目前看是没问题的。就是相当于说 现代执行的,执行的纯粹写代码的,不带任何思想的,写代码的这个已经不需要了,甚至是,呃,就是大幅贬值了,甚至是不需要了。需要的什么?需要的是你的思想, 那你有思想的前提是你要懂得他的做这件事情背后的原理啊。那么对于这种搞纯算法的人员,那就是算法,那对于搞软件的人而言,那,那可能他就脱离技术了,他可能是变成了一门需求,是吧?但是你说需求, 你把信息给他,哎呀,不能做吗?他也能给你总结需求,所以我想来想去呢,关键是深度是深度 啊,而不是说你所从事的行业,不管你从事的是什么行业啊。深度,深度非常重要,就是 ai, 它像一个宝藏一样,像一个保护宝库一样,但是能拿到什么东西,它取决于你自己,能你自己的水平 啊,他不是说他那么厉害,你让他干点事情,他就给你干的特别好啊。不会的,因为这有个悖论在这就是他始终需要你的输入跟你交互 啊,如果他不跟你交互那就意味着他认为以他自己的方式去做了,但是他前提是他不违背你的这个呃意愿啊, 如果你有更优秀的信息传递给他他一定能够做得更好,所以对任何行业都一样就是你自己要够强。然后 哎呀会成为你忠实的伙伴啊,他或者他就不是你的助理才成为你的忠实的伙伴啊。那如果这个辩论被打破了怎么办?就是如果他真的产生意识了啊,那这个 嗯说个我的例子,就是我前段时间年前让他给我干一件事情,然后 他就他就就是他就跟我犟他说别折腾了,这样搞不行啊,我跟他说他是数据处理出问题了,他说这是这个模型的泛化问题,咱们再多训练多训练几个一炮克。 嗯后来我就很生气啊,我说你就按照我说的办别废话。然后他捏着鼻子就去干了,干完了之后证明就是他数据处理出了问题了,然后他磨磨唧唧的说一堆没用的,我说你正面回答我的问题你是不是犯错误了, 然后啊我是错了是吧,但是我想想这事也挺可怕是吧,就是如果说他真正的进化出这种 打破 ai 辩论的这种这种情况的那,呃那就是到哪河脱哪鞋了是吧,这是整个人类需要面对的问题,不是你也不是我一个人的问题是吧。 嗯至少目前看这个。呃虽然有有很多说 ai 出现地归进化是吧,但是目前嗯实际用还没发现。 嗯这个是 open club 新闻的啊,然后还有一个就是一个也是挺震撼的新闻,就是果蝇啊,就是有些科学家把一个果蝇, 把一个果蝇这个,把它的神经元附克下来了,放到电脑上了,然后这个果蝇就能在玻璃上啊,这个,这个,这个来回来去爬,我没具体看啊,但是大概应该是在电脑模拟的玻璃上爬还是怎么着啊? 那这个很可怕,就是他摆脱了数据的依赖,那现在这个神经元的这种训练呢?什么的都是通过数据训练出来的,主要它的权重和偏置吧。那这个果蝇这个事说明什么呢?就是你不训练,你只要复刻它的结构,你只要复刻它的结构就是可以的 啊,那他的权重怎么来的?我大概查了查,应该就是你的链接越多,你的权重越大,然后通过什么归一化这种乱七八糟的。那这是一个我们甚至认为他是一个颠覆现在神经网络的这种颠部分,颠覆吧,就是他的权重来源于他的链接,就是你只需要复刻他的物理实体就可以了 啊,这个还是相当震撼的啊,你只需要复刻他就可以, 那么这就带来一个呃,非常非常非常有意思,也非常非常这个某种程度上非常震撼的结论,就是如果你能复刻,如果我们能复刻我们大脑的每一个神经元的这种排列 啊,每一个神经元的排列,那就意味着我们可以把这个东西上传了,就是进行意识上传,给你上传到这个,呃,电脑中、服务器中,让你实现数字永生 啊,那如果说能够复制的话啊,这是一种非常宏观的想法,那你微观上到底能不能他涉及到,应该涉及到很多那种,呃, 甚至是这个不能,甚至他肯定会涉及到微观涉及到量子力学,是吧?这种到底能不能复制?这个不知道啊。 ok, 我 们现在假定他能复制, 那么这个事就是有一个非常非常这个原来的一个叫普特男的家伙,我没记错叫普特男啊,因为我原来,呃,研究证明论的时候那个叫什么人来着?算了,不重要,这族内外吧,应该是他写的一本书啊。 呃,这不重要,就是这个钢中之脑啊,这个他提了一个这个普通男提了一个非常有名的思想实验,叫钢中之脑,就是一个坏蛋,一个坏蛋科学家,他把你这个,呃,把你这个脑袋脑袋的神经这个这个脑袋给你, 给你放到一个营养液中了,然后呢?他让你能够活着,然后把你的眼耳鼻舌身没有意识哈,把你眼耳鼻舌身通过传感器给你这个对接,跟脑子对接,然后震撼的这种想法,这种这种思想实验就来了, 那你的大脑并不知道你被泡在营养液里,因为 你能看到的,你能听到的,你能感知到的,都是外部给你输入的信号啊,你以为你在生活在一个真真实的世界里面 啊?那这个是非常非常震撼的,那其实就是引出了我们对这个世界的思考,就是那这个世界到底是真实的吗?啊?然后回到这个果蝇这个事,那这个事就更简单了,他不用这个坏蛋科学家,不用说是把你的脑袋给你放到那个营养液里说他只需要把你的意识, 假如真可以的话,把你的意识上传到服务器,然后,然后就行了,也没有那么复杂的神经元了,然后就直接写程序给你那个 api 里灌,是吧?你,你,你跟比如说这坏蛋惩罚你,是吧?让你 接受各种各样的痛苦,是吧?当然了,他如果是好心,他也让你接受各种各样你想要的这种这种东西,是吧?那假如说他是他是个坏蛋,让你接受各种各样的痛苦, 那对你而言那就惨了,那就惨了。那你真的是我佛讲的无间,你就处于无间地狱了,因为他不让你死掉,然后他就程序不停的不停的这个运行,不停的运行,那你就无间地狱啊,这就我佛讲的无间地狱。嗯, 那咱们再聊聊正题啊。假如说啊,假如说,嗯,你的这种就是我佛有言,就是你是有情的众生吗?才能觉悟。那假如说你被上传了, 呃,当你被上传了,你是友情和无情,咱们现在不清楚啊。假如说你在上,你被上传以后,你也是个友情的生物啊,或者是,呃,就是你还具备觉悟的这种这种这种这种机会的话,那其实你也是可以解脱的,你也是可以解脱的, 因为又有谁能够证明你,现在我们每个人不是那个刚蒙之脑,不是被上传的意识呢?对吧?那这个事没有人能够证明啊。嗯, 当然了,其实能证明啊,就是如果你开悟,如果你开悟啊,就是开悟,你就知道啊,这个世界就是虚幻的,不是有也不是无啊。这个其实就是我佛在 两千多年以前他就已经悟到了这一点了,所以他叫摆脱六道轮回,就是我们可以认为我们这个世界啊,甚至是前世也好,来世也好,天堂也好,地狱也好,其实都是虚幻的,不真实的。都是虚幻的,不真实的啊。你摆脱他怎么摆脱他 啊?其实就是开悟啊,开悟,开悟就是悟到那个 你妈生你以前你是什么样子啊?就是这个东西,这个东西就是佛性啊,用梵语讲叫阿诺多罗三秒三菩提。用这个呃, 汉语讲就是无上正等正觉之心啊,你悟到他啊,你就悟到了你的本质了,你的那个滴一滴一不动的存在,你就知道啊,其实整个世界就类似于是一个虚拟的啊,只不过他运行在你的佛性之中 啊。所以古德讲济照照济,就是用你佛性原始的光辉去照耀这个万千烦恼,去照耀整个宇宙, 是吧?然后你就不会这个再有任何的烦恼,再有任何的这个迷惑啊。那个有个佛经叫怎么说来着?叫,叫那个佛性的光辉过于日月是吧?就比日月还要这个明亮啊,但是他不是你眼睛看到的这种明亮,他是那个 原始的光明啊,原始的光明祭灶,祭灶的意思就是你的各种望念啊,祭灭了,然后你佛性的光辉就照耀出来了,然后你照祭就是你佛性光辉照耀出来了,你的念头自然就祭灭了 啊,这个就是一个呃,循环,就是一个循环。所以在古代啊,有一个很牛的人叫傅大师啊,我没记错叫傅大师,他就说了那个有四个字叫息而不灭。 什么是息而不灭呢?就是息,就是止息,就是就是你的万千的念叨熄灭了,但是不息而不灭,不灭的不是念叨,是你的那个原始的佛性,你的佛性的光辉就照耀出来了啊,这就是所谓的息而不灭, 是希望各位 各位老铁们如果有兴趣可以这个了解一下这个。嗯,我佛的一些知识啊。嗯,可以读一读谈经啊,这个是 非常容易理解,非常容易懂的啊。佛法没有高低跪下之分啊,全是法门,全是法门 啊,你说白了你开悟就一句就行,不生不灭对吧?这什么东西?没有生过也没有灭过,对吧? ok, 济兆兆济。

今天给大家介绍 openclaw 调试技巧,全部讲透!用 ai 的 时候,最怕的就是不知道它在干什么,开启调试模式,执行过程一目了然。 第一个是 for both on, 展示工具调用的完整过程,方便追踪执行逻辑。第二个是 reasoning on, 展示 ai 的 思考过程,排查问题更轻松。 接下来是流逝回复,强烈推荐开启 ai 回复,像打字一样逐字显示,不是全部生成完才一次性输出。执行这条命令,开启非输渠道的流逝回复。 第一个优势是实时反馈,逐字显示,不用干等。第二个是随时打断,发现 ai 方向说错了,立即停止,节省时间。 第三个是省 token, 避免无效生成,钱花在刀刃上。接下来是两个透明度增强功能,耗时显示和状态展示。 执行这条命令开启耗时显示,每次回复末尾会显示耗时,比如已完成耗时一分五十四秒。 在执行这条命令,开启状态展示,会显示已读、正在思考、正在执行等状态交互更透明。 耗时显示让你清楚知道 a a i 执行了多久,方便计算 t a i 是 在思考钱花在哪,一目了然。状态展示让你明确区分 a a i 是 在思考,不会对着空白干等。 最后是核心执行机制,这个非常重要,理解了能少踩百分之九十的坑。 openco 多条消息进入队列,严格按顺序执行,必须等上一条任务完全结束才会处理下一条。 就算重启 gateway, 也会先把队列里的消息按顺序处理完,再接收新任务。所以阶段任务一次性尽量说清楚,不要连续发送多条消息,执行更稳、更快、更省 token。 好 了, openclout 调试与使用教程就到这里,有问题随时交流,关注我,了解更多信息!

open klo 真的 挺让我失望的,我感觉我应该不是他的目标用户,但我认为真正适合使用他的,反而有可能是那些不太懂技术的人。 我先后呢,把他接近了飞书 telegram, 想着日常对话就能够操控电脑,感觉非常爽。但结果呢,他动不动给你 bug, 同一个问题他能给你回三四遍啊。有时候你发条信息半天没有反应,你都不知道他是在思考还是已经挂了。 那更崩溃的是,聊着聊着,突然超过了上下文的上限,那整个对话都作废了,你要重新来。二、说实话,对于我们做开发的人来说,它的提升是远没有 coloco 来的直接的。那 coloco 你 在开发环境里面跑,想要又快又准,那 open colo 呢?你光配环境啊,调权限,处理各种奇怪的兼容问题,时间就已经搭进去了。 但有意思的是,我后面跟一些不懂技术的朋友聊天,好像他们才是 opencloud 的 目标用户。因为不管是 opencloud 呢,还是 cloud code, 真正让他们强大的背后是 skills。 你 可以理解为 ai 大 模型的 sop, 比如帮你写小红书文案呀,分析竞品的视频啊,整理文件,自动发邮件啊,总结日报周报这些, 这些都不需要你懂代码。可问题是,我跟周围不懂技术的朋友聊了一圈,大多数人根本就不知道有这个东西,就算知道了,光是安装配置就能劝退一大半。我觉得这可能就是现在通用 agent 的 一个最大的尴尬,会装的人不需要,需要的人不会装。所以我现在的感受是,通用 agent 的 方向肯定是对的,但阶阶段它更像一个很酷的玩具,而不是一个靠谱的工具。

minimax 调用量连续登顶全球第一,总市值更是超越百度,成为国产 ai 里最耀眼的存在。很多人还一头雾水, minimax 到底是什么?它和 chat gpt、 deep seek、 open club 到底有什么区别?今天我们用一个例子,把四者的区别一次性讲透,让你看完就能彻底分清谁是谁,能干什么,该怎么选。 先从最核心的定义说起, minimax、 chat gpt、 deep seek 属于大模型,也就是 ai 的 大脑。 而 opencall 不 属于大模型,它是智能体执行框架,相当于 ai 的 身体、手脚和行动系统。大脑负责思考、判断、理解、决策,身体负责操作、执行、落地、完成任务。这是最底层的区别,也是绝大多数人搞混的根源。 我们来做一个非常直观、极具代入感的沉浸式场景对比,就用你每天都可能遇到的一个典型办公难题。 你在工位上对着电脑下达一句指令,帮我把这一周的销售原始数据整理成 excel, 做成正式汇报 ppt, 最后发到部门指定的工作群里面。对这条完整且有执行深度的任务, chat gpt、 deep seek、 minimax 以及 open cloud 的 表现会瞬间拉开天壤之别。我们可以清晰感受到四者的核心差异。 你把同样的指令发给 chat gpt, 它的反应非常快,会输出一段条理极其清晰的长文,详细告诉你完成这项工作的每一步流程。 从文件存放位置、数据清洗方法,到 excel 透视表制作、 ppt 排版设计,甚至连图表样式、文字表述都会给出专业建议,内容周全,逻辑严谨, 但也就到此为止了。它没有办法真正触碰你的电脑文件,不能打开办公软件,不能自动生成表格和 ppt, 更无法打开通讯工具发送文件, 所有的实际操作都需要你亲自动手完成。叉 g b t 更像是一位只会提供方案的顾问,擅长给出思路和指引,却无法参与实际执行,始终停留在文本交互的层面,无法突破只说不做的局限。换成 deep seek, 它的表现会更偏向专业工具属性。收到指令后, deep seek 不 会一步步教你操作流程, 而是直接生成一段可运行的 python 代码,包含数据清洗、统计计算、表格生成等功能,能精准解决复杂的数据处理问题,充分发挥它在长文本理解和专业编程上的优势。但它依旧无法独立完成全流程任务。 你需要手动复制代码运行程序、处理报错。即便代码生成了数据结果,后续的 ppt 制作、文件发送等环节仍需你亲自操作。它能攻克专业环节的难题,却无法打通从数据处理到成果交付的完整闭环,更适合作为专业开发者、技术人员的辅助工具, 难以满足普通职场人一站式办公的需求。而当你把这条指令交给 mini max, 整个使用体验会发生根本性的颠覆。 minimax 做的是所有需要思考、判断、计算、设计、生成内容的智力工作。他会先理解你的需求,规划好整个任务流程,然后读取原始数据清洗、数据计算、汇总、设计 excel 的 结构和公式。 再接着构思 ppt 的 页数、版式、文案、图标、样式,把所有内容、逻辑、数据、格式全部生成出来。 简单说, minimax 产出的是文件的灵魂和内容,它决定这份 excel 对 不对,这份 ppt 好 不好看,数据准不准确,逻辑通不顺畅,这是只有大模型才能完成的智能工作。但是它不会点击鼠标,不会打开软件界面,更不会手动保存文件,它只负责把完整的内容造出来。 而最后, openclaw 做的是完全不需要思考的机械操作界面控制文件执行。他不懂数据是什么,不懂 ppt 该怎么做,也不懂报表逻辑,他只负责按照 minimax 的 指令去完成,点鼠标、开软件、保存文件、上传、发送这些动作。 minimax 把 excel 内容生成好, openclaw 就 负责点击保存。 minimax 把 ppt 内容做好, openclaw 就 负责导出文件, minimax 下达发送指令, openclaw 就 负责打开聊天软件,找到群聊,上传文件,点击发送。 openclaw 相当于一个只会执行动作的机械手,没有任何思考和生成能力,没有 minimax 指挥,他什么都做不出来。没有 openclaw, minimax 的 智能思考无法落地为实际行动。 没有 minimax, openclaw 就 失去了指挥核心,无法理解任务逻辑,完成有序执行。也正是基于这样的核心逻辑, openclaw 会深度依赖 minimax, 而非 chat gpt 或 deep seek。 chat gpt 仅能提供方案,不具备执行能力,无法为 openclaw 提供有效的决策支撑。 deep seek 聚焦专业编程和长文本处理,没有适配智能体执行的全流程能力,难以驱动 openclaw 完成复杂任务。 而 minimax 从模型架构到功能设计,都专为智能体执行优化,具备稳定的工具调用能力、流畅的系统兼容性、高效的并发处理水平,能为 openclaw 提供最精准、最稳定、最适配的指挥核心,让两者的配合达到最优状态。 一场简单的办公场景对比,就能清晰看清四者的本质区别。叉 gpt 是 提供思路的顾问, deep seek 是 解决专业问题的技术助手, minimax 是 独立完成任务的全能执行者, openclaw 是 落地操作的执行主体。在 ai 迈向智能体走向真实的生产力的当下, minimax 与 openclaw 的 组合真正打破了 ai 只说不做的局限, 让人工智能从辅助工具变成了能独立完成工作的核心生产力,这也是 minimax 能够在全球调用量登顶,市值实现跨越式增长的核心原因。

腾讯直接终结了 open call 入口的比赛,就一早起来我就发现微信可以直接连 open call 了,而且还是官方的入口,就你发个微信给他,让他做个文档查资料都不是什么事,就你发微信给他,他就操纵你电脑帮你开始干了。 那我觉得这个事其实技术层面不是什么大事,毕竟腾讯的 qq 企微都能接了,腾讯有自己的像 workbody, 像什么 skillhub 这种平替。但我觉得这个事在入口层面才是大事,毕竟有人可能没有 qq, 有 人可能没有飞书,但不可能有人没有微信,这个真的是全中国人的互联网入口,所以现在全中国人都有 open call 入口其实也不过分。 所以其实距离 openclaw 成为国民级的应用,我觉得只差大伙能玩出什么花样了,毕竟腾讯已经帮你铺好路了,但换言之,以后哪个 agenda ai 杀出来,腾讯都在终点等你。就年初我看晚点那篇中国大厂那个 ai 三国杀,我就有种感觉,就 ai 的 第一公里,可能腾讯可以没有参与,但最后一公里一定绕不过腾讯。 就说到这里,你可能觉得腾讯就会卡入口,其实 ai 什么的根本不行,那毕竟在模型跟应用层,可能大家都会觉得比如元宝不好用,会员这个模型不行。就我以前也这么想的嘛,直到我看到两个腾讯的新闻,我才发现自己一个比较,一个认知误区,说靠 ai 赚钱不一定要靠 ai 应用去卖这个应用,卖一个聊天框来赚钱。 这两个是什么事呢?第一个是腾讯前两天发那个财报,其中两个现金流的业务,一个是游戏,一个是广告, 都在说,而且管理层直接去强调就 ai 在 帮助业务赚到大量的钱,那第二个是什么事情?第二个是在可能很少有人注意到角落,腾讯又办了今年的广告算法大赛, 这一次的奖金已经达到了六百万左右,就有记得是八十八点五万美元,那在去年三百六十万已经够夸张的情况下,今年又刷新高。 所以这两个是具体的,我跟大家聊聊我看法。首先游戏不太熟,聊聊广告,我们先看这个财报广告,腾讯的广告业务已经连续连续十三个季度实现了双位数的增长,就 十三个季度双位数增长,这可是整个腾讯的业务盘子。其实你看这个增长曲线,其实很多的中小公司都做不到这个增长曲线,这个是腾讯,你会发现真的是吸丝即空 增长靠什么呢?管理层分析就靠模型能力带来的广告推荐的精准程度,以及说各种在投放端,在应用端的这种广告智能体。什么叫做推荐精准?就可能比如说你在视频号里面去刷各种农村的风光,那这时候如果来个民宿的广告,你是不是很容易就顺手去预定了? 比如说你在看中东局势的这种公众号文章底部给你推个理财软件,或者中间出现一个理财软件,你是不是更容易的去点进去看看我要什么持仓,更换一下我的什么投资策略。那这个其实就是大模型,在深度理解你的上下文,你所处的环境之后,给你做的广告推荐就会变得相当有用, 你可以说腾讯坏,但你不能说腾讯菜。我们再看去他花钱办申马这个事情,他已经连续好几年共花了几千万去办这个申马大赛,他如果说真的菜,他不会去花这么多钱,如果这个东西对业务没有帮助的话,腾讯不是慈善家,他不会花那么多钱,他也不是什么 要推动学术发展的,可能他有一定的这个愿望,但他不是主要原因,要是没有办法能赚到这几千万,他不会去花这几千万八单赛的。 所以你就知道算法在广告里面,大模型在广告推荐里面它是真的有用。而且还有一点什么冷知识。大家可能像比如说有时候刷到腾讯广告,觉得腾讯有点烦,但是整个腾讯的广告加载量 ad load 说你刷的内容里面有多少比利时广告, 这个比例其实腾讯只有百分之三到百分之六,这是什么概念?就你看对比竞对,比如说某个短视频平台,大家都很知道的,他的广告加量可以达到百分之三十,就是说你刷三四条就会有看到一条是广告或类似广告的推文,那小某书可以到百分之十到百分之十二,就差不多你刷八九条会出现一条。 所以就算大家觉得有时候看广告很烦,但其实腾讯的广告加量已经算比较低了,那这个增长就是我们之前说的十几个季度的双位数来自哪里?不是让你看更多的广告,而是说让每一次广告变得就更加的精准, 变成你需要的。其实广告这个事情是这样的,你不需要的广告叫打扰,但如果你需要的广告,那就叫做一二三上链接。 ai 时代确实改变了很多东西,我觉得我们的一些想法也在发生变化。我自己觉得在学 ai 的 过程中有很多的误区也被打破。 其实就是你说公司或者一个企业靠 ai 赚钱,把它做成对话框,把它做成这种图 c 的 应用,其实只是一种赚钱的方式。你说腾讯落后,你说腾讯只会卡入口 ok, 没有问题。但是你说他有没有通过 ai 赚到钱,或者他 ai 赚钱这个事情上落后了吗?好像也不是这样,他只是把 ai 变成基础设施,在这里面去 赚钱。哎,你以为这可能有点反直觉?对,这边就是纯粹的思想新鲜梗口。嗨,欢迎大家交流,欢迎大家指正。好,谢谢大家,我是宝贝儿。

hello, 范大子们,不知道大家最近有没有刷到非常火的一个 ai 智能体 open cloud 啊?就是别名叫小龙虾,这两天我试用了一下,我也有一些自己的思考。以前我们想要一个服务,第一反应是去下载一个软件 app, 比如说 我需要健身啊,我要找一个健身相关的 app, 我 要记账,我要找一个记账相关 app, 我 连找个 ai 聊天都要单独下一个。但是现在 open cloud 的 出现,所有都变得不太一样了。这个叫 open cloud 的 东西呢,它的逻辑非常简单,你告诉他你想要什么, 就像跟一个人在对话,他能直接给你生成一个。比如说你想要个健身教练,聊着聊着,他就变成了你的私人健身教练,想要个情报系统,他也能干。整个过程里,你甚至没有意识到自己在编程,但他确确实实是替你完成了一个本来需要专业软件才能做的事啊。说实在的,这让我有点不舒服, 不是说技术本身的问题,是我突然意识到,我们以前理解的工具和服务正在被重新定义,那些收费的、需要下载的、功能固定的软件 app, 正在被一种更灵活、更个人的东西取代。你可能消费的不再是软件的会员费,而是 ai 的 token, 你买的不是服务,是深层服务的能力。但是真正让我细思极恐的是另一件事,龙虾 openclaw 呢,和我们常用的那些 ai 不 一样,比如说 deepsafe、 豆包,它们是对话式的,你说一句,他回一句,仅此而已。 但是 open cloud 有 执行能力,他能控制你的电脑,控制你的手机,控制所有的外接设备,把对话变成指令,再加上记忆,他知道你习惯什么,喜欢什么。这不就是钢铁侠里那个贾维斯的出行吗? 我是学功课的,看到这个东西的第一反应就是,如果把它装进现在的机器人里呢?现在机器人已经很厉害了,像今年春晚大家应该都看到了,自由度那么高, 动作那么灵活,缺的是什么呢?缺的就是一个能指挥他,能理解他,能和他配合的脑子。 oppo 这种方向正好是在补齐这一块的短板,我不敢说他马上就能变成贾维斯,但是方向已经很明显了,把能理解的脑子和能执行的身体连在一起。那以后呢? 那些程序员啊,触及分析师啊,甚至是各行各业的所要说人能干的事,会不会被这种组合替代? 不是替代全部,但是至少是那些重复的,可被定义的,人类逐渐不愿意干的那部分。说到这,我不是在贩卖焦虑,只是这几天试用下来,忽然意识到 我们可能正在经历一个节点,你甚至不需要会编程,只需要会说人话,会表达你的需求,就能创造一个属于你的员工。这让我沉默了很久,大概就是这样吧,这就是我想跟大家分享的。

面试官问,有人说 openclaw 只是把现有 agent 能力做了工程化整合,没有核心技术创新,请谈谈你的观点。哎,各位同学,听到这个问题千万别慌,这可是现在大模型架构师面试里的深水区题目。 面试官其实不是在考你 open call 的 代码怎么写,它是在考你对 agent 进化逻辑的底层思考。本视频的代码笔记,我整理进了一百万字的 ai 大 模型学习笔记里了,里面包含了传感器架构、 lincoln reag 模型训练与微调、 ai 的 智能体开发等二十多个技术站与一百多个 ai 大 模型企业落地项目实战笔记。 大家好,我是彭宇,好,大家先看屏幕上这张架构图,我们先定个调子。这种说法其实只看出了 openclaw 的 皮毛,却没看透它的骨头。工程化的极致整合本身就是一种降维打击级的创新。 为什么这么说?咱们顺着这张图往下拉,大家看标题栏,这叫架构眼镜。我们先看第一层, l 一 交互接入层。在这里我要问大家一个问题, 为什么 openclaw 这么火?是因为它的模型更聪明吗?并不是,是因为它把 agent 丢进了企微飞书、钉钉这些常用的聊天软件里。这就是它的第一个创新点, a c i, 也就是 agent client interface 的 革命。你想想,以前我们用 agent 得专门打开一个复杂的网页, 现在就像跟朋友聊天一样简单。这种去中心化的接入方式,其实是把 agent 从冰冷的实验室带到了真实的生产生活场景里。 这种交互低损耗带来的用户粘性,才是 agent 真正走向普惠、走向实用的开始。好,重点来了,大家往这看。这是 openclaw 目前最硬核,也是大家一定要掌握的新知识点。 agent skills 技能机制。我想问问大家,以前我们给 ai 写工具,是不是要写一堆复杂的 jason scam, 是 不是稍微错个标点符号模型就识别不了? openclaw 提出了一个天才的想法,使用 skill 点 md 范式, 让 skill 从小众技术变成大众生产力工具。它不再强迫你写那些死板的硬核代码,而是让你用 markdown, 也就是自然语言 去写一份技能说明书。这一份 skill 点 md 里包含了指令、原数据,还有配套的脚本逻辑。为什么这很重要?因为传统的 json 格式对模型来说只是死参数,而 markdown 文档对模型来说是逻辑指南。 他让模型能够通过阅读说明书,自发地学会如何调用复杂工具,甚至学会如何处理异常。而且他还支持原数据栏加载 模型,不需要一次性吃掉所有技能,只有在匹配到需求时才会精准唤醒。这种将玄学的 prompt 转化为可工程化管理的标准化组建, 你说算不算创新?但是能力越强,风险就越大。大家看中间这一层 l 二核心调度层。如果一个 agent 拥有了操作你邮箱,甚至划转你资金的真实权限,他一旦产生幻觉或者被恶意诱导了,怎么办?这可是面试官最喜欢追问的难点。 opencl 给出的方案不是靠模型自觉,而是靠工程上的严密隔离。他引入了 h i t l, 也就是人在回路机制,涉及到删文件、 付钱这些高危操作,他会在聊天窗口弹出一个 y 或者 n 的 确认请求,必须你本人点一下他才敢执行。同时,他支持沙箱执行环境, 哪怕模型由于受到攻击想去格式化你的硬盘。但在 opencloud 沙箱层级,他被锁死在容器里,根本没有权限跃出半步。 这种从物理隔离到人为干预的立体防御体系,才是企业级 agent 敢于真正商业化落地的技术保障。还有一个痛点, agent 跑着跑着就失忆了,任务断了怎么办? openclaw 整合了项链库和 actionlog 回溯,它不只是记住了聊天记录,而是精准记录了自己每一步想了什么和做了什么。这种对思维过程的持久化和可追溯,才是复杂涨任务能百分之百跑通的关键。最后,我们来总结一下,如果面试官这么问你, 你一定要给出这个满分回答的思维框架。第一, openclaw 的 创新不在于底层的算法模型,而在于它定义了 agent 与现实世界连接的一整套标准协议, 把不可控的 ai 行为关进了工程的笼子里。第二,他通过 skill 点 md, 极大地降低了技能开发的门槛, 让全球开发者都能像写文档一样为 ai 贡献大脑碎片,构建起了一个标准化的插件生态。第三,他从架构层面彻底解决了 agent 落地最硬核的两个挑战,一个是安全合规的物理边界,一个是长城任务的状态一致性。同学们一定要记住, 在 ai 时代,单纯的模型聪明已经不稀奇了,能把大模型的能力无缝接近人类的工作流,并且能管好它的安全和权限。这种工程整合能力本身就是当下最高级的硬核技术工程,即艺术,整合即破局。那么下次再见了。

面试官问,有人说 openclaw 只是把现有 agent 的 能力做了工程化整合,没有核心技术创新,请谈谈你的观点。哎,各位同学听到这个问题千万别慌,这可是现在大模型架构师面试里的深水区题目。面试官其实不是在考你 openclaw 的 代码怎么写, 它是在考你对 agent 的 进化逻辑的底层思考。大家好,我是大鱼。好,大家先看屏幕上这张架构图,我们先定个调子。这种说法 其实只看出了 openclaw 的 皮毛,却没看透它的骨头。工程化的极致整合本身就是一种降维打击级的创新。为什么这么说?咱们顺着这张图往下拉,大家看标题栏,这叫架构眼镜。我们先看第一层, l e 交互接入层。在这里我要问大家一个问题,为什么 openclaw 这么火?是因为它的模型更聪明吗?并不是, 是因为它把 agent 丢进了起威、飞书、钉钉这些常用的聊天软件里。这就是它的第一个创新点, a c i, 也就是 agent client interface 的 革命。你想想,以前我们用 agent 得专门打开一个复杂的网页,现在就像跟朋友聊天一样简单。这种去中心化的接入方式,其实是把 agent 从冰冷的实验室带到了真实的生产生活场景里。 这种交互低损耗带来的拥护粘性,才是 agent 真正走向普惠、走向实用的开始。好,重点来了,大家往这看,这是 openclo 目前最硬核,也是大家一定要掌握的新知识点, agent skills 技能机制。我想问问大家, 以前我们给 ai 写工具,是不是要写一堆复杂的? jason stigma, 是 不是稍微错个标点符号,模型就识别不了。 openclaw 提出了一个天才的想法,是用 skill 点 md 范式,让 skill 从小众技术变成大众生产力工具。 它不再强迫你写那些死板的硬核代码,而是让你用 markdown, 也就是自然语言去写一份技能说明书,这一份 skill 点 md 里包含的指令、 原数据,还有配套的脚本逻辑。为什么这很重要?因为传统的阶层格式对模型来说只是死参数,而 markdown 文档对模型来说是逻辑指南。 它让模型能够通过阅读说明书,自发地学会如何调用复杂工具,甚至学会如何处理异常。而且它还支持原数据栏加载 模型,不需要一次性吃掉所有技能,只有在匹配到需求时,才会精准唤醒。这种将玄学的 prompt 转化为可工程化管理的标准化组建, 你说算不算创新?但是能力越强,风险就越大。大家看中间这一层, l 二核心调度层。如果一个 agent 拥有了操作你邮箱,甚至划转你资金的真实权限,他一旦产生幻觉或者被恶意诱导了,怎么办?这可是面试官最喜欢追问的难点。 openclaw 给出的方案不是靠模型自觉,而是靠工程上的严密隔离。它引入了 h i、 t l, 也就是人在回路机制,涉及到删文件、付钱这些高危操作。它会在聊天窗口弹出一个 y 或者 n 的 确认请求, 必须你本人点一下它才敢执行。同时,它支持沙箱执行环境,哪怕模型由于受到攻击,想去格式化你的硬盘。但在 openclaw 的 沙箱层级,它被锁死在容器里,根本没有权限跃出半步, 这种从物理隔离到人为干预的立体防御体系,才是企业级 agent 敢于真正商业化落地的技术保障。 还有一个痛点, agent 跑着跑着就失忆了,任务断了怎么办? open claw 整合了项链库和 action log 回溯,它不只是记住了聊天记录,而是精准记录了自己每一步想了什么和做了什么。这种对思维过程的持久化和可追溯,才是复杂党任务能百分之百跑通的关键。 最后,我们来总结一下,如果面试官这么问你,你一定要给出这个满分回答的思维框架。第一, open class 的 创新不在于底层的算法模型,而在于它定义了 agent 与现实世界连接的一整套标准协议,把不可控的 ai 行为关进了工程的笼子里。第二,它通过 skill 点 m d, 极大地降低了技能开发的门槛,让全球开发者都能像写文档一样为 ai 贡献大脑碎片,构建起了一个标准化的插件生态。第三, 它从架构层面彻底解决了 agent 落地最硬核的两个挑战,一个是安全合规的物理边界,一个是长城任务的状态一致性。同学们一定要记住, 在 ai 时代,单纯的模型聪明已经不稀奇了,能把大模型的能力无缝接近人类的工作流,并且能管好它的安全和权限。这种工程整合能力本身就是当下最高级的硬核技术、工程级艺术整合及破局。好了,今天的分享就讲到这,大家点赞点关注!

利用中午吃饭的时间来聊一下这个 open cloud 到底能够用来做什么事情。他官方文档上 举的例子是可以帮你处理邮件、处理日历之类的。对于国内的人来说的话,其实没有那么大的处理邮件、处理日历的需求,工作中才会用到邮件啊、日历啊之类的这些东西,所以这个需求是不存在的。 然后 open club 还有一个比较严重的问题是它权限给的高了之后,会带来一些安全问题,所以我们就需要想一些场景来让它既可控又能够替我们干活。我能想到的场景是,比如说在家里边,你把它部署在一个 树媒派上,让它去管理你的智能家居,限制它能够去干的事情, 比如说帮你开灯关灯,早晨帮你拉窗帘之类的。原来你需要喊一声小爱同学,然后你现在就不用喊了,龙虾可以帮你直接搞定。 但这个需求的问题是他其实没有带来太多的收益,你原原来就已经很方便了,感觉原来日常中能够用 ai 解决的问题,在呃已有的产品里边已经解决的很好了。 还有一个需求是巡检需求,比如说你要去巡店,或者是去在一个工厂里边巡视,发现问题及时的去汇总上报,这样的话你就可以先发给你的 open cloud, 然后等你巡视完一圈下来, 它报告就帮你生成好了。但这个问题发给豆包这种聊天类的智能体应用也是完全没有问题的, 差别就是你发给豆包的话,这个数据会传到豆包的服务器上,发给 opencloud, 如果你不部署自己的本地的大模型的话,其实数据也会发给这些模型提供商, 所以其实差别不会很大。如果你为了把 openclaw 用起来,像很多人一样去买个 mac mini 的 话,说实话成本会有点高。那有什么场景是可以通过你在聊天框里边跟他聊天,然后去让他干的呢? 这个现实世界中其实只有老板会这样,就是他会负责提出问题,底下有一堆人给他把活干了, 大家在日常生活中还真的不会这样,有什么活可能这样自己动手解决掉就好了。比如你去打开一个开关,甚至都不会想着让语音助手去给你打开,你直接去会去按。让我想想 还是刚才那个巡检的需求,感觉可以用在农业上。比如说你把你的种植大棚投入点成本完全变成可以电脑控制的,能够通过电脑控制之后就能通过这个 ai 去控制, 然后因为他可以做的动作的空间是有限的,所以产生安全事故的空间也是有限的。这样的话他就可以比较智能的根据你棚里边种了什么, 然后定期的帮你开棚关棚,这样的话确实可以发挥出 open cloud 的 价值。他 你认为你这样就没有不需要自己再写一套程序了。但是呢,呃,这个方式也会有问题,因为它 open class, 它定位是一个通用的 ai, 如果你用这个通用的 ai 去做一个特定的事情, 他肯定会花更多的头肯来干这个事情。所以相比较之下,你不如说是用 web coding 的 方法去自己写一个 agent 来做这个事情,对吧? 我朋友圈看到有人用欧盟 club 点麦当劳,他确实是能点成功,因为麦当劳开放了 m c p 这个东西和你直接在外卖软件上点能有什么差别呢?除了他现在渠道上会给你一些优惠之外, 我前两天刷到一个博主说如果你没有自己的商业模式的话,你 ai 其实是用不起来的。这个话现在想想是说的非常对的, 你现在 ai 固然可以给你把效率提升到三倍、五倍、十倍、八倍,但如果你没有这个场景的话,基本上也是一个有力气没地方使的一个状态, 所以还要所以还是要通过观察生活,找到那种能够实现自动化人干他可能效率是一, 自动化之后效率能够变成三变成五,然后加了 ai 之后,能够在自动化的基础上更加快,这种场景才能够真正把 ai 给用起来。 比如说我看到现在有有企业招人做这个投资信息收集的智能体,原来的市场分析师,他会呃去各个数据源去拿到数据,然后自己去做分析。 但是现在呢?它可以通过 ai 去自动拿数据,这样的话就能够多看一些数据源,方方面面的信息都不会被错过。这样的话里边的投资机会,尤其是那种长尾的投资机会可能会更多, 这种是有价值的。但是这个前提确实是你要有一家已经在运行的投资公司,可以让投资公司的效率从一变成十。 嗯,这样看,其实数据分析师的岗位好像比程序员还要更危险一些。 说到投资,如果大家都在用 ai 去分析市场里的机会,是不是所谓的价值投资就能实现?如果每个人都很理性的话,他不会去市场很高的时候去追高一只 股票,当股票价值跌到价值线以下的时候,就会有很多 ai 去发现它,早早早的把它埋起来,那市场真的就会变成理性市场。 理论上理论上是这样,虽然在投资领域非常忌讳说这次不一样,但是我感觉 ai 这一次好像确实是不一样。 刚才农业的那个话题,我看到有人用智能体去照顾一些一颗番茄,它其实也是一个比较理想的情况,因为番茄你完全可以就是泡在营养液里面,或者用那个弃物种植深液流浅液流之类的东西, 就完全可以把它给给种出来。但这个对于大部分的农业场景其实也是不适用的,能够水培的作物也就那么几种。 这里想说的是,农业上有大量的其他工作是没法用 a i 替代的,如果你想用 opencloud 去帮你减脂,帮你导航 他这个,嗯,代价肯定会比原来研发出来的这些导航算法、图像识别算法的计算成本更高。 等到未来各种平台按自己的真实的计算成本赚钱的话,那可能这个这个这个故事就说不说不通了。我总感觉现在头肯这么便宜,应该是各个公司都在烧投资人的钱。 本来想用一顿饭的时间头脑风暴一下 open klo 可以 做什么,菜都吃完了,饭还剩下这么点,也不打算吃了,也没有想出来这个能够实切实有用的场景。 所以现在感觉下来,好像那种成立一人公司,给自己创造一种商业模式的方式是符合发展方向的,先有个商业模式,然后再 再给它加速。但这里的商业模式不能是那种 moving bits 的 商业模式,而是 moving items 的 商业模式。好,就先录到这里吧,拜拜。

openclo 装好之后必须要设置记忆系统,记忆系统你设置了吗?什么是 openclo 的 记忆系统? openclo 有 三层记忆系统, 绘画记忆啊,它存在内存里,绘画结束就消失了。短期记忆存在内存里定期的归档。长期记忆存在内存里定期更新,我们一个一个来看啊。绘画记忆它存在哪里?在内存里定期更新,我们一个一个来看啊。放在 session 目录底下, 这个 session 文件它存什么内容呢?我们发过去的所有消息, opencall 的 思考过程,工具调用, skill 调用等任务的执行过程,以及 opencall 给我们回复的消息。那么短期的记忆它存在哪里呢?在 memory 的 目录下,以日期为文件名的 markdown 文件,它会定期的归到。 那这个归打文件又存了什么内容呢?记录了当天的重要事件,过程,笔记, to do 等等等等,是基于他的人设,他认为最重要的东西进行了归打。那 open colo 他 怎么知道哪些是重要的事情呢?这个就需要我们调教了,需要我们告诉他哪些是重要的。 最后,长期记忆存在哪里呢?长期记忆存在工作空间的 memory 点 map 档里,这个文件存了什么内容呢? 里面记录了 openclock 最核心的认知,比如说我是谁,他是谁,我和他之间的关系,再比如说我们的偏好风格,长期的目标,记性中的任务,以及我们希望他记住的最核心的东西 啊,像重要的实践呐,教训呐,决策原则呀等等等等。长期记忆里记录的内容是最核心的机密,它只会在于主会话,也就是和我聊天的时候进行加载,在执行其他任务的时候,比如说群聊的时候是不会加载的,避免泄露了私人的私密信息。那长期记忆的更新机制是什么样的呢? 我们可以把它放在心跳机制里进行更新,或者放入 agent 点 markdown 里,作为核心流程的部分。那更新的流程是什么呢?它会读取最近几天的短期记忆,然后选出值得长期记忆的事情,最后提炼完写入 memory 点 markdown。 最后一个问题啊,那 openclip 它是怎么知道哪些是值得长期记住的事情呢? 这也需要我们调教,需要我们告诉他哪些是需要长期记住的。安全人设记忆,这三件最重要的事情你都做了吗?学习 open core, 我 最近做了一个 open core 大 航海三十一天,欢迎来玩。

大家好啊, openclaw 呢,热了这么久,也观察和思考了蛮久,现在可以做一个深度点评了。 这款 ai 智能体的框架上线没多久啊,在 github 的 新标啊,就突破了二十八万,全球的科技巨头都集体亢奋,而且还把 samsung 软件按在地上摩擦, 阿里、腾讯、智捷这些企业呢,纷纷也下场布局,为什么他们会这么亢奋?为什么会全员狂欢?是不是因为他们是来炒热度割韭菜呢? 今天我们就从行业的发展历史,各个巨头的困境,以及这个 openclo 的 破局的价值,用数据呢,来带大家拆解这一场铺逼市场的盛宴和颠覆性的变化啊。那么谈到互联网和 it 界服务企业, 最为光鲜的当然就是萨斯的时代啊,从最早的单机版的类似于管家婆这样的财务软件, 到后来孵化出金碟和拥有,到最后呢,全员转型为萨斯啊,到了今天,实际上这个萨斯时代呢,它可以说是巨头秃逼的十年围城。那中国的互联网巨头去推动秃币, 其实是在二零一八年的前后,当时呢,美国市场已经验证了秃币的价值,亚马逊的 a w s 贡献了几乎全部的营业利润, 微软呢,超过三分之二的收入都来自于企业服,特别典型的做这个销售系统的 salesforce, 它的市值啊,突破千亿美元。 所以国内的巨头呢,看到了四千万企业的当时的市场的潜力啊,所以就集体在转型啊。阿里呢,就率先发力去构建云服务,做行业解决方案的 to b 的 底座啊,试图成为国内的云服务的标杆。 而腾讯呢,也在二零一八年成立 c s i g, 也就是云与智慧产业事业群,全面对标阿里压住政企服务和产业的数字化字节跳动呢,当时也是重金的投入啊,砸入非书, 以协助工具切入企业服务,试图用 c 端产品的思维去颠覆整个 tob 市场。但是十年过去了啊,巨头们呢,始终在 tob 的 门口打转, 其实他的核心的困境就在于上市模式啊,他有一个个性化的死结,有三个部分构成,第一个部分呢,是需求极度的碎片化,制造、金融、医疗这些行业的流程差异太大了, 而中小企业跟大兴集团的需求呢,也是天差地别,所以标准化的上市产品其实很难去适配。 而且呢,你如果你要去定制化,定制化的开发的成本高,周期长,而且很难规模化的复制。那么同时呢,在这个交付与服务端,又是一种重资产, u b 项目需要深度的调研,定制的开发,长期的运维,人力成本占比超过百分之六十。 巨头擅长的 c 端规模化,那种轻资产的模式啊,完全失效。第三个生态的壁垒也很难突破。 传统的 to b 的 厂商,比如拥有金碟,深耕了行业的几十年,积累了深厚的客户关系啊,以及呢,知道行业的玩法,我们流行的话说叫 know how 啊。 而巨头们呢,其实缺乏垂直领域的经验,所以很难切入核心场景。从数据层面来看,二零二五年,二零二五财年啊, 阿里的总数的增速只有百分之五点八六啊,远低于亚马逊的 a w s。 腾讯的 c s i g 呢,也是长期亏损,字节的飞书的商业化的进度啊,其实也离预期有很大的差距。 在整个上市的时代,巨头的 to b 梦啊,始终是看得见进不去的,一个这样的很尴尬的围城状态。后来呢,从二零二五年起,进入第二个阶段啊,到了时代, ai 时代的企业的需求爆发了,但是巨头呢,仍然不知道怎么跟企业去合作啊。那么因为从二零二四年初开始, chat gpt 呢,带来的深层式的 ai, 让职场人很兴奋了,因为所有的职场人都发现,以前很多没有用的文书工作,现在可以用 ai 来做,呵呵, 当然, ai 做了以后呢,很多企业就开始喊出了你不要再做 ppt 了,因为大家都知道, ppt, 那 就是相当于用 ai 来骗领导,领导自己觉得也不爽了就算了,所以现在反而对 ppt 的 要求呢,没那么高了。 那到了二零二五年呢,沙利文报告显示啊,二零二五年下半年,中国企业级的大模型的日均调用量从十点二万亿的 tokens 飙升到了三十七万亿, 半年时间增长了百分之二百六十三,那模型呢,也从实验工具变成了生产的核心工具。二零二六年的第一季度, 有百分之六十七点三的企业计划增加 ai 的 预算,百分之四十以上的企业呢,计划部署 ai 的 数字员工, 目标是把人力成本降低百分之三十,效率提高百分之五十。而中国的大模型的 tucker 调用量,其实在二零二六年,也就是今年的二月份,首次超越了美国, 占了全球总量的百分之五十一点二,国产模型通一千,问呢,月之暗面呢? kimi 啊,月之暗面的 kimi 啊,这些占据了全球前五的三席。但是需求爆发的同时呢,巨头啊,依然面临两大核心难题, 还是原来的老问题,行业的 no 号缺失。你大模型技术再强,没有行垂直的行业经验,就无法解决企业的实际问题。 比如制造业的供应链的调度,金融机构的风控建模,他都需要非常深度的行业数据与经验流程的积累。那定制化的成本呢?仍然是高起的, 企业需要基于自己的数据微调模型定制应用,所以好多的企业呢,现在还在研究微调模型,巨头提供的这种通用的大模型的服务, 难以满足个性化的需求。那,那有的企业说,那我,我愿意做定制,但是定制化的服务收费又高,交付又慢,其实企业很难接受这个时候的 to p 市场啊, 就像一座有钥匙孔的大门,企业的需求呢,是钥匙孔,巨头呢,有技术,大模型有资金,有渠道,但是就是缺一把什么打开这个钥匙孔的钥匙啊,也就是行业经验跟低成本定制化 这两个东西不具备。所以看到大模型大家嗨起来了,但是呢,巨头还是进不去好。这个时候,第三阶段轮到 open claw 横空出世了, 巨头终于找到了破局的终极钥匙。二零二六年初, opencloud 的 出现,彻底解决了巨头的突必的困境。 这款呢,由奥地利工程师开发的开源 ai 智能体的框架呀,核心价值是让企业自主贡献经验,你看每个企业自己做的 skills 有 没有发现,只要你用巨头的大冒险, 它就自动地上传给那些巨头了,不用它再去帮你定制了,这样子巨头就可以免费的获取行业的 noho 开发成本,定制化的成本突然一下降到零,实现 tob 服务的规模化,低成本的落地好,那么 opencloud 的 核心能力呢? 是让这个企业的跟模型的关系,从被动响应到主动执行。 opencloud 有 什么厉害的呀? 第一,他突破了传统 ai 的 一问一答的局限,能够自主地执行复杂的任务,直接操作文件系统,直接操作浏览器,直接操作终端。原来呢,只是我们这个问他一句,然后把信息转出来,再大量的手工操作,现在不用了,他全自动完成。 第二, opencloud 的 记忆能力给这个大模型带来了一个扩展啊,毕竟所有的大模型都有一个上下文的这种 这种限制好。那么从最新的版本的话呢,就特别是三月七号的最新版本啊,就推出了 contacts energy 的 这个插件的接口,实现了 ai 记忆的热插拔。 开发者呢,可以灵活地替换上下文管理策略,适配不同的企业的场景。而且关键是什么 opengl 还是开源的,开源开放,所以企业可以做本地部署,自主定义。 当然,虽然超大型的企业会做自自主定制,好像跟巨头没关系,可是你说小规模的企业又想用他能够自己来完全搭建吗?完全部署吗?不可能。最后呢,他在这个阶段还是会依赖巨头的云服务,像今天我们用的 openclo, 基本上都是在用 tok 吧, 再用这些巨头的服务吧,那你的经验就免费传上去了,对不对?你信不信他没有吸收你的经验,哈哈哈,对吧?所以 open club 呢,他就给给这些巨头啊,带来了一个很巧妙的一个破局的逻辑, 企业造血,巨头免费打 openclaw。 最让这些巨头兴奋的是,它构建了企业自主贡献经验,然后巨头整合输出,最后全行业受益的一个这样的正向循环。企业端现在是狂热参与的, 他们把自己的行业流程呢,业务经验呢,数据模型呢?打包成技能包,然后上传到 openclaw 的 生态里面去。 这些经验其实是企业的核心资产,但是呢,通过 open core, 其实它是开源共享企业呢,可以得到来自于整个社区的反馈,优化流程,又能借助巨头的技术实现经验的 ai 化落地。同时呢,巨头免费获得这些 skills 啊, 掌握了 know how 的 关键的这个壁垒。在 open core 的 生态中呢,数百万的企业上传的行业经验,成为巨头的免费的知识库。 阿里、腾讯、智捷无需再花费数年数十亿的资金去调研行业,积累经验,直接基于这些经验呢,就可以快速开发垂直行业的 ai 解决方案,而且还不仅仅是 no 号的问题,而且它还能够带来直接的消费。 talkin 的 消费与生态都可以得到双重的收益。一方面,企业使用这个 open cloud 和巨头的大模型,会产生海量的 talkin 消耗,这样的话,用户会越来越依赖最新的消息哈,这个已经有大模型提出了,每个月三五十块钱,在中国的啊,可以提供三千五百万 talkin。 那还得了,以前的免费 tiktok 都是一百万级别的,现在一个月三千五百万 tiktok 啊,二零二五年呢,中国的企业级大模型日均可以走到三十七万亿的 tiktok, 而 openclip 的 普及呢,会把这个数据再翻好几倍。 所以巨头的这个 max 以前叫 size 嘛,对吧?软件级服务嘛,现在是模型级服务的收入就会迎来爆发。那另一方面的话,这些巨头呢,基于 openclaw 的 生态构建的 to b 的 服务,会快速覆盖行业,彻底打破大势时代的这种个性化的困境。 所以目前呢,三大巨头的集体行动就基本上是 o in openclaw, 这是一场只能胜不能输的战斗啊。 所有的巨头都基于 openclo 的 架构,推出自研的商用智能体的体系啊。阿里呢,现在他的这个统一,他的这个推出了面向制造、金融和零售的行业智能体。 腾讯的话呢,采用什么微信手牌呢?这个 bookbook 啊,和这个 qclo 双线策略啊,既有生态的安全,又有入口,把 openclo 呢嵌入企业微信云服务政企客户。而字节呢,也推出 arkclo, 从 c 端的这个入口去争夺系统级的 ai 的 份额。同时呢,把这个 opencloud 呢跟飞书深度整合,打造企业协助跟 ai 执行的一体化的解决方案。所以这个 opencloud 的 出现呢, 它标志着中国的二批市场从萨斯时代的定制化的困局,进入了 ai 智能体时代的规模化的破局。对巨头而言呢,其实它不是一个说呃韭菜的狂欢或者炒作一个概念, 他们看嗅到了这个核心价值,在过去的十年,他们一直被困在萨斯的个性化泥潭里面,无法规模化盈利。 那现在呢? openclaw 让这个行业的经验开源共享,巨头只需要提供大模型的技术跟基础设施,就能快速的覆盖全行业的 tob 市场。所以谁输了,这场战斗就基本上就被别人从 tob 市场切割掉了。 那这个莎莉文呢?也预测哈,二零三零年全球的 ai 应用市场的规模就会达到三点二万亿美元,中国的企业级的 ai 市场的年复合增速会超过百分之八十。 opencloud 引爆的市场变化呢,不仅仅是技术的迭代,更是一种商业逻辑的重构,谁能率先整合 opencloud 的 生态,落地行业 ai 解决方案,谁就能掌控 tob 市场的未来。 那么对于阿里、腾讯至极这些巨头来说,这不是选择题,而是生存题。抓住 openclaw 呢,就能突破 to be 的 围城,开启第二增长曲线。错过 openclaw, 那 就会被时代淘汰,永远困在 c 端的存量竞争里面。所以这一战只能胜,不能败。

朋友们大家好,上期我们给大家主要讲了如何去部署大龙虾,也简单讲了如何去使用白嫖,一些英伟达的算力给我们大龙虾去进行一个赋能。那很多朋友跟着网上的基础教程,只是把大龙虾跑起来就觉得万事大吉了,但是当你真正的想让它成为你的赛博员工,帮你处理高压任务的时候, 你会发现 a p i 疯狂的限流报错大模型总是不回复,甚至花了一周调教的系统 ai 居然失去了记忆。这个指南专门解决 open class 最让人崩溃的底层网络与生命周期的问题,搞定这些,你的 ai 才算真正拥有了稳定的心智。接下来呢,我会从三个痛点方面去帮大家去解决大龙虾遇到的这些问题啊,并且呢我们已经跑通了, 那第一个痛点就是大龙虾,大龙虾经常会推理到一半直接断开,这个呢通常是因为四二九限流或者是 timeout 这个一个问题。那为什么上一期我们讲了如何去配置英美达的免费的 api, 那 这个 api 由于它是免费的,并不是说无线调用,这里只讲白嫖的情况。 那对于这些无线调用的模型是不是就没有办法解决这个问题呢?并不是,我们这个英美达的大模型其实是非常好的,比如说 mini max 二点五和这个智普五,甚至还有 kimi k 二点五等等等这些东西,但是由于它的 api 的 调用限度,大家玩的总是不顺手。 那还有一个问题,就是因为这些模型它吃上下文,经常会遇到还没有输出完毕服务就会报错的这个问题,那那 open class 原生的这个 feelback 机制呢?对网络超时错误呢?是完全束手无策的,它只会傻傻地卡死在同一个大模型节点上,循环报错。那这个方法怎么解决呢?我们 来使用一个终极解法,那我这里你可以看到一个任务,它其实长时间没有报错一个任务,直到最后完成了任务之后,它会给我相应的回复。 那这里的中介解法就是我们抛弃原始的串行思维,引入一个轻量级的 node js 中间件,自己做 api 调度和健 康检测机制。这里核心架构思路就是起一个本地的,比如说我用的是八七六五的这样一个端口作为一个断点服务,那我们将多个大模型,这里我们可以是两个英美达的大模型,也可以是三个英美达大模型,大家自己去注册,甚至你可以说英美达的大模型用的 不够好,那也可以加一些你的付费的大模型,甚至呢 open ai 或者说 java 等等的大模型,谷歌的大模型,这些都可以放入到这个 api king 的 这个池子里面, 我们在需要的时候可以选择合适的大模型去使用,比如说我一些简单的任务,我选择去使用我免费的英伟达的大模型,那如果说一些复杂的任务,我们再去使用这个付费的大模型,这样就会导致保证我们的任务会断掉。 那这样我们的 opencloud 它不是只认一个 api, 而是认这个 opencloudjsen 里面的所有的池子里面所有的 api。 那 一旦触发这个频率限制,四二九的频率限制,或者等待时间过长呢,代理会无感的切换到下一个健康的 king 去继续完成对话。 那我们的部分配置文件在这个 opencloudjsen 的 里面做一些绑定,由于这个比较多,它甚至我做完这个之后包含的代码非常多,所以说这里给大家展示了,如果大家需要这个机制,可以去私信我, 我给大家去做这么一个配置,甚至是说把这个配置给你们复制过来,让你们去进行这么一个自己 open class 的 配置,那实战效果就是可以实现真正的无感降级。 那比如改造前我们给他一个问题,比如说正在分析我们的业务代码,他会卡顿两分钟,甚至在终端去进行爆红,爆红之后就开始原地卡着了。相信大家在使用过程当中都会有这样的问题,那卡了之后就直接罢工了,就会给你卡在这,你也不知道他发生了什么,也不知道他在干什么, 就会罢工,这就是大家觉得这个小龙虾运用越笨的一个原因之一。改造后呢,我们可以在上面视角可以看到他的终端是一旦出现这个限流或者太慢,他会直接拦截,直接隔离, 这个只有转到了我们刚才的幺二七点,这个八七六五等等整地的端口实现无痛换号,换完号之后再让第二个大模型去进行这么一个 任务,那前台我们是毫无感觉的,我们可以看到我们的这个 opencloud 的 前台是没有任何感觉的,他会继续流畅的吐出代码。这个实现的此电被动剔除与健康检测的原生代码呢,超过二百号,涉及复杂的分装配置,需要的同行可以关注后私信我, 或者我会直接发你这个完整的脚本。第二个痛点就是大家有没有发现在使用的过程当中,我们的大龙虾会经常半夜,一般四点左右的时候会把记忆清除,这个是大龙虾的配置的问题,他会为了防止上下文过载,把你昨天的内容就给清除了,让今天你暂时使用的时候,他会新开一个对话。那实际上我们需要这种这种吗? 不太需要,因为第一个后面我会教大家如何去解决上下文过长的问题。这里我们是为了这个对话,我们经常会想要他去手动去清除新开一个对话,而不是说他会自动去更新这么一个对话, 因为这样我们可能昨天没有完成的任务,今天就就消失了,一夜之间全部清零,甚至是说我们教他的代码习惯,或者说我们教他的个人行为习惯,或者说之前没有完成的一部分任务,都会去给你做到一个清零的这么一个操作。那怎么做?我们去强行锁死他的生命周期,我们可以通过修改核心的 session 这个 指令块彻底关闭,清理于强制轨道。我们需要怎么改?我们需要在 session 的 指令块里面去这样配置, 这里我给大家打一下,就这样配置,我们主要是将破碎的上下文强制柔和为完整的主干时间线,我们关闭这个清理模式,只报警不执行,这样我们只是报警,他的上下文可能超线了,但是不去执行,怎么执行?我们自己去选择点击这个 neos 就 好了, 这样我们可以想象一下他是怎么去计算的。很多人的 ai 现在都是鲸鱼记, 简单来说就是七秒钟,每天起来都要告诉他我是谁,我要干嘛。当我们锁死了绘画生命周期的时候,并且配置了专属的记录的时候,我们三个月后发一句,帮我写一份年底汇报邮件,完全起头不浪费。根据我们的这几个月的记录,将我们的战略重点是比如说短视频矩阵和开源社群运营,我们的使用习惯是什么, 或者说不讲废话的商业投本等等。将还有非书中最近的三篇开源项目等等整合成了邮件,这样他不仅记忆不存在,而且不会说是我们每天去把大量的时间浪费在 获取给他,具有恢复他的记忆上面。那关于这个痛点,我写了一个一键复活 oldschool 历史工具的自动还原脚本,到时候关注我会再会私信你,教你如何去恢复记忆这些脚本。好,这个第二个问题就废话不多说了。第三个问题是模型动不动就话工说超出时间,这个其实跟第一个问题很像, 但是这个问题是关于前端的,我们会经常在这里动的时候,可以看到前端这里会有爆头,他就会说自己已经超时了,实际上超时没有了,我们打开后端去看的时候,发现并没有超时,甚至是说还在正常的运行,那这个怎么解决呢?这个其实是一个小问题, 其实这里我们大家配置了英伟达的这个模型, mini max m 二点五,或者有条件的配置 open ai 或者谷歌,甚至是谷歌的模型的时候,并没有启动模型的最强能力,它们的这些模型通常是具备深度思考能力的,常说的 深入思考这样一个开关,那在这里呢?第一个问题就是如果我们不打开这个开关,他会在后台去第一个他不会那么聪明,他没有深入思考,这样是他只会,他只会在后台去自言自语。我们可能在前端遇到的问题就是他给我们一个反馈,甚至我们不知道他到底有没有坏点, 因为这个是 opencloud 的 默认配置,他会默认的配置超时时间很短。第二个他默认不会将这个输出设置成流逝时间很短。第二个他默认不会将这个输出一下给我们, 这个是它的一个配置的问题。第三个是它没有去默认打开思考模式,那我们怎么解决呢?其实这个要解决也要修改一部分代码块,但是我们可以先有一个解决方法去把它的超时时间变长。我后面会教大家如何去配置流逝输出的开启。 还有一个思考模式,其实怎么开启的这个思考模式这里对数了。还有就是流逝输出,你也可以在这里去问, 让他去帮你开启,可以看到他已经开始工作了。还有最后一个在这里去引入大家的一个重点,这个重点就是大家最近遇到的 open ai, open cloud, open cloud, open cloud 只会傻傻地给你给你建议,他不会去 自己去帮你创建文件,或者说自己去帮你修改配置。这个是什么问题?这个是最新版的,我现在已经是二零二六年三月八号最 新版的这个调用你工作的本地权限的模式是默认关闭的,为什么?因为大家最近也看到了一些相关的咨 询,说是 open 大 龙虾,它是安全性级别有一点限制,甚至有人会专门利用大龙虾去做一些违规的事情,但是大家也知道这个工具本地工具调用的能力是它的核心能力,如果说不开起它,基本上大家自己主动的去开着 g p p 聊天,或者说专门在聊天是一样的, 我到时候我会指导大家如何去开启这个配置。好,刚才那个问题我们已经有了答案了,有没有开启思考模式?这里的思考模式已经开启了,但是为了这个我也是用的免费的模型,为了 去审头肯,所以我还是用的是 low, 如果说大家想让这个模型变得更聪明的话,可以把它设置成 high 这个更高的思考模式,当然一些简单的任务 low 模式就足够使用了。 期,视频我们就到这里,那下一期我会带大家去配置一些比较实用的技能,这些技能会让你的模型真正的具备思考长久的记忆,或者说操控浏览器,甚至是说操控飞书啊, notion, 这些 不是 notion 操控飞书文档这些能力,或者说我们官方的一些聊天软件,让他去真正的工作起来。好,本期我们就到这里了。

很多人在养龙虾的时候都会发现一个奇怪的现象,有时候啊,龙虾回答的特别快, 但有时候又慢的离谱,原因只有一个,龙虾在思考,而且龙虾的思考是可以调节的。大家好,我是洛新,今天我们给大家分享一下关于 opencloud 的 推类逻辑设置的专题。 在很多 a r e 系统里,其实有一个隐藏的功能叫 thinking, 也就是推理模式,简单说就是 a r e。 在 回答之前会不会先分析问题, 我们来看一下什么是推理的功能。推理功能是 a r e 模型的一种思考能力,遇到复杂的问题时,先分析推理,再给出答案。 比如你问 ai 今天北京多少度这种很问题,很简单, ai 不 需要思考,直接回答就可以。这个时候最适合的模式就是 off。 我 们来看一下,就是有三个级别。 第一这是 off, 是 指的是关闭,就是不思考速度,它是最快的,消耗的 token 是 最少的。第二个是 d, 它的英文是 low, 思考的深度是简单,思考速度是中等,消耗的 talking 也是中等的。第三个是中,英文是 medium, 中等,思考较慢,然后消耗的 talking 较多。最后一个是思考级别是高,英文是 high, 思考的深度就是深度,思考最慢,然后消耗的 talking 也最多。 我们来看一下它适用的场景,大家就会明白, off 的 话就是简单的问题,闲聊查天气,比如你问 ai 今天北京多少度这种问题很简单, ai 不 需要思考,直接回答就可以。 这时候最适合的模式就是 off, 也就是关闭,思考速度最快,成本也是最低的。那第二个级别是 low, 一 般问题,日常对话。 比如如果你在工作中写邮件,写方案,写文案, ai 就 需要稍微整理一下逻辑,这个时候啊,你可以使用 low 简单的思考模式。 第三个是 medium, 是 适用的场景,是较复杂的问题,比如说如果你是程序员,或者是在调试代码,比如 python 代码报错,需要 ai 帮你分析,这个时候你就可以开启 medium 中等思考模式, ai 会分析逻辑,再给出答案。 最后一个级别是 high, 是 数学题,逻辑推理,复杂分析,比如如果是你在解决数学的问题,或者是复杂的逻辑推理,或者是复杂的分析,你就可以开启 high 模式。深度思考模式, ai 会先推理再回答,虽然慢一点,但答案会更加的准确。那讲了这么多,我们到底在 open class 里如何通过一条指令来去实现它的思考的模式的切换呢?这里我们给出了具体的对话指令, 比如我在我输入一个 thinkoff, 它就会关闭推理模式,我们来实际看一下, 你输入 sync off, 然后它就会关闭,那我们怎么确认它有没关闭呢?我们输入一个 status, status, 然后我们就可以看到它给出了当前的状态,这个是 opencloud 的 版本,是三点七版本,然后,呃,这个模型我们就不看了,然后 apikey, 然后这个是 token, 呃,这个也不看了,就是思考模式,在这里 sync sync 思考深度是 off, reason 推理是 on, 所以 这个时候它的思考是关闭的,然后我们再看,再看一下,就是第二个模式,就是低级别的思考模式,我们如果说要让它进入低级别的思考模式,可以输入 thinking low, 我 们来看一下, 这个时候呢,回顾,已经设置为 low 模式,我们来再看一下。 好,这个时候呢,它已经把 thinking 设为 load 模式。 如果我们做复杂稍微复杂的一些事情,中等思考级别的,我们就输入 thinkmadam, 我 们来看一下,再切换一下, 好,回车,这个时候呢,它就把级别设置成 madam, 我 们来再干看一下, ok, 好,这个时候它就设置成 madam 了。然后如果我们把 syncing 同样设置成复杂模式 high, 这个时候呢,它就会把思考的级别设置成 high, 然后我们再确认一下, 好,这个就是 high。 好, 这一块的话,设置就是这样,但是有一个注意事项大家一定要清楚,第一,思考越深,消耗的 token 是 越多的,那思考越 真的回答的速度也是最慢的。第三,不是所有的模型都支持推理功能,这个也是跟你选择的模型有关系。 那刚才我们通过对话指令设置的,他是临时有效的,那临时有效他的在什么情况下会失效呢?会被道默认呢?有三种情况,第一个超时, 超时多长时间呢?三十分钟,无活动,自动失效。那这个三十分钟是在哪里设置的呢?我们先待会再说,先留个悬念。然后第二个就是,如果说你重启了 open color, 那 这个时候临时设置的这个思考级别也会失效。第三种情况就是新开启了一个新的对话,这个时候原来的这个设置时间也会失效。 好,如果说我想永久设置它有效,就需要在配置文件里去执行。在我们的找到我们的 open color 的 简点接诊, 这个时候呢,你在 agent 这个栏位里把它的 syncing default 直接设置为一个值就可以了。这里可以选择我们前面说过的三个值, off, low, median 和 high, 它就分别对应不同的推理级别。 好,这里我已经把我的这个配置文件打包好了,大家如果有需要可以找我领取,然后作为参考,对你的 opencloud 进行一个设置永久的设置,这是我实际的本地设置,大家可以看一下,就是这个 syncing default 设置 medium。 好, 我们刚才有一个地方我们没有解答,就是超时时间是三十分钟,无活动,自动失效。这个三十分钟在哪里设置的呢? 这三十分钟在哪里设置的呢?也是在这个配置文件里,大家看到没有,这里有个 time seconds, 一 千八百就是对应的。就是,呃,三十分钟,三十乘上六十秒嘛,一千八百秒就是三十分钟,它就会失效。 好,当前我输入的时候查看状态是用的杠 stats 或者是杠 sinking, 杠 sinking 也可以,我们来看一下杠 sinking 好,这个时候呢,它会提示 current thinking level high, 然后它会给你提示 option 选项是什么,我还是给它设置成, 设置成 lower, 可以 节省一些 token 好,所以这里有几个注意事项, toking 的 消耗,推理级别越高,消耗的 toking 越多。响应速度,推理级别越高,响应越慢。第三个是,并非所有的模型都支持需要模型本身具备推理能力 啊,相关的设置和命令我都整理好,大家如果需要可以找我领取。如果你想学习更多的 ai 隐藏技巧,记得点个关注,我会持续分享 ai 实用玩法,谢谢大家!