大家好, open club 最新更新了全新记忆架构,今天我们来聊聊本次更新架构的意义。智能体的记忆系统是其核心能力,但长期以来,上下文管理一直是个黑箱。模型为什么会忘?东西压缩到底丢掉了什么? 排障时经常一头雾水。这次升级不是修补某个工具,而是把记忆管理从模糊直觉变成可控工程系统的一次跃迁,让我们看看智能体的大脑如何实现真正的工程化。智能体的信息来源可以清晰的分成三层, 第一层是工作记忆,也就是当前绘画里要送进模型上下文的消息集合,目标是当下可用,预算可控,在有限 token 预算下,让模型看到最相关的内容。 第二层是长期记忆,把未来可能附用的信息长期保存,目标是找得到、可维护、可审计,不仅要有存取能力,还要能管理和追溯。第三层是外部知识,比如搜索引擎和业务系统,目标是事实权威、可验证,确保引用的信息来源可靠。 记忆模块的升级,本质上是在这三层之间重新划清边界,并把最难调的工作记忆管理从固定流程变成可替换的策略。先看看旧版本在长期记忆这一层的做法,他以文件为真元,把记忆写进可读的文件集合,再用缩影层做加速。 这个设计有几个关键点,文件真元,让记忆可读可改、可迁移,你可以直接打开文件查看,甚至手动编辑所影成,让精确命中和语意相似都可用。支持关键词解锁和向量解锁。对外提供两类工具,先用记忆解锁工具做召回定位, 返回少量后选片段与定位信息,再用精读工具按定位读取小段内容,避免把大段文本直接塞进上下文。两段式工具,让上下文注入变成先找再读的收空动作, 能显著降低上下文膨胀与误注入风险。这一层的工程设计是合理的,但旧版本真正的难点在工作记忆。 随着绘画变长,消息越来越多,系统就要做清洗、校验、截断再再一出时触发压缩。问题在于,这些策略是内置的固定流水线,你能调参数,但很难替换成另一种上下文管理思路。 牌账时经常出现三类模糊,第一,模型忘了某个信息是解锁没招回,还是被截断压没了,根本无法区分。第二,压缩载药质量不好,是压缩策略本身的问题,还是输入装配时就已经丢三落四,难以定位。 第三,一旦你想尝试更保真的上下文管理方式,往往要改核心链路,成本高,风险大。这就是为什么要升级。 新版本的升级点就集中在把工作记忆管理做成可插拔的 context engine, 你 可以把它理解成上下文引擎, 他不负责把长期记忆写成什么格式,也不直接替代记忆解锁工具,而是只负责两件事,一是在 token 预算下装配出模型真正看到的上下文。二是在预算压力下做压缩与整理,并把过程变成可观测、可替换、可审计的策略。这套引擎用生命周期把责任切开。 boostrap 用于绘画启动时从既有记录出场。 ingest 或 ingest batch 用于把新增消息写入引擎的存储。 assemble 是 最关键的, 它拿到当前消息集合和 token 预算,决定保留哪些顺序,怎样是否重写成更短的等价表达。 compact 是 压缩策略,入口输出压缩原数据, after turn, 在 每轮结束后收敛状态。你会发现这里有一个非常重要的原理,转变 读写分离加预算驱动。写入阶段追求完整与可追溯,保留所有原始信息,不做删减,确保可审计。装配阶段追求为推理配餐,在 token 预算的约束下,精选最相关的内容,按最优顺序排列,让模型看到最好的输入。 压缩阶段追求把取舍显示化并可复盘。压缩不是黑箱,而是有明确策略,有记录、可追溯的透明过程。各阶段职责边界清晰,互不干扰,这就是新版本记忆架构更清晰的根源。这种设计让记忆管理真正变成了可控的工程系统。 接下来我们对比新旧版本。第一,扩展性。旧版换上下文,策略要改核心流水线。新版把策略收敛到 context engine 叉槽,通过配置就能替换引擎, 从改核心变成换插件,风险和回滚成本大幅下降。第二,边界更清楚。新版把 assemble 和 compact 变成标准接口,解锁装配、压缩各司其职,排障时能明确判断问题出在哪个环节。第三,可观测性显著增强。 新版在压缩前后会发出标准事件、携带消息数、 token 估算等指标,还支持钩子回调。旧版压缩向黑箱手术,新版向有麻醉记录,术前术后指标还能接入监护仪。 第四,可控性更强。新版把压缩后需要回填的关键段落做成可配置,还会把日期占位符提换成真实日期,避免模型频训练记忆猜测。 第五,多智能体知识更强。新版有统一网关和请求级作用,欲降低病发串化风险。最后我们用一句话总结新版本优势,旧版本的长期记忆解锁已经解决了,找得到。新版本通过 context engine 把放得近、放得对、压得稳,可追踪系统化了, 它带来的不是某个工具更强,而是记忆系统在扩展性、可观测性、可控性和多智能体一致性上的整体升级, 这才是你要强调的核心价值。记忆管理从模糊的经验积累变成了可控的工程实践。每一次压缩都有记录可查,每一次装配都有策略可依, 每一次故障都有边界可定位。谢谢大家!新版本通过 contact center 实现了读写分离、标准接口和透明压缩,让记忆系统在扩展性、可观测性、可控性和多智能体一致性上整体升级,让记忆管理更可控、更可观测。 这就是 openclaw 记忆架构升级的意义。我这有二零二六年最新 ai 大 模型应用和 ai 编程资料,以及详细 ai 全站架构进阶路线图,需要可以领一下。
粉丝1237获赞4104

你可能已经安装了 openclaw 大 龙虾,但你的使用方法可能一直都是错的。今天我们来盘一盘四大常见 openclaw 的 误区。第一是 openclaw 需要一个单独的机器去配置安装,实际上根本不需要。你平时正常用的电脑,不管是 windows 还是 mac 都是可以部署的。 而且创始人 peter steinberg 做 opencloud 的 初衷就是想让他和你已有的电脑里面的文件发生交互,以至于他可以帮你做更多的事情,了解你的工作流程和内容。如果你单独找一个新的机子,那他没有任何可以参考的内容,也无法很好的融入到你现在的工作习惯、方式和流程中。第二, opencloud 需要二十四小时都在运行,当然也是错的, 因为 opencloud 能力很强,很多任务都可以在几分钟之内就能完成,除非你是有一些定时去发生的任务,那带来的结果就是投份费用会很高,估计你都支付不起, 所以开二十四小时并不是正确的用法。第三,需要实时更新。答案是错的,因为按照现在的更新频率,每一两天 oppo nano 就 有一个大的版本的更新,每次更新之后可能会对之前的失费产生影响,导致你更新之后没办法马上就能起用。我的建议是,只要你的版本和最新的版本是在十天之内,就没有必要去更新, 你用的顺手,用的好就可以一直去用。第四,需要部署在云端。其实这个和第一条是一样的,如果你把 oppo nano 部署在云端,其实和其他的聊天机器人没有任何区别,浪费了真正 oppo nano 的 核心功能。 最后再送一条误区,就是大家觉得 oppo colo 很 危险,会暴露你的隐私信息,操作不当会让你的电脑宕机,这个也是一个误区,尤其是现在几十个版本更新之后, oppo colo 已经弥补了一开始明显的安全漏洞,只要你正确操作,而且下载安全的 skills, 他 就不会产生这样的问题。我们工具小组一百多人在用 oppo colo, 没有听到谁说因为用了 oppo colo 导致自己的信息泄露或者宕机反病的事情。如果你对大龙虾 oppo colo 也感兴趣,想要系统学习,我们正好在工具小组里面提供这样的课程。如果你感兴趣,可以看视频主页介绍,第一行会有专人给你提供更多的信息和介绍。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

大家最近是不是都在养大龙虾啊?就连马化腾他都说他没想到这个龙虾现在这么火。但是很多人现在没有意识到一个严重的问题,就是我们在养龙虾的同时,其实在把我们最隐私以前大数据根本无法触达的超级私有数据 喂给大摩西。所以 open 这个龙虾的出现很有可能会大大加速 agi 的 进程,就是超级通用人工智能的实现, 同时还让中国的大模型能力大幅度的提升。宏哥来给大家分析一下核心的原因,以前的这些大模型他只能抓公网的数据,但是现在基本上全世界的公网数据 已经被大模型抓完了,已经用完了,而 openclip 就 撕开了这个私有数据的口子,大家能理解吗? 你在养龙虾的同时,你就把你最私有的数据提供给他,同时还把你的整套的专业的解决方案, 把这个思路,把这个经验交给他,你再让他帮我们做一整套的专业任务解决方案的同时,其实你就在把你的最私有的数据,他在工网上无法拿到的数据,还有你在这个专业领域的经验,你再交给他,这样就加速了 ai 的 进化,补足了人工智能最后的短板。 我不知道大家知不知道以前大模型公司,这些 ai 公司邀请一些专业领域的专家去给他们做一天的这个工作流程,专业任务一天的薪水大概是一千美元以上, 相当于我们现在就在免费帮这些大模型公司来调价大模型,而且这个用户数量级现在巨大无比是吧? 全世界每天可能有几百万的用户在训练他,而且给他的都是以前他拿不到的数据。举个我的例子,我会把我的股票的账户给他, 把我的历史交易记录喂给他,把我的方法论,我认为有效的股票策略再喂给他。这是大模型公司以前拿不到的数据,私有的包括企业的很多数据, 相当于说我们现在补足了大模型公司最后的一个短板。我明显的发现什么,最近我的大模型能力,整个我调用的大模型 api 的 能力有巨大的提升, 我估计可能就是这些大模型公司,最近他们获得了更多的私有数据和更多的专业领域的技能的训练。而且因为现在国产的大模型要比外面便宜了十多倍,所以全世界的中小开发商大量的使用国产的大模型,确实便宜太多了, 所以这让国内的大模型缩小了和全球最顶级的大模型之间的能力差距。你们以后就会发现,反正我现在使用国内的大模型,整个的体验大大的提升,没有什么问题了。 我从春节到现在不到一个月的时间,你们猜猜我烧了多少透克,我用了十亿多的透克,而且我专门买了一台高配的 mac mini, 我熬了几十个夜,踩了无数坑。我现在的这个龙虾已经成长成一个无所不能,超级无敌的大龙虾,他能够帮我完成几乎所有的工作,只是现在还需要有很多细节的优化, 他现在有这个各方面的能力,但是他的能力还不够出众,这是需要持续优化的,陆陆续续的宏哥会把我的这些踩过的坑,我的经验教训慢慢的分享给大家,关注我最近的直播,我以后慢慢的在直播里面会讲一些细节, 真的太痛苦了,兄弟们,坑太多了,尤其是本地部署,如果你不太懂,千万不要轻易的玩本地部署。

今天给大家介绍一个方法,就是让 openclaw 当一个调度员,去指挥多个 ai 编程工具,帮你完成编程任务。 那为什么这么做呢?我今天遇到一个问题,就是我让我的研发的 agent 去帮我写代码的时候,发现他很长时间没有回复我,我看代码也没有提交,我就问他,我说你根本就没有提交代码,是任务超时了吗?你把原因告诉我。 最后他给我的回复确实是超时了,因为 openclock 他的机制,如果说一个任务时间过长的话,他有可能被杀掉,所以任务就 终止了,而且他甚至他都不会主动告诉你。那怎么去解决呢?现在有一种办法,就是用一个叫 t m u x 的工具来解决,这是个什么东西呢?你就可以理解,它就是一个不会被关掉的,在后台运行的这么一个程序窗口, 那在这个窗口当中你去调用 cloud code 或者 codex, 就是 这个逻辑。那让 chat gpt 给大家解释一下,就这么一个结构,我们 让 openclaw 去调度在 t m u x 当中的各个编程工具, cloud code x, gemini 都可以,说白了你就把它当一个人去用,它打开了多个命令行工具去写代码,就这么一个道理。 那这有个什么好处呢?第一, openclaw 的 这个上下文你就可以随时跟他交流了,因为他只是一个调度员,他不是原来那个写代码的人。 像之前如果他又要写代码,又要跟你回复,他要停下他代码的工作才能回复你,或者他在写代码的时候,他就没有办法回复你,因为他的绘画是一直在持续的。那怎么去用?也很简单,就直接告诉他让去安装 t m u x, 并且安装这些命令行工具,然后让他把授权的链接发给你,你在本地授权之后把 code 给他就可以了。 那你也可以让他定时的去检查这些命令行工作的进度,汇报给你,并且最后让他去审一下修改的代码,如果他们有任何的讨论, 让他们自己处理,处理完讨论一致之后把结果汇报给你。所以这是用 t m u x 去解决 这种长时间的编程任务的一种办法。那给大家看一下,目前我有个任务还在进行当中,那在这里你就可以看到他在改哪些代码,他都会告诉你。好,大家可以去试试。

大家用 open curl 的 时候有没有发现一个问题,就是它只能操纵你的浏览器,只能给你的飞出这些发消息,它没办法进行这种 ui 界面的操作。 今天给大家分享这个项目 torx, 它可以进行 ui 界面操作,甚至可以直接打开你的微信给你发消息,也可以进行其他的操作。因为我们很多操作,特别是在国内,它是不那么 open 的, 所以说你很多东西其实联通不了 这个项目就能让你连通,它可以直接给你放在你的这个 torx 里面当成 skills, 或者当叫做是一个小的子智能体,你可以把任务下发给这个子智能体,让它去完成一些你之前只能在浏览器和 api 无法完成的一个任务。 我们来详细看一下这个项目哈,其实这个项目出来已经很久了,只不过最近他们发了这样一个技能,可以通过 open curl 去调用它。这个其实是一个紫智能体,我们来看一下它的一些操作,比如说预定酒店、机票、 uber 还有查东西,这些都是通过这种 ui 界面进行操作的,它并不是像它自带的这个浏览器,它是使用 api 或者说使用 playwrite 这种方式来操作的,这个是纯的这个 ui 界面操作, 我也找过这个 windows 呃的一个呃 skills, 但是它非常的不准,我还是用的是 g p t 的 这个模型,都非常的不准,其实很大的原因是它的 m c p 有 问题,或者那个 skills 有 问题, 所以说你直接用这个就是可以的。我下一个视频给大家评测一下吧,它的效果都还是蛮不错的,比如说这个是最初的,它也有一个模型,可以在它的官网去申请,当然你用在 g p t g p t 的 模型估计比它这个还要好一点。 就 kimi、 kimi 这些模型,它的多模态能力都还是非常不错的,而且它有这种 coding plan 的 呃,套餐,它还是很划算的,可能比它的这个还要划算一点,但是它这个模型可能比较小,这个速度会稍微高一点。

兄弟们,就在刚刚,我发现了目前为止可能是最简单的 open 库的安装方式,只需要一分钟,不仅同时适用于 windows 系统还有 mac 系统,而且可以直接部署到你的本地。最关键的是,它优化了原版中间一些做的好的技能还有插件,看完这篇,立刻帮你省下四百九十九块钱的安装费,保证任何人都能最快速度用上属于你自己的手相。 这个呢,就是自古刚刚发布的 autocool, 它跟之前的小龙虾安装最大的不同就是你再也不需要担心环境的部署了,也不需要输入命令行,整个过程就像你安装一个 app 一 样的简单还有快捷。你只要打开它们的官网,下载安装包,然后去登录账号,弹出这个界面,就输入真的是 完全安装好了。如果你还想部署到飞书上使用,其实也特别的简单。我用我这里的 mac 来举例子, mac 和 windows 稍微有个明显的不同,那 那么 mac 呢?你点击链接飞书以后,它会自动弹出一个弹窗,开始自动配置。你只需要扫完飞书,登录二维码,剩下的全部交给 ai, 它全部会自动化帮你都配置完成, 你就会看到目前为止我可能认为是最丝滑的 ai 操作了。还需要什么教程吗?一键安装不响吗?而 windows 系统呢,就会稍微复杂一点点,需要按着操作文档一步一步来,因为这方面还没有设备的特别好,这一块你们跟着做也完全没有问题,我就不再敷。 那除了配置过程呢?小龙虾 tommy 的 消耗量也是劝退大部分人的一个主要因素。这一次制服他做了两个优化,第一个是呢,用了一个龙虾的专属模型,叫 pony r four two, 这是 一个匿名的模型,还没有正式发布,就是先上来做一个测试。它的任务的成功率和它的调度其实都是有一些优化的,而 tommy 的 消耗量是有了一些甩减的。另一个呢,就是他们做了一个专门的页面,贴心的帮你把用量统计给显示出来,你再也不用担心他到底花了多少。 当然,如果你想填自己的 a p i k, 你 用你自己的模型也完全没有问题。 autocool 支持全世界所有的 a p i 模 型。那除此之外呢,还有一个不错的优化点,就是 autocool 在 内制了原本小龙虾技能包的同时呢,还对这个核心的 skill 进行了一些优化。比如说呢, to research 这个 skill 优化后,它能解锁到的内容无论是质量还是新鲜度都比原本的 open go 强了不少。还有一个他们优化的比较好的 是一个操作你浏览器的,基本上你涉及到一些网页的操作的模拟点击都需要这个东西。相比 open code, 它原有自带的 for use, 它其实是能力强的非常多,而且非常适配国内的互联网生态,懂的都懂。 那讲真的,智普这个 open code 呢,是我目前用过最方便的一个小龙虾了,技术其实从来不缺牛的,缺的就是如何让普通人真的用得上 open code 走到了这一步。你至于以后能走多远呢?说实话我也不知道,但就现在这个版本,我觉得它已经值得你花一分钟的时间去装一下,来真正的去亲身体验一下 agent 的 魅力。

嘿,你是不是觉得自己的 ai 助手什么都想干,结果却什么都干不好?别担心,今天咱们就来彻底解决这个问题,我 会手把手教你怎么用 opencore, 把一个啥都懂一点的 ai 小 白直接升级成一个各司其职的专家团队,而且一切都可以在 whatsapp 上实现,我们马上开始。 你肯定遇到过这种尴尬情况吧,你正让 ai 助手帮你润色一份严肃的工作报告,结果他突然跳出来提醒你,记得给晚上的番茄炒蛋加点糖。 哎,这就是让一个 ai 包揽所有活的下场,工作和生活乱成一锅粥,效率吗?可想而知,这可不是简单的让你多开一个机器人喽,这完全是两个概念, 他能让你创造出好几个拥有独立大脑、独立记忆的 ai 专家,个个管利,他绝对不会不相干的。所以我们说的这个多技能提示到底是个啥?其实说白了就是在同一个 oppo 的 大背景下,让好几个完全。 你可以想象一下,他们就像住在一栋公寓楼里,每个人都有自己的房间,自己的工作,平时各忙各的,互不打扰。那么要实现这种效果,主要靠三大植入。 首先呢是隔离性,这个很重要,他保证每个智能体都有自己独立的小房间,工作文件和购物清单绝对不会放错地方。其次是并行性,就是说他们可以同时干活,就像一个配合默契的团队,你跟这个聊着,那个也能同时响应别人。 最后也是最酷的一点就是灵活性,你可以给每个成员定制完全不同的角色,比如一个是贴心的生活管家。 好了,说了这么多理论,咱们来点实际的,今天咱们的小目标很简单,也很实用,我们就创建一个叫 home 的 生活管家,用你的个人 word 账号来处理家里的杂事,然后再创建一个叫 word 的 工作助理,用另一个企业账号来处理工作, 一个管生活,一个管工作,分得清清楚楚,对吧?好,那咱们现在就正式开始着手吧。 第一步也是打地基的一步,就是给先对我们的 ai 团队成员创建他们各自独立的工作空间,说白了就是先给他们一人一个家, 操作超级简单,就是在你的终端里敲两条命令, openclaw agents at home, 然后是 openclaw agents at work, 就这么两下,系统就会自动帮他们建立好独立的文件夹,用来存放各自的配置和数据。这样一来,我们前面提到的第一个支柱隔离性就实现了。 ok, 家安好了,接下来就是整个设置里最最核心的一步了,我们需要修改一个配置文件,就像填写一份花名册一样,正式的定义我们团队有谁,并且把每个成员和他们专用的 whatsapp 账户给对应起来。 我们会用到一个很强大的命令,叫 getaway, 点 config, 点 patch。 你 别看它名字长,其实可以把它理解成是给系统的主配置文件打一个补丁, 也就是说我们不去动整个复杂的原始文件,而是很精准的告诉系统,嘿,就在这几个地方帮我更新一下信息, 我们拆开看看,一点都不复杂。我们先看第一步, agent start list。 这几行代码的作用,说白了就是向 open house 系统正式报备一下,你看,我们在这里列出了 home 和 work, 这就 等于在快速行动。喂,注意啦,我的团队现在正是有这样一名成员了,接下来我们要开始 并且给它们分别取名叫 personal 和 business。 这就像是给我们的两个团队成员一人发了一部专用的工作手机,每部手机都有自己独立的号码和身份信息。 好,现在最关键的一步来了,这个 bindings 部分就是一条条的绑定规则,它就像是把前面我们定义的所有东西用线串起来。你看这行 regiment home agent personal account, 意思再明白不过了。把 home 这个智能体跟 personal 这个 whatsapp 账户绑在一起,同理,我们把 work 和币子也绑上,这样一来,谁用哪个手机,这个关系就彻底定下了。 好了,配置文件的蓝图我们已经画好了,现在就剩最后一步,就是把我们虚拟定义的这两个 whatsapp 账户跟我们手里的真手机配对起来,也就是我们最熟悉的。扫个二维码,把这条沟通线路给正式了。 这里的操作也一样,非常直接,我们先运行 open c o w whatsapp payer personal, 端端里会出现一个二维码, 你用准备好的个人手机去扫一下,然后再运行 oppo c o w vivo caredes, 用另一个工作手机去扫第二个二维码。记住啊,一个账号扫一次就别搞混了。 搞定,恭喜你到这里,所有设置就全部完成了。现在你拥有了两个功能完备而且完全独立的 ai 智能体,它们已经整装待发, 随时可以并行处理你的各种任务了。不信你看,这就是咱们的最终成果。左边我正跟 home 智能体聊购物清单的事,与此同时,在右边我跟 work 智能体讨论下午的工作日程。两个对话完全独立上下玩,一点都不会搞混, 这不就是我们最开始想要的那个效果吗?是不是超酷?好,让我们来快速的回顾一下。其实整个过程就三步,很简单,第一,用 app 命令给每个智能体安个家,实现隔离。第二,用 patch 命令划出蓝图,定义好谁是谁,谁用哪个号。 第三,用 pair 命令扫码配对。通过这三步,我们就得到了一个张重运行步骤,绝不串线的。 好了,现在你已经掌握了打造 ai 团队的秘诀,那么除了简单的工作和生活,你还能想到什么更有意思的角色呢?比如说,一个专门帮你分析数据的数据分析师,一个语言口语的伙 伴?还是一个能随时给你不敏感的创意大师?发挥你的想象力吧!

这几天我真的太激动了,我直接用 opencloud 跑通了整套电商业务,实测下来落地性很超强。现在 ai 早就不是只会聊天、做图、剪视频了,它真的能跑通完整的业务流程。 我已经用 ai 实现了订单的自动处理,发货、售后、退货全流程自动化,我现在拍视频的这个时间, ai 还在我后台帮我跑业务,真的是太爽了哈,那 opencloud 呢,是真的好用,但唯一缺点呢,就是太费掏坑了, 三句话其实几十万的套餐就没了,其实这个可以说非常心疼哈,那我们那要想省钱的话,其实可以用这个欧拉玛来搭私有模型,虽然硬件呢还是要投入的,但对公司来说,这点费用啊,性价比还是很高的。 后面我准备把整套 ai 团队角色呢给它搭建完整了,包括这个运营负责人呢,选品美工、短视频营, ai 客服, 再把他们这个工作流程呢,每天的收益我准备全部公开出来。其实我一直想用 ai 去跑通电商的工作流程,这次真的是可落地了,那么大家可以期待一下。

所谓汇报,总是被导师吐槽逻辑不够清晰,内容不够深入,明明已经很尽力了,那能怎么办?光是查他们的,找最新的临床数据,整理好文献,再去标记我们的引用,就已经耗掉了大半的精力。组会上做汇报,还得要做 ppt 排版,调我们的图标,内容要有层次,表格要美观,真的太费时间。我一直在用这款生命科学专属 ai, no 亚 ai 不仅可以从 powerpad 上面扒这些真实可以查到的文件,它还可以帮你优化 prompt, 帮你全面的查找你想要研究的内容。它还可以生成一份完整的附带真实文献的研究报告。现在还能一键把科学问题做成逻辑清晰的 ppt。 研究完科学问题,直接在左下角点灯,呀呀的生成换灯片,它就会自动梳理报告里的逻辑还有内容, 帮你排行榜,直接输出。一份能够上台汇报的 ppt, 里边不仅有动物模型的具体比较,还有待 p 值的状图,给你展示干预后的效果,该基因的意志,还有促进方向以及对各种细胞的影响,全都分层给你讲透。更厉害的是,它还会层层递进,可以帮你梳理出信号通路的关键基因,再到生物功能的完整关系。 同时它还可以帮你区分应用文献的证据强弱,从现有研究中总结并找出不足,还能够为你开拓新的研究思路。以前想把一个问题研究透,讲清楚真是难到崩溃,现在用诺亚 ai 从查文献、做报告,再做出 ppt, 不 到半个小时全都搞定!证明科学的科研党,这才是真正懂科研的 ai!

大家好,欢迎来到科技熊,接下来这一期的话,我给大家分享 oppo club 相关的一些知识。今天的话不给大家讲部署了,因为部署的话网上有好多教程,大家可以自行去直接搜索去部署就可以了,给大家分享 oppo club 部署完成以后的话,我们该如何去使用,我们来看第一步该怎么做。 我们普通人部署完 openclaw 以后的话,肯定都会有一个通讯端,不管你是用 qq 呀,或者是用其他的都是可以的,当然我用的是一个飞书,我们打开以后给大家看一下界面,部署完以后的话,我们肯定会部署的一个飞书机器人,也就是 openclaw 这个机器人。当我们部署完以后的话,先测试一下,打开以后的话直接输入一个测试 发给你好就可以了,测试看一下这个机型能不能正常去给你回复啊,如果它能够正常回复说明的话就已经部署成功了。但像第一步的话,我们刚部署完这个 openclaw 以后的话,它基本的功能是非常少的,比如说它可以帮你删除电 脑上的文件呀,或者是直接建立文件夹,这些简单的命令都可以操作,像一些复杂的命令呢,是无法操作的。所以说给大家分享第一步的话,我们是需要给它安装技能,也就是安装 skills。 第一步的话,先给这个 open club 安装一个呃 fan 的 叫 fan skills 这个技能,安装以后的话,它就可以自动的帮你安装所有的技能了,我来教大家如何去操作。 首先的话我们需要打开龙虾技能的这个安装的一个官网啊,然后的话点击这个 skills, 也就是它的技能,我们点击进入,这里面有很多很多,大家可以看到有两万多个技能,但是我们首先要安装什么呢?我们刚部署完以后,首先要安装的技能就是这个,大家可以看一下 fat skill, 就是 查找查找技能,为什么安装这个查找技能呢?因为安装以后的话,你只要想安装技能,什么技能只要跟那个龙虾说一下,然后的话它自动就从这里边给你搜索了,所以说这个功能是必须要装的, 我们怎么装这个技能呢?因为现在的话服务器可能是比较拥堵,你在就是通过代码装是无法装的,我们直接通过手动去安装,我们直接点这个 skill 技能,点以后的话直接把它下载一下,下载到桌面上, 当我们下载完成以后的话,点击右键然后复制,因为之之后的话我们需要把它解压呢,先点一下复制,然后找到这个 skill 的 根文件夹, 当我们把它复制到文件夹以后的话,直接给您龙虾发一个。发一个什么呢?就是帮我安装并学习这个技能,然后把这个路径呢直接复制一下,大家可以看一下,直接复制这里边就可以了,这样的话他就可以直接按照路径去学习这个技能了,学好以后的话会提示 file kills fed skills skill 已经安装并学习完成。使用场景,比如说帮我找一个,找一个什么什么技能,有没有这样的技能可以做,你只要通过这种命令去问他以后的话他就可以给你自动安装任何的 skill 了,可以说非常的方便,你学会了吗?今天给大家分享这一点,安装 fed skill。

敢说如果没有自己详细看过这个 skills 的 人,绝对没有办法养好小龙虾。这个 skills 它是自我进化的一个 skills, 这个是现在目前所有 skills 里面下载量最多的一个, 我们今天来详细看一下这个 skills 它是怎么样构建的,你就会对整个 open curl 和它的一些配置能更加的理解。 它是一个纯英文呢,我就直接让 cloud code 给我做了一下翻译,当然大家如果用其他的也可以,甚至你让它自己把这个逐句翻译了之后,给你保存在一个文件夹里面都是可以的。 ok, 我 们就来看一下它的这个是怎么样的一个东西。 首先它的这个架构就是非常标准的 skills 的 一个架构,有一个 skills 的 文件 markdown, 然后这个原数据就是它的一些版本号啊这些,这个是它自己自带的一个文件夹,其他的这个东西就是它的一些资源。然后 hook 就是 它的可以理解成它的脚本,它会把这个钩子 去放在你的 open curl 的 配置下面。嗯,当 open curl 它在回答一些内容或者调用什么模式,或者告诉你这个任务完成的时候,这个钩子就会去检测这个内容,检测了这个内容,它就会去调用某一些脚本,或者说自动地把一些提示词放到这个 open curl 里面,让 open curl 再去跑一遍它的一个流程, 重点就是让 open curl 去思考一下刚才的任务到底需不需要去进化到它的记忆里面,去进化到一个新的 skills 里面,或者去更新新的 skills。 它主要的功能是这个,这个就是它参考的一些文档,比如说势利啊,比如说这个后壳应该怎么样安装,还有这个的一些知识,这个 script 就是 它的具体的脚本了, 这个脚本基本上就是它后壳的脚本,钩子的脚本。 ok, 我 们来一点一点的看。首先是看这个 skills, 这个 skills 就 标准的 skills 的 格式,首先是它的原数据,这个东西会直接加载到大模型和 opencorp 它的一个上下文中,它才知道什么时候需要用这个 skills, 如果它需要用,它就会自己去看这个东西, 但是这也是一个比较坑的点,你稍微模型差一点的,它根本就不会去看这个东西,因为它会聚焦去完成你的任务,它的注意力是没有那么多的。所以说 你通常如果说想要去进化的时候,你去直接告诉他显示的命令,他让他去完成,去使用这个 skills, 让他去调用这个 skills, 然后下面就是如果他需要调用的时候,他就会去查看下面的东西。 ok, 我 们来一点一点的看这个 skills 的 描述,就是什么样情况下会使用它。其实就是让 open curl 让模型知道什么样的一些特征的时候, 就要使用这个 skills 了,比如说命令操作失败,用户纠正了,然后用户请求不存在的功能, a p i o 失败,其实就是捕获一些关键词,关键的意图的时候,它就会去激活它,就是让模型知道什么时候应该激活这个 skills。 我们来看一下这个就是它的一个 markdown 格式的文档,首先是它是一个什么东西,然后它是一个持续改进的什么内容,参考的信息,它是怎么样存放的?可以看到它把这个地图首先放在了最前面,它是怎么样安装在这个 open curl 里面? 呃,这个我感觉有点广告的嫌疑,你已经安装了之后,还还放在这个 skills 里面,按理来说它应该用一个 readme 会更好一点,这个会造成模型的这个上下文是不需要的, 然后它会告诉这个模型这个 open curl 的 一些信息。 open curl 的 这种工作区的内容就是它的 worker space 这儿它是什么样的一个框架,主要的个这些文件到底是什么格式,它进行更新的时候,它就可以更新这些文件,然后它就能了解到 open curl 它是一个什么样的东西。 它主要分成了三个部分,它会创建了这个 skills 的 时候,它会把这个文件直接复制到哦你的 workspace 里面去。直接会有这个文件夹,其实就是这个 skills, 它去维护这个文件夹里面主要的内容, 首先是学习的一些信息,再就是错误的一些信息,然后就是调用工具的一些信息。事实功能可以看到它就说首先你应该去创建这个文件, 然后去说一下直接复制过去,然后提升的目标是为了让你的一些工作技能可以沉淀到这里面去。 这三个其实就是 open curl 的 一些核心的配置了,可以看到 open curl 里面的核心的配置,这个是属于它自己的一些配置,其实这都是它去了解这个 open curl 是 一些什么东西,怎么样配置的触手化配置这个部分就是有用的,就是下载了这个 skills 的 时候,它应该按照这个过程,先把这个 skills, 把它的这个 open group workspace 的 一些东西先配置了来,可以看到,然后可选这个起用钩子。为什么必须要起用这个钩子?虽然它说是可选,因为我们用的模型往往都不是最强大的模型,比如说 opus, 它对你的指令它是会更加清晰的。但是我们用的这些稍微小一点的模型,像国内的 kimi, k 二点五这些,你不显示地去指挥它去用哪个 skills, 它大概率是不会用的,它的指令遵循是没办法注意到这么多信息的。所以说你必须要起用钩子, 钩子他就会强制的让这个 open curl 去完成某一个功能的时候,他会去思考我到底需不需要去调用这个 skills。 这个就是一个比较大的坑,如果我们是用国内的这种稍微小一点的模型,稍微不好一点的模型, 那么你钩子是必须要起用的,要不然你这个装了之后基本上就感觉没装一样。我相信很多人都已经装了,但是如果你没有仔细去读的话,大概率是没有起用这个钩子的, ok。 然后他也说了一下通用的其他配置,在其他配置里面也可以去创建,像 cloud code index 也可以去创建,这个东西就不太适合这个内容了,其实可以把这些东西删掉,因为他会影响他的上下文。然后就是怎么样去追加你的信息。 首先是学习到的内容应该追加到这个学习的 markdown 的 文件里面,他的格式是什么样的,然后是什么样的东西? 然后就是错误的信息,它的格式是什么样的,是什么样错误的信息,应该怎么样格式去把它说出来,然后它的时间戳这些都要保存下来,但是我是没看到它这个时间是从哪里获取啊?如果说时间是一直放在这个 open curl 里面的话,会自动更新的话,那是不太好的,还会严重的影响这个 k v k h 的 命中率。 还有就是这个功能请求的 markdown 文件应该放些什么东西,然后它的格式是什么,它也说明了一下,然后 id 的 生成应该怎么样放 id, 其实这些都是一些案例事例, free shot 它应该怎么样放在哪个里面?这儿也有 可以放到这种项目记忆的,当一些错误的记忆啊,这种学习的记忆可以广泛使用,而且使用了非常多次的时候,它可以把它直接放在这种文件夹下面。这种比如说 cloud code, 比如说这个 so tools, 比如说这个 so 哈,它是一直会放在 这个 open curl 的 上下文里面的模型上下文里面的,它会全量加载,不像 skills 的 这个文件,它只会加载最前面的那几行,这个东西它是会全量加载的,所以说如果说非常需要经常用的这种规则,就可以直接加在这里面,这个就是他说当一个不是一次性修复,可以把它保存到永久的项目记忆中,就是这个东西。 还有它应该怎么样去检测这些关键词什么时候应该写在什么地方,什么时候它是功能请求,什么时候应该学习,什么时候是一些错误的, 然后优先级的一些指南,这个就是它应该怎么样去放,这个倒没有特别重要,就是它要去做提升的时候应该怎么样写,怎么样去排优先级啊这些,然后最佳实践这些 还可以进行 get, 可以 把它提交上去。其实最最重要的,我个人认为就是这个 hook, 大家一定要把它配置上。如果 你不是用的 opus, 四点六这些模型,一定要把它配置上,就算是用的 opus, 你 也最好把它配置上,因为现在很多这种厂商它都有这种会员套餐,比如说一百块钱,然后一个月基本上你是用不完它的托管的,所以说大家一定要配置这个东西, 这个东西只会多消耗你的托管,但是它能让你的体验感和这个 cf 提升会更加的强,要不然你这个东西装了跟没装一样,因为我们的模型本身不太好。 ok, 那 我们来看一下它其他的一些内容,比如说这个脚本吧,这个就是钩子的一些脚本怎么样去配置,然后它会把这种信息重新发回给这个 open curl, 就是 让 open curl 显示地去说明一下,你需不需要去记录,需不需要去更新一下这个 skills, 然后这个其实大概也是这样,然后这些就是参考的一些资料,比如说怎么样去做修改,然后工作区的结构,比如说 open curl 的 一些知识,工作区的结构应该怎么样去修改,然后有什么特点,有什么规则, 然后这个是钩子应该怎么样去做配置,可以看到应该怎么样去做配置,这是 cloud code 的, 它之前是因为这个开发者,它是一个 cloud code 的 自我提升的一个 skills, 它出来了之后再把它换成的这个 open curl, 它有些是没有改的, 但是大差不差,它只是这种项目跟目录不一样,其实它的逻辑都是一样的。然后这个就是后壳的一些配置,可以看到它 open 或者 cloud code 还有 codex 这种配置都有。 ok, 还有就是 example 了, example 就是 你什么情况下应该去放什么样的内容,以及这个内容 markdown 的 文件应该放什么样的东西,然后它的一些势例, ok, 这也是后壳的一些东西。后,后壳的一些 markdown 的 东西,它这个也跟这个 skills 的 框架一样,我不知道它是因为要先把这个东西发给向后壳执行的时候,它会先把这个东西发给这个 open curl, 可能是这样的,然后后壳的 这个就不是参考的,这是一些资源,它可以直接复制这个技能的一些模板,模板资源,然后学习的这个条目应该直接放在这里面, 应该是什么样的一个格式,它可以直接复制过去,然后我再去做一些修改,然后这个东西就没有了。这个东西它就是让 open curl 把这个东西直接复制到它的 workspace。 总结来讲,这个 skills 就是 专门用于提升的,提升和进化的,只有你真正看了这些 skills 了之后,你才能对这个 o workspace 有 一个比较好的认知。 但是我个人认为哈,我们的后壳甚至不要用它的这种方式,我们可以直接创一个子质人体后壳来调用这个子质人体去更新它的记忆,我觉得这样更加的好,但是这样肯定更消耗头肯,但是如果说按照他这种后后壳再发给 open curl 的 方式的话,它会破坏它的上下文结构, 它会导致上下文的长度会很快就满了,所以说你的这种执行任务的效果就会大打折扣。当 我们买了这种稍微大一点的这种会员套餐的时候,可以建议使用这种子智能体的方式,你专门创一个子智能体来更新记忆,更新这种学习的经验,然后哦后壳跟这个子智能体进行绑定上, ok, 这就是今天的一个分。