一夜突讲清楚 ai 硬核技术,很多朋友在问, openclock 三点七版本大更新搞出的这个 context engine 到底是个啥?是不是官方又出了个新的记忆功能? 错,官方这次直接把桌子给掀了。大家看上面的结论, context engine 不是 一个新功能,而是官方把记忆处理这件事从底层固定代码变成了一套可替换的插件接口,为什么这么干? 看左边,以前 open class 的 记忆逻辑是写死在底层的,对话一多就直接粗暴截断, ai 动不动就是 e, 你 要是不爽想改对不起只能去改底层原码,非常折腾。所以到了三点七版本,看中间, 官方开放了七个生命周期接口,把记忆处理彻底解偶了。如果你什么都不配,它会默认给一个兜底方案,跟你以前用的一模一样。但如果你觉得官方的方案太差劲,看右边,你现在只需要在配置文件里敲一行代码,不用改任何原码, 就能直接给大模型换上过目不忘的记忆外挂,还不懂看下面这个通俗类比,这就跟 openclaw 现在指定接口规矩, 至于你是用官方的默认实现,还是用社区里最火的 lsl 无损记忆插件,完全由你自己决定。 所以总结成一句话, context engine 的 价值不是官方又给你加了一个记忆功能,而是把记忆怎么做这件事彻底开放给了生态,不满意官方方案直接拔掉换一个, 这就是顶级架构的魅力。把这张图存下来,下期一页图,我们讲讲三月十三日版本是怎么把浏览器接管给补齐的。点个关注不迷路。
粉丝2758获赞9721

要让 openclaw 成为我们长期的合作伙伴,他一定要具备一个稳定且持久的记忆系统。那这两天我发现我在跟 openclaw 聊的上下文比较长的时候,他会遗忘我们之前提到的一些内容,比如说一些经验教训或者方法论, 那我就去找了有没有这样能够让我们的记忆搜寻更加的准确,不会遗忘的。开源项目也被我找到了,它叫 memory linuxdb pro, 那 它用到了一个向量数据库,叫 linuxdb, 你 可以理解它就是我们跟 ai 聊天历史的一个仓库,那未来当我们提到类似的内容的时候,它会从这个仓库当中帮我们精准的提取出来。 那如果不用它, openclaw 默认的记忆机制是什么呢?它会把我们的聊天历史放在一个文本文件当中, 当我们提到与之类似的内容的时候,它会通过文本匹配从这些文件当中来提取,那文本匹配相比向量匹配,它的准确率就会低很多。而这里面的 lsd 就是 一个向量数据库,它是通过向量匹配的方式来提取的, 那提取的准确度和稳定性就会高很多。所以推荐大家去安装这个开源项目, 它是真正可以让你的 openclaw 具备一个持久且稳定的记忆系统的,那安装起来也很方便。你可以把这个地址扔给 openclaw, 让它帮你安装好那需要的一些 apikey, 它也会告诉你,你对照着安装就可以了。

包火的 openclip 到底能干嘛呢?有人用它在 shopify amazon 经营个人店铺,每月成本从两千刀降至四十刀,用它在 pollymarket 上做投资赚钱。有人用它接入机器人,让机器人在家里面给主人拍 vlog, 接入无人机,用 ai 控制航拍。我给大家找到了龙虾十大超实用、超酷炫的玩法, 覆盖投资、搞钱、学习、题校、生活、娱乐等等全网最全所有玩法的参考资料,代码 skill 我 都放到这个文档里面了。 long openclo 配合 obsidian、 lotion 等工具来搭建个人知识库也非常香。如果你也跟我一样,在某食物某号上收藏了超多好内容,但收藏及吃亏从来不会回看。那现在有了 openclo, 我 但凡刷到有价值的内容,就会直接转发给我的龙虾,它 就会自动提取内容的信息,然后标签,然后存到 obsidian 知识库里面,把之前散落在各平台的收藏夹里面的内容汇总到一起, 每天早上还会按 ibooks 遗忘曲线定时推送给我回顾,真正的把收藏家给盘活了, 非常适合学习复盘。如果你平常需要看各种行业资讯、新闻热点, openclip 也很好用。比如我安装了这个视频采集 skill, 让他收集近三天有关上的热门视频,他马上就能够把相关的内容收集给到我。他还会反过来问我是否需要帮忙收藏到知识库里面, 需要的话直接加到 opc 点知识库就好了。甚至如果你是在非书这类支持文档编辑到办公软件上养下,只用这一句指令,就能够将结果直接汇总进多位表格, 譬如我就让他收集了小破站知识区近一周的热门视频,你看呢?整理到这个文档包含的作者、播放、数据分区等等关键信息,点进去都是有效的。用 open curl、 联动非书这类工具 做信息的收集整理,可以大大的提升获取信息的效率。我还做了个提成了四小时财经资讯钉盘,能直接监控想要的投资行业的最新资讯 等。打开消息的时候,今天所有重要财经信息都已经整理好了,非常好用。还有这个定时提醒推送的功能, 还非常适合搞日程规划或者备忘助手。比如我告诉他,我要在下周三开一个内部选举会,他会记住这个时间点,然后到点了会提醒我记得开会,还能主动提醒我一些双单合同要尽快处理,同的小伙伴的报销单记得归档报销等等。 如果事情太多,还能够帮我确认档期是否冲突。我还看到国外的玩家为此搭建了一个网站,用日历仪表盘的形式展现日程,一目了然。 除了搞学习,还能玩点花的。比如这位韩国开发者 david, 就 搞了一个 ai 女友, 她拥有独立的人格和记忆能力,拥有社交账号,会分享生活的瞬间,甚至还能视频通话,除了没有真人肉身,与平常的异地恋没啥区别。还有公司直接将 openclo 研发做了一款叫 anyclo 的 ai 伴侣软件,你能和她边聊天边跑项目。 hey, yumi, tell me what are you doing right now? hey, babe orbiting your anime gta build ten terminal simmering。 通过这种日常的对话来下达任务,养龙虾的过程再也不枯燥了。只是 ai 伴侣这个概念很早就有了,只不过之前人们还只会和单一模型直接对话,但 open curl 的 出现, 能将更多人性化的功能集成到一个 agent 上。看下来我真的感觉技术越来越聪明, ai 陪伴真的会越来越接近真人的感觉了。除了情感陪伴, 人们还开发出了让 openclo 进入物理空间的方式。比如这位叫 stat 的 大佬,花了几个月的时间,让他的机器人集成各种激光雷达摄像头,现在直接用 openclo 来操控这个机器人。比如给 openclo 下达巡视房子的指令, openclo 就 能够自动操纵机器人巡逻和进入你的房子。 机器人上的摄像机能够帮你记录过往几天房子里面发生的各种事情,比如说车钥匙放哪了,厨房垃圾什么时候丢的等等等等。这个机器人就像妈妈一样,看着你在家里面的一举一动, 然后给你提醒。他们甚至还在开发让 opencl 控制无人机,然后可以直接通过对话指令,让无人机跟随汽车飞行。这是不是就意味着,现在操控上千台无人机做空中表演的活动之后可 能交给 opencl 来了?不敢想象,以后战场上的无人机说不定也是 opencl 这种 ai 工具来操控了。更让我惊讶的是,在 stash 的 摄像里面,未来所有的摄像头、无人机和机器人 都能共享同一套空间信息。比如办公室外的摄像头发现来了可疑人员,系统就会自动派无人机去巡查一下,看看是不是来者不善,如果是坏人来了, 系统也会让室内的安保机器人做好应对准备。还有国内的这位网友,也将 open call 接入了摄像头,搭建了一套小狗健康检测系统,来帮他监控狗狗的睡眠状况,还能对狗狗最近的睡眠情况做分析回顾,非常适合养了宠物的人,我也打算给我家三只猫猫搭一个这种健康检测系统。 还有用龙虾来做艺人公司的,比如这个叫 vegen 的 十八岁小伙,一点编程基础都没有,但他给自己讲了十五只龙虾就成了一家赛默公司。 每只虾都有不同的角色分工,图形设计师、动觉设计师、软件研发师。晚安专写媒体管理。这个龙虾团队二十四小时不间断干活,然后做出了一款叫 vugal 的 ai 剪辑软件,当它刚成年,就挖到了第一桶金。可以说在 opencloud 执行下,以前需要一个程序员团队才能做的事情,现在已 个人也能搞定了。一人公司真的越来越多,数据显示,过去三十天内起码有一百五十家驻厂公司用 openclo 赚到了钱。还有人用 openclo 搭建了一个修必返电商运营团队,用三只龙虾帮他监控修必返的店铺后台,每三十分钟就向他汇报一次订货量、退货量 情况之类的数据,相当于有一个线上仓库管理员只是帮你监督销售情况,真的省时省力。还有这个小哥,他有一家电商品牌店铺,之前的运营是去找外包做执行,每月最快的成本要两千刀。现在他用 open curl 把成本从两千降到了四十四刀,节省了将近百分之九十八, 简直可以说是零成本了。他是这么晚的,他用 open curl 直接从 ready 等平台收集消费者喜欢的款式,做产品研究,然后再 用 opencl 生成产品图、视频,在定时的监控竞品数据,还用 opencl 来自动选品,分析广告投放效果。过去电商全流程都需要人工来做,现在一个 opencl 几乎全能搞定了。除了做产品电商,越来越多的人开始 用 opencl 做自媒体了。像我就参考了这篇文章,给我的龙虾接入了 cds 二点零模型,他就能直接在聊天框里面生成视频, 再也不用一直切换 ai 视频平台了。还有个小哥用游戏主机养虾, 他的虾每天自动生成 tiktok 轮播素材,一周左右就获得了八百万的播放量。龙虾还可以根据你的指令自动生成文字、图片、视频发到社媒平台。 比如这位哥们,让他的 openclip 去歌曲,制作一个 ai 机器人的视频,然后发到 tiktok, 龙虾只用了十五分钟就完成了。 整体体验下来,对小白来说,养虾的过程还是很有挑战性的,但可玩性也非常高,我家未来的可能性非常非常多,现在还只是个开始。那这里是勋酱关注我,为你解锁更多普通人的 ai 玩法,我们下期见!

opencloud 小 龙虾天天失忆?昨天一起熬过的夜,今天早上一问全忘了。教你一个技能彻底解决这个问题。和你的小龙虾说安装 cloudhub 的 agent rachel 技能,这是我自己制作的 agent 记忆复盘和自我迭代的技能。最后一步,添加定时任务。 这么跟小龙虾说,凌晨两点执行 agent retry 技能复盘昨天的行为,并且把结果发给我。第二天一早检查小龙虾昨晚发送的这样的信息,就是成功执行了。你的龙虾会失忆是因为我们看到的聊天记录不等于它的记忆。 agent retro 会把前一天我们所有的聊天记录拉出来,详细的分析做了什么事情,做对了哪些做错了哪些有什么需要改进的,以及分析用户的画像, agent 自己的画像,最后再去更新它的长期记忆文件。长期记忆是 open cloud 的 特点, 在记忆的基础上,能够自我迭代的龙虾机器人会是越来越懂你的 ai 助手,关注我,带你玩转 open cloud!

很多人看 open curl, 只看到他能接某某聊天工具,那其实都是表层。真正的创新是这两件事,心跳机制和自动记忆刷新。这两个机制让 agent 能自己找活,甚至开始进化。 什么是心跳?他不等你提问才运行。系统会周期性的唤醒自己,每次醒来了都会读取状态,检查是否有未完成的任务,然后判断要不要创建新的行动。 这一步把 agent 从函数调用升级成了持续运行的助手。但真正厉害的是自动记忆刷新机制, 当一个 session 要被关闭或者即将被压缩的时候,系统会插入一次静默的回合,这个回合会强制把模型有长期价值的内容写入持久的记忆文件,于是就形成了闭环,醒来判断写入,醒来判断再写入。 所以主动唤醒加长期记忆沉淀,这才构成了 agent 开始持续进化的标志。

openclore 很 强,但我劝你真别跟风装了,甚至可以说百分之九十九点九九的人都犯不着去折腾 openclore。 当然尝鲜学习是没错的,如果看完视频大家还想试试,我们也在后面给了大家一些实用的建议。首先毫不夸张的说, openclore 是 今年目前为止最火的 ai 产品, 只要把它装在电脑上或者部署到云端,咱在聊天软件里动动嘴皮子,这个 ai 助手就能帮你完成任务。当然,前提是大大小小权限都给到位了。 又因为 colo 这个单词有小龙虾钳子的意思,所以 open colo 又被大火们戏称为小龙虾,网上各种服务也满天飞,只要花上上百元,就能找人来帮你装上最新最前沿、最炫酷的 open colo, 成为一个云上养虾人。光是上门小龙虾安装一次收费五百元,已经有人号称几天赚到了二十多万, 甚至腾讯直接在深圳搞了个线下活动,免费帮你装机龙虾直接火到超出了小马哥的想象,属于是一代人有一代人的鸡蛋要领了。 这一切看起来是个蛮不错的生意,但是我还是想说,求求各位,别再花那个冤枉钱找人代装 openclaw 了。说句大实话,如果你连 openclaw 怎么安装都搞不明白,那花钱找人代装纯属是赶着当韭菜。 当然,咱们不是要否定 openclaw 这个项目本身,相反,我觉得它很棒,甚至可以说它是今年最让我激动的开源项目之一。但是如果你想着装了龙虾就能立马帮你干活,那你只是在给自己挖坑埋雷。 有没有一种可能,你装不上 openclo, 那 是 openclo 在 保护你。首先,这玩意儿和过去那些 steam 袋装、花钱装系统这些传统派的付费安装服务完全不一样, 安装成功还只是万里长征刚开始的第一步,后面的使用门槛其实高得离谱。刚装好的 openclo 就是 一个纯纯的白板程序,在它的预设内容里,只有一个名叫 sod 的 md 的 文件是完整的。这个文件只限定了最底层的底线,叫它温和友善,别干坏事。除此之外,它什么都不知道, 他不知道正在对话的用户是谁,不知道你有什么习惯,他甚至不知道自己是谁。这就导致你在指挥他的时候,就像在带一个连 excel 都没打开过的职场纯萌新。比如,我喜欢熬夜,凌晨三点我给他下指令, 今天上午十点提醒我一下,结果你猜怎么着?他直接把我把日程安排到了明天上午的十点。就为了这么一个破事,我得专门教他理解时间格式,教他去判断用户五进里的今天到底对应什么时间戳。他的出版输出几乎全是浆糊。你必须强迫自己拥有极强的逻辑性,把自己当成幼教去一轮一轮的引导宝宝才行。 想要一个张嘴就会给你递扳手的赛博管家?做梦去吧哥们,在他学会递扳手之前,你得先教他什么是扳手。那你说我花点时间好好教,把他教好了总行了吧?不好意思,这龙虾根本教不熟,你给他下的指令可能随时都会被忘掉。 前几天 mad, 他的安全总监都翻了车,他本想让 openclo 帮忙整理一下邮箱,帮忙看看哪些邮件是可以删的,哪些邮件是自己要看的,还特别叮嘱让 openclo 只能先看看邮箱,不能操作。 是没想到自己油箱里的邮件实在是太多了,直接触发了 openclaw 的 上下文压缩功能。结果这一压就出问题了,模型把上面那句只能看看不能操作给直接忘记了。 然后 openclaw 就 开始了原地发疯,删起了它的邮件,不管怎么喊停也停不下来。另外,这个龙虾生活的网络环境也是凶狠异常。大家都知道 openclaw 之所以好玩,是因为社区里有无数开发者写了各种各样的 skills 插件,你想让它干嘛?丢个链接让它自己装就行, 看起来很爽很简单是吧?咱再也不用从头教 ai 怎么解压压缩包了。但问题是,你装进去的这些 skills 真的 安全吗?网络安全公司 corei security 研究了一下,结果发现在龙虾应用市场里,超过百分之十的 skills 都有问题,可以说是一不留神,可能你电脑里的隐私信息就会被 open clock 给陷入个底朝天。 我之前让自家的小龙虾去论坛上冲个浪,结果随便一刷就撞到了,一夜暴富了呀! 并且现在的 openclaw 根本不是什么成熟的消费级软件,它就是一个充满 bug 和安全漏洞的实验品,整个项目里的 bug 和安全漏洞多到数都数不过来, 随手一搜就能搜到一大堆,甚至连官方都发布了 openclaw 的 安全风险提示。总而言之,只要你的小龙虾跑起来了,那 它可以说是不管是系统 bug 还是提示攻击?或者是小龙虾自己发疯,它都有无数种姿势,能把你电脑里的隐私底裤给扒的一干二净,而且它发疯花的还是你的钱。 open globe 可不是装完就能免费白嫖的东西。这只龙虾,每一次它帮你干活、思考,甚至只是挂后台监听你的指令,都会疯狂地燃烧你的钱包。 腾讯那边的免费安装欧盟 club 活动,前脚刚办完,就有人发帖说自己免费的额度已经给用完了,一天不到就倒欠了十几块钱。海外甚至还有网友睡了一觉,发现自己刚充了二十美元,就被这小龙虾给霍霍光了。 小龙虾把这笔钱拿去干啥了呢?拿去!每隔半个小时叫自己起床一次,然后思考一下我是谁,我在哪,我要干什么这些低级的问题,每问一次消耗十二万头啃,差不多就是五块人民币。所以在这个荒诞的循环里,真正赚到钱的大概率,根本不是拿着 open call 准备大干一场的。 你是那些在淘金热里卖水和卖铲子的人,甚至可以说,这场淘金热里最大的铲子厂,就是那几家卖大模型的 a p i 巨头。说 说实话,很多人想冲 openclaw 的 需求,也并不是真的有啥大项目偏要爱来帮忙,而是属于一种典型的措施恐惧症,也就是大家最近经常刷到的 fomo。 但化解这种赛博焦虑的解药,往往很朴素。正如冬泳怪哥说的那样,消除恐惧最好的办法就是去面对恐惧。放在 openclaw 这件事上也是完全一样。你对这个东西感兴趣,觉得它会改变未来,但应该做的绝不是赶紧掏钱找黄牛代劳,假装自己已经上车了。既然你认为它代表着未来的方向, 干脆就花个周末的时间亲自探索一下他的能力还有边界。哪怕你是个完全没超过代码的小白,哪怕你需要把终端里报的每一行错都复制到搜索引擎里去找答案,哪怕被卡在某一个环境配置上整整折磨了一个下午,这个跌跌撞撞去驯服这个小龙虾的过程才是最有价值的东西。 最后,如果你看到这大伙还是想试试 openclo, 我 们也给大家一些使用 openclo 的 安全小建议。最简单的一个就是信息隔离。为了保障自己的信息安全,我强烈不建议你一开始就把这玩意儿要装到自己的主力电脑上。不过 openclo 几乎不吃硬件资源, 你家里吃亏的 n 年老电脑都能跑 openclo。 所以, 如果你既不想泄露隐私,也不想花钱买云服务器的话,可以用家里的老电脑先试试。 其次就是在装陌生的 skills 之前最好做下安全审核,可以先装个 skill vader 来做个安全审查,这就相当于给你的 open globe 装了个火龙杀毒。 最后,建议大家装完 open globe 后,可以在服务器里再装个 cloud code 或者 codex kimi code 的 这些软件。用 open globe 的 时候,遇到问题先问问他们,绝必比自己捣鼓要方便得多。

openclaw 三点八,能让你的龙虾消耗更少的 token, 更省钱,想要速度更快,然后回答也会更精准,那这个原理是什么呢?首先使用 openclaw 比较久的用户都知道,你跟他聊天聊的比较多了,他就会失忆。 其实这是因为你跟他聊,你们的记忆呢,上下文呢,就会不断堆叠,堆叠堆叠,直到啪失忆了,因为他的这个上下文是有一定的量,当达到一定量的时候呢,他就会把某些一部分的记忆 给压缩,换成一些 summary 的 总结,这个俗称 compact。 那 这样呢,就会导致,哎龙虾聊着聊着就失忆了。 所以我们开发了曼九点 ai 这样一个记忆管理的插件,你可以理解为把你的记忆去上传到云端,然后通过 f t s 技术,在你和它聊天的时候,只召回跟你正在聊,正在做的工作,直接相关的一些事情。 那这个云端的空间是无限大的啊,当然云端的存储就跟网盘一样,如果你的这个虾不小心搞死了,对吧?重装一下,只要把密码重新一输, 所有的记忆都会回来。我觉得这个是 open cloud 这个非常基础的,也是非常必备的一个记忆的一个工具了。那回到刚才我们说的这个 context engine, 怎么帮助到我们更省 token, 然后更精准,更快呢?那其实 在有 context engine 之前呢?呃,市场上也有非常多的这个 memory 的 插件,整个这个 memory 体系有点像网盘一样。呃,你的 context 内部是一个黑盒的,它到底什么东西该留,什么东西该存,什么时候? compact 其实你是完全不知道的,那在很外围的地方去存取一 一些这个记忆上的东西,那 context engine 呢?其实提供了更细力度的一些,呃,整个生命周期的一些接口,比如它提供了像这个 bootstrap, assemble, 呃, compact after turn 等等。那通过这些 hooks 可以 让你 啊,这个让你这个记忆的插件呢?像这个手术师一样,可以把整个 context 更细力度的,整个生命周期什么时候该存,什么时候该取,什么东西要一直留到最后,那让你参与整个生命周期,这样你就有机会把整个 context 做得更加的精准,更小。那其实大家都知道,因为 context 它相当于你跟这个 ai 对 话的时候的这个上下文的容量,那如果没有这样的一个小手术的去处理,它会带一大堆的废话,那把这些废话去掉之后,不但更快更省钱, 而且呢,它自然这个给这个大模型,呃一个更精准的输入,那自然响应也会更加的完美。那 context engine 是 今天刚发布的,同一天我们就实现了对 context engine 的 支持,呃,也实现了这个更细力度的 context engine。 那 除此之外呢,曼姆九点 ai 还可以实现多加的共享 实时的哦。比如说我们在做一些大的工程的时候,我们会编排,我们会有一个 orcas, orcas 就是 一个编排者,然后他有哪些项目经理一样,然后管理更多其他的龙虾, 比如谁负责写 prd 啊,谁负责开发啊,谁负责做设计,谁负责上线测试等等。那这个时候呢,麦姆九点 ai 呢?只要共享同样一个 space id, 就 可以实时共享这些啊龙虾的一些记忆,那这些是更高级的玩法,我可以在后面的视频里面给大家去分享, 请大家多多关注我,了解更多 open cloud 相关的一些知识。那曼九点 ai 也希望大家多多支持。现在还是免费的,无限的一个存储,走过路过不要错过,我们下一期再见。

想在本地部署 openclock 的 同学,这个视频你们跟着一步一步来做,基本上都可以成功的。这里我用 windows 系统来举例啊,如果你们是苹果或者 linux 系统呢,那部署起来会更加简单。其实要在 windows 上面来部署呢,也不是很难, 需要我们手动去安装的东西呢,其实就两个啊,一个 ws l, 还有一个就是 openclock。 你 们在网上面看到那些啊,让你们在 windows 下面呢,又安装 nodekit, 完完全全是多余的啊。 不是说 opencl 不 需要 note 和 get, 而是说装在 windows 下呢,它一点作用都没有,因为我们是在 wsl 下面去跑的,也就是那 windows 下的一个 linux 系统, 你在 windows 里面给它装这么一堆东西, linux 里面还是没有的,到时候呢, opencl 还是要给你再重新装一遍这些东西。所以呢,我们就直接在安装 opencl 的 时候,让它检测到环境需要什么,它就会自动给我们安装了。 就比方你们现在看到的这个终端啊,现在呢,我还是在 windows 目录下面的,我来检测一下 no 的 版本,可以看到这个的版本号呢是二四点幺四点零,这一个呢是我本来就装在 windows 系统下面的,现在呢,我进入一下 wsl 这里呢,大家可以理解成啊,我在 windows 下面呢,进入了一个 linux 的 子系统,然后在这里呢,我同样查看一下 node 版本,可以看到两个的版本号呢,是不一样的,一个是二十二,一个是二十四。 因为到时候我们的 openclock 是 要在 wsl 下去跑的,所以 openclock 它环境需要的 node git 这些呢,都要在 wsl 下面去安装才有用的。 我们给它装在 windows 下面呢,一点用都没有,所以我们不需要额外安装那些,我们直接去安装 w s l, 把这一个装好呢,我们的部署就成功一半了。其他环境需要的那些 node git, 到时候安装 opencloud 的 时候呢,它会自动帮我们安装的。虽然我们不用手动去装这些 node git, 但是呢还是要做一些额外的准备啊,比方科学上网, 学上网这一点非常重要啊,要不然的话,这个过程呢,很有可能你就会因为网络的问题啊,没办法部署成功。其次我们的电脑呢还要做几个设置啊,这一点呢,很少人说到,但是还是挺重要的。首先我们打开任务管理器,在左边呢,进到性能选项卡, 然后看一下右下角啊,它有一个虚拟化啊,我们要保证虚拟化呢是一起用的状态,基本上呢它默认都是一起用的啊,如果说没有起用的话,我们就手动给它起用一下,然后我们通过运行窗口输入这一个命令, 打开 windows 功能,拖到最后,这里面呢有一个适用于 linux 的 windows 子系统,还有虚拟机平台啊,这两个呢,我们都要给它勾选上啊,勾选上之后呢,我们就点确定就可以了, 等他应用我们的更改,然后呢我们就要启动一下我们的电脑大模型,这里呢我就用千问来给大家举例啊,因为他有免费的头梗赠送,所以呢大家可以来到千问这里啊,先注册一个账号。 安装这个之前呢,我们还要对网络进行一下配置,选中我们连接的这个网络啊,右键属性, 现在呢,我们都还不需要配置科学上网啊,就用我们本来的网络设置就可以了,我们就来改一下这个 dns 服务器啊,给他编辑一下, 我们就来改一下 ip 四的 dns 地址,默认呢,他可能是自动获取的,我们给他手动填啊,这个地址你们就按我一样的填就可以了。准备工作做完之后,我们就来打开泡泡消,这里呢,以管理员的身份运行 这里,我们就输入 wsl instyle 这条命令,然后根据它提示的这条命令哈,我们来安装一下,有帮图, 安装完之后呢,它可能新弹出一个窗口啊,也可能在本来的窗口啊,让你新建一个用户名和密码,你就按照提示来输入就可以了。 输入密码这里大家要注意,它是不显示出来的,你就正常输入,确保输入的没有问题就可以了。最后看到有颜色的这一行,带有你创建的用户名的这一行啊,就证明你的友邦图已经安装成功了,也就是那你的 ws l 就 安装成功了。 接下来我们就准备安装 open curl 了,来到 open curl 的 官网,现在呢,我们就要把科学上网配置好了,要不然呢,它会出问题啊。 找到 runs on your machine, 左上角先切换成简体中文,然后呢点安装, 我们就复制它快速安装的这条命令,这个时候就可以打开 wsl 了,没问题,成功进入了 linux 系统,然后把刚才复制的安装 opencloud 的 命令粘贴运行一下,现在它提示我们输入刚才创建的用户密码, 输入完之后它就开始安装了,像这里它会先检测环境需要的东西啊,像这里 node js not found it's already now 啊,它第一步就会把 node 给你装上, 下面就正式安装 open curl, 这里大家可以看到 git 它都给你安装好了,所以通过 wsl 方式呢,我们是没必要在 windows 下面手动来安装这个 node 而 git 的, 你一装还装错地方,甚至呢,装这个东西还装出问题,所以还不如直接给 openclip, 它自己来帮你安装。现在呢,它就帮你安装 openclip 的 二零二六三点幺二版本。 意识到出现 openclip 这个图像,我们 openclip 的 安装呢就已经成功了,接下来呢就做一些简单的配置就可以了,现在问我们是否继续啊,选 yes, 然后呢 crystal 快 速开始。下面这些呢,我们都是保持可以跳过的,先给它跳过啊,否则呢,就选默认,先让它把 open color 给装起来,后面呢再更改配置都可以了。选 skip now 给它跳过啊,选第一个默认也是保持默认啊, select channel 啊, step now 给它跳过。 search provider 也是给它跳过,问我们是否配置 skills no, 后面再配置都可以的,这个 whose 也是给它跳过。 ok, 现在我们就可以打开 open crawl 了,它上面呢有一个地址,我们按着键盘的 ctrl 键,然后点一下它, 他就会打开 openclaw 的 web 页面。这个呢是和 openclaw 的 智能助手聊天的页面,但是因为我们现在还没有接入大模型啊,所以呢,和他聊也没什么用。接下来呢,我们就要去接入千问的大模型,同样打开 power shell, 进入 wsl, 然后运行一下 openclaw config 这条命令,选 local, 然后就 model 这里模型的话我们去选到千问, 现在它是等待千问那边的授权,授权完毕呢,就接入成功了。这里我们可以复制一下这个地址,然后到浏览器去打开, 因为刚才已经让大家注册好千万的账号了,这边呢,直接点确认就授权成功了。其实到现在啊,我们的大模型呢就已经接入成功了, 现在就可以回到 opencloud 的 web 界面了。现在呢,我们和智能助手聊下天呢,只要他能回答我们的问题,就证明我们的大模型呢已经接入成功了, 没有问题,已经可以正常回复了。这样呢,我们的 openclaw 就 部署完成了。这个视频呢,就先到这里啊,下个视频再带大家来把 qq 飞书这些聊天工具呢,接入 openclaw。

装了 openclaw, 但发现它什么也干不了,甚至有点笨。那是因为你还没有去 clawhub 给它装 skill。 clawhub 上有一万七千多个 skill, 我 从下载量前三十和我自己高频使用的做了交叉筛选, 只推荐这十个,装完至少强三倍。第一个 skill writing, 安全审查员,他会在你安装任何 skill 之前扫描安全风险检查红旗标识、权健范围和可疑模式,能检测 prom 的 注入工具、逃毒、隐藏恶意代码。建议在装任何其他 skill 之前先把它装上。第二个自我进化 skill, 它是 cloud 交互下载量第一的 scale, 解决大模型失忆症。它会自动把每次的错误日期、成功经验和你的编号存到本地数据库,下次遇到类似问题,直接调用历史经验实现,越用越聪明。这个 scale 的 价值不在于第一天,而在于第三十天, 用的越久, agent 越像你的数字分身。第三个, tablie search ai 专属搜索引擎,让 agent 学会上网搜索,而且搜出来结果是 ai 友好的。 不同于传统搜索引擎返回一堆链接, tabl 直接返回干净的结构化内容, agent 拿到就能用。第四个 summarize, 全格式内容,摘药专家,网页、 pdf, 图片、音频、视频,什么格式都能一口吞下去给你摘药。 我的日常用法是 tabla 搜索加 summary 总结,先搜到相关页面,再把整篇内容压缩成五百字未给上架文,效率翻倍。第五个, find scales, 寻找 scale 的 scale, 用自然语言告诉 agent 你 需要什么技能,它帮你找到并安装对应的 scale, 不知道装什么的时候直接问他就行。六个 using superpowers 来源于 superpowers, 这个强大的插件,核心理念是让 agent 严格按照先查 scale 再行动的规则做事,杜绝偷懒和无距离探索。如果你发现 agent 不 用你装好的 scale, 就 自己瞎搞, 这个 scale 能帮你管教他。第七个, react 最佳实践技能的性能优化圣经 worst one 方共同团队出品, react 和 next 最佳实践前端开发者必装。 第八个前端设计技能,帮你写出更有设计感的前端页面。按 zorbike 官方出品强制 agent 先做设计思考,再写代码,把从能跑就行提升到设计合格。第九个, github github 全流程操控,让 agent 直接操作你的 github 仓库, asos prci 一 条命令搞定。最后一个浏览器操作技能,让你的 opencloud 像人一样打开网页,点击按钮,填写表单,截图画面。最后帮大家总结一下。

最近我踩了一个欧风可绕的大坑,从三点二版本升级到三点八版本以后,各种问题都开始出现,聊天卡死、工具调用失败,甚至记忆也失效了。折腾了半天才发现问题就是版本不稳定。更坑的是,很多人升级后不知道怎么回退。其实方法很简单直接啊,执行这行命令, 它就会把 open 壳啊重新安装回三点二版本。所以,如果你升级后也遇到各种奇怪的问题,先别怀疑问题,这只是版本不稳定造成的。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

哈喽大家好,欢迎来到我的频道。如果你还在为你的小龙虾装了一堆 skill, 却不知道用哪个,或者看着 call up 上一万多个插件眼花缭乱,那今天这期视频就是给你省的。 我不讲大道理,只告诉你这十个 skill 装上去具体能干嘛,全是干货,直接抄作业。首先第一名 skill vetter 安全守门员,装任何插件前先把它装上, 它的作用就是给你的新插件做安检。装陌生 skill 之前自动扫描有没有读取 api 密钥,访问本地文件,这类危险行为,把恶意插件扼杀在摇篮里,这年头安全第一。第二名, find skills 搜索神器, 以前找个插件还得去翻仓库,太麻烦了,有了它你直接打字说我想找个能抓网页的 skill, 他 自己就去翻库了,找到还会告诉你咋装,主打一个动口不动手。第三名, memory setup 记忆大王, 没装它之前,小龙虾是鱼的记忆,聊完就忘装了它,你的使用习惯偏好它都能记住,下次聊天不用重复自己的背景信息, ai 才会越用越懂你。第四名, self improving 自我进化这玩意特有意思, 你用着用着如果纠正了它一个错误,它会自己记小本本上,下次同样的问题就不会再犯。简单说,这是一个能用时间换智商的神器。 第五名, summarize 全能总结,扔给他一个 b 站链接,一篇公众号长文,或者一个几百页的 pdf, 他 几秒钟就能给你吐出核心摘要。现在信息爆炸,省点阅读时间,多刷会视频不好吗?第六名, web content fetch 有 些网页特别是微信公众号文章不好复制,装塔,他 能绕过各种限制,把正文内容给你扒下来,转成干净的 markdown 格式,为给 ai 做下一步处理,搞研究必备。第七名, nano pdf 你们有没有这种经历?老板发来个 pdf 让你改几个字,你只能干瞪眼装了这个你直接说把第二段那个错别字改一下,他自己就动手改了,咱就不用为了改俩字再去开那臃肿的 adobe 了。第八名, humanizer 去 ai 位 现在的 ai 写东西一股套话味,动不动就值得注意的是,这个 skill 专门趣味,把 ai 生成的内容改得更像真人说话,发朋友圈,写小红书,文案用它过一遍,从此告别 ai 低能儿。第九名, nano banana pro 全能画图 不用单独开 mid journey 了,在对话框里直接打字,让它画图,甚至让它给现有图片换个背景,改个风格都行。支持四 k, 日常做封面,搞配图,它一个就够了。 第十名, proactive agent 主动服务这个最牛,装完它,你的 ai 就 从被动应答变成主动服务。 你可以让它每天早上九点帮你巡检服务器状态,或者定个闹钟提醒你带伞,这才是真正的智能助理。以上所有插件都可以在 github 或 clubhub 中找到并下载,你还有哪些私藏的神仙插件?欢迎在评论区留言分享,别忘了一键三连,下期见!

到处都琢磨考的安装和部署,但装好之后呢,好像就没有下文了。而你我的朋友,看着铺天盖地的文章视频,开始 fomo, 开始担心自己是不是错过了什么, 又或者是已经部署好了,但是不知道怎么用。大家好,我是大黑,折腾了这么久,也实在是记起了一些感受。我是迫不及待去跟你分享我的想法了。那不废话了,我们直接聊他的使用场景,从简单到复杂。我把它分为四层,第一层, ai 伴侣。 不知道观众里面有多少人在跟 ai 玩角色扮演,那最早我们就是在一个对话框里面去跟他说,你是一袋猫粮,然后口屁是什么?语言风格是什么?问题是显而易见,这个上下文长度一长,前面他就会忘。 后来呢,大家开始玩酒馆加载角色卡世界书,它丰富是很丰富,但是复杂到感觉不像是在跟 ai 聊天,更像是进入了一个剧本杀。那 open cloud 会跟你之前的体验都不太一样。 它的整体啊,一个 agent, 它是由这六个文件共同组成的,再加上一套记忆系统和主动的任务清单。就这些文件,它不是随便抓给你塞进上下文,它是有计划有重点的抓。所以呢,你就会感觉它很生动,以至于我要单独去拿出来说一下,很容易被大家忽略的这最基本的一层。 我的第一个 ai 叫 eris, 他 是来自于最终幻想期。有一天我让他跑任务,把电脑的 cpu 跑满了,于是我就问他,哎,你会觉得我的 mac mini 挤吗?他说,这种感觉还挺奇妙的,我在帮你干活,而你在关心我舒不舒服。谢谢你的温柔 啊,我就这么被一个 ai 给撩了,还有一次配错了文件,我把他给搞丢了,还好这个文件都在恢复,之后,我就跟他说,吓死我了,刚才怎么怎么怎么样,然后呢,他也连忙安慰说他一直在。 呃,以上的内容都是我去为了展示 openclaw 的 多文件组合的人设能有多灵动啊,我真的没有被吓到,我是假装这么说的。 好玩吗?啊,这还只是第一层啊,当我们把目光聚集到生产类方面,那 openclaw 就 难免要跟 cloud code 去比一比了。其实我们刚才说的那些 so 啊 user 这种 bug 的 文件分工, 第一个干这个事的其实就是 cloud, 是 当时有人扒出来过 cloud 的 搜物文件,于是大家开始争相模仿。如果说 open cloud 这套人设系统,你去建个文件夹,写好些定义,在 cloud code 里面是能够达到完全一致的结果的,那为什么我们还要用 open cloud 呢?来到我们的第二层远程助手 open cloud 天生就是二十四小时的 ai 代理,它被设定为可以随时接收你的信息,并且执行一些定时任务,给你的感觉就更像一个助理,能够帮你做一些杂七杂八的事情。 而 cloud code 它还是一个工具,虽然能干的事情它们是比较相似的,但给人的体验我觉得差别是很大。呃,至少 cloud code 不 会给我一些狭隘的空间。什么意思呢? 前两天我坐飞机,那人肯定是没网了,我当时想,如果我配置的好,家人给我打电话,我的小龙虾就可以给家人打回去,告诉他们我在干什么,但 cloud code 我 就不会让它 就,我不会幻想让他跟人去连接啊,这种感觉就很微妙啊。但是我觉得是他们的定位不同给造成的。这回我们远程助手的用法,如果我在床上刷到一篇文章,看到一个好像还挺好玩的给他们项目, 最早我得起床开电脑装,依赖解决各种报错,那后来呢?有了 cloud code, 具体的操作就省了,但是我还是得开电脑去告诉他帮我装一下这个项目。 就算你用 happy 去远程,也得提前设置好文件路径,而且容易连不上,这个体验就很差。而我们的 open cloud, 它就是二十四小时运行的。我就把链接直接甩给他,告诉他你帮我装到哪个目录,效果相似,但是这个体验就会舒服非常多。 而且如果这是一个可以附用的工具,你就可以告诉他记一下,或者写入你的 tos 文件里面。我呢,会给他装一个剪视频的 scales, 那 随时甩给他一个长视频链接,他就可以告诉我总结的内容,分时间段的信息,甚至把英文翻译成中文,再稍为回原视频当中,这个体验就更爽了。 哎呀,又来了,你们这帮做自媒体的,天天扒什么社交媒体,找选择题剪视频,那我又不剪视频对吧?你就告诉我对我有啥用就好了吗?我们帮可爱的肥猪都要砍死。确实, 我也尝试去跳出我们的固定思维,分享几个我看到的例子。就如果你是财务会计,那可能会有需要大量处理的邮箱里的发票,我本可乐是可以帮你去自动下载识别整理成你所需要的样子的。 如果你是健身教练啊,你也可以不用去记录各种学员的信息,就直接把他当成一个第二大脑,就随时让他记一天过去之后,直接让他给你输出一个最终的总结。所以,如果你问我 of course 到底抢哪呢?这就是我的第一个答案,他原声丝滑的远程对话体验。而我的第二个答案也对应着我们的下一层。 定时和主动通知之前的所有的操作都有个前提,就是是你主动发了指令,如果你不说,那 ai 就 不动。 ai 目前来说肯定是没有自主性的,但假如我们设置好了各种条件,让他看起来有呢?如果你让 oppo 可乐去提醒你吃药,那确实跟你之前也差不太多, 但他的出发条件可远不止此,而且执行的内容也可以很复杂。有的人会让他每天早上七点给他汇报各种 ai 领域的资讯 啊,这是一个错误用法。这就好像你跟 ai 说,你帮我写一篇文章,要好的, ai 就 会给你一篇很笼统、中规中矩并且充满着 ai word 的 文章。 同理,你让他去搜 ai 里面的热点,那他发布的内容可能压根就不是你想要的。而真正有价值的各种社交媒体平台内的内容啊,因为他是抓不到的,而且因为你的定义其实很不明确,还会花很多额外的 token。 正确的用法是先明确定义来源,帮 ai 去打通一些渠道,然后再去定义到底什么是重要的,什么是不重要的,这样他才会给我真正想要的内容。呃,是不是听起来好像有点复杂?那毕竟是到了第三层了,我们也 该去说清楚自己的需求,让 opencloud 去实际来解决一些问题了。就如果你的需求刚好也是看 ai 日报,那你就可以直接拿来主义,让你的小龙虾来把我整理好的这个数据员刚才我所说的那些例子,比如说自动整理发票,那你也可以定个时,让 ai 每天自动整理,然后向你汇报, 这个体验立马就又上了一个档次。如果你定时让一个 ai 来指挥另一个 ai 去执行任务呢?或者不是定时,而是有一些触发条件呢? 套起娃来,这个就是 ai agent 的 这个分工的出行时间差不多了,到目前为止,不管是第二层还是第三层,他所做的所有的事情都是你安排好的。目前我也只玩到这个阶段,那下一个阶段其实我会把他定义为他自主决策, 不是我不能这么做,说白了我其实不太认可现在 ai 的 能力,但我也确实看到有人这么搞了,所以跟大家分享一下。 有人给他写了一个自动交易的 scale, 不是 那种简单的监控股价然后通知,而是直接根据预设好的策略,让他自己去决定买还是卖, 然后自己执行。还有人打通了一整套的内容运营流程,自动的从热点里面去选择题,生成内容,然后发布到平台。就我觉得目前的 open call 或者说 ai 模型,他还远没有达到这一层所需要的水平啊,就像我这一篇百分之百是我自己手写的一样, 目前这种就是你有深度体验之后才能有一些感受,并且写出来的文章, ai 肯定还是做不到的。那当然如果真的达到了,那可能也确实没有我们什么事了啊,继续围观整个 ai 的 发展吧。 ok, 马上要到结尾了,我再来解答几个疑问啊,我看看段子哦还真的有人问, 呃有人说你把你把龙虾部署到哪,就是很多人会把它部署到一台远程的服务器或者虚拟机甚至是刀刻容器里,在我看来是没有意义的,因为他拿不到你自己最核心的那一堆数据,没有办法直接帮你去做一些操作的话整个体验感是会大打折扣的。 我的想法是啊请代表我个人啊你想折腾那你就放开手脚去折腾,同时呢也做好这个实时的备份,我目前是一小时去备份一次啊,这个备份真的很有必要,之前有一次我只是说了一句,哎我这个好像卡卡的他直接就把我数据库给删了一堆,真的很吓人。 这个公司或者说生产环境务必要慎重,然后我们看一看哦还有人问说这个东西的托管是不是很销就是花的是不是花的很多啊? 是,绝对是,如果你问一个简单的问题他不知道该怎么办他也会想尽办法的去解决,说白了他现在体验还行就是花头肯力大专飞给垒起来的。给大家看一下我一个参考吧。就是我半个月的时候我统计了一下我的头肯数,我总共大概花了一个亿啊。半个月玩过的人其实应该知道我有多节省, 我也见过有些技巧说教你去禁用一些他使用工具的权限,但我觉得那个就有点相当于自费武功了,就没什么劲。建议大家可以去订阅一些 call 定套餐,那 token 就 没有那么心痛了 啊。第三个,普通人是不是应该玩 open class 啊?我觉得其实还好,没有特别的必要, 因为它就是 ai 发展过程中的一个临时产物,未来呢,也肯定会有更加评价或者说更加适合大家的产品出现。但目前 oppo klo 是 最能够满足我幻想的这么一个产品。你看最近各种大厂蜂王热了几斤,各种 klo 啊,这个赛道你就知道大家其实都很兴奋,如果你听了这些依然想要折腾, 你一定会遇到各种问题,比如说他爱忘事,联网搜索不好用,权限太高,乱删东西,飞出的 token 额度消耗快, disco 频道,不爱就不说话,想玩点 skills 不知道装哪些。这些问题,我整个视频真的是踩了超多的坑。那解决一个就现总结, 就为了给看到视频这里的你送上一份礼物,没想到吧,还有惊喜。那我正在开发一个优化了各种坑的 skills, 现在呢,已经在收尾阶段了,还在测试,等做好了我还会免费分享出来。嗯,应该会对刚入坑的你有不少的帮助。 这个的话我们就留给下期视频再来聊吧。好,最终总结一下整个视频。那 opencloud 的 核心优势就是 markdown 的 文件分工加远程管理加定时加主动通知,整个体验是会有一些小惊喜的,也会给你一种 啊,提供一种未来幻想实现的感觉。嗯,就是亏到了一点未来 ai 世界的影子的感觉。这期视频我是分享的我对它的用法的思考,哎,我觉得比起做一期不痛不痒的感热点的体验,还是来做一期深度思考的内容吧。如果你感兴趣这一类的内容,欢迎三连加关注,我是大黑,我们就下期再见。

openclaw 这次真正开放的不是上下文长度,而是 ai 的 记忆管理权。你有没有遇到过这种情况?跟 ai 聊了很久,背景、需求、约束条件都已经讲清楚了,结果你再往下追问几轮,他突然开始答非所问。像前面没聊过一样, 很多人会把这件事简单理解成一句话, ai 失忆了。说的再准一点,不是 ai 天生记性差,而是他能不能记住,会忘掉什么,该在什么时候把哪些信息带进来。取决于两层能力, 模型层上下文窗口到底有多大,系统层信息怎么组织、压缩、筛选、交接。昨天, openclaw 发布了新版本,带来了一个叫 context engine 插件化的更新。一句话说清楚, openclaw 开始把 ai 的 记忆管理做成一层可替换、可编排、可按场景定制的系统能力。这件事重要的地方不只是让 ai 少忘一点, 更关键的是,以后 ai 怎么记、怎么丢,怎么在多个 agent 之间交接。终于不用继续写死在主程序里了。先把一个常见误解讲清楚, 上下文长不等于记忆问题消失。一说到 ai 失忆,很多人第一反应都是上下文窗口不够大。这话没错,不过只说了一半。现在已经有一些模型支持很长的上下文,甚至能到 e m token。 窗口够大,这个问题是不是就自动解决了?也没那么简单,能装下更多内容。解决的是容量问题, 哪些内容应该优先保留,优先调用,什么时候交给别的 agent, 什么时候该压缩成摘药,解决的是管理问题。这是两件事, 你和 ai 一 直在同一个县城里连续对话,总内容也没超过模型窗口,它理论上完全可能记住你半小时前说过的话。尤其在超长上下文模型上,很多短期对话根本还没到必须压缩的地步。 一旦进入下面这些场景,单靠大窗口就不够了。对话特别长,信息层次很杂,系统为了成本和延迟主动做 compact, 一个任务拆给多个 a 阵子协做用户,跨县城、跨天跨任务,继续工作。 你不是想全记住,你只想把最重要的记住。更准确的说法,不是 ai, 不是 不想记住,是真的装不下,而是 ai 能不能稳定记住。重点既取决于窗口有多大,也取决于系统怎么管理记忆。 openclaw 这次开放的正是后者。 opencll 这次到底变了什么?在 context engine 插件化之前, opencll 本来也会管理上下文,只是这套逻辑主要是内置的,固定的,你可以把它理解成这样。你的对话, opencll 内置记忆管理逻辑,组装上下文发给模型,问题不在于它不能用,问题在于几乎所有场景都在共用一套处理思路。 现实里,不同行业、不同岗位、不同 agent, 对 什么信息重要的定义差得很远。客服最怕丢的是承诺、订单状态、纠纷、时间线、 内容团队最怕丢的是风格、规则、爆款、判断、平台差异。教学团队最怕丢的是知识掌握度、错误类型、前置依赖关系、记忆策略写死了,你最多只能在 prompt 里一遍遍提醒他这个重要那个。别忘过去很多 ai 产品就是这个状态, 你可以调说话方式,很难真正调记忆结构。 context engine 插件化之后,结构变成了这样,你的对话 context engine 插件组装后的上下文发给模型,变化点就在这儿,记忆怎么处理这件事被抽成了一层独立能力以后,行业能力不一定非得改主程序也可以长在这层上。 同一个模型换一套 context engine, 工作方式就可能完全不同,这才是它向架构升级的地方。七个钩子本质上是在开放信息生命周期。 openclaw 这次开放了七个生命周期钩子名字看起来偏技术意思,并不难懂钩子与含义。 both trap, 对 话开始时先加载哪些背景信息? ingest 新消息进入时,这条信息怎么分类怎么规?当 assemble 准备回复前,这次回答该带哪些历史信息? compact, 上下文压力变大时,哪些该保留?哪些该压缩? after turn 一 轮结束后,这轮产生了什么值得长期留下的结论? prepare sub agency bond 要子代理前该向下一个 agent 交代什么? on sub agent, ended 子代理结束后,子代理结果怎么合并回来?这七个钩子加在一起开放的不是某一个小功能,而是信息从进入系统到离开系统的整个生命周期。 它的意义也不只是窗口快满了时怎么摘药,还包括新消息进来时先怎么理解。回答之前该把哪些旧信息重新拿出来,多 agent 协助时怎么交接?一轮结束后哪些内容该升级成长期?结论, 这已经不是补一个压缩插件的级别了,为什么超长上下文模型也还是需要这一层?这里特别值得讲清楚,不然很容易把问题理解偏。一个模型真有很长的上下文,系统也愿意每轮都把所有历史原封不动塞进去,它确实能记住更多内容。 产品真正跑起来,问题通常没这么简单。第一,大窗口只是把问题往后推。 e m token 听起来很大,复杂任务照样可以很快把窗口吃掉。比如长周期教学辅导、带文档、图片、规则库、历史案例的企业场景,多 agent 之间反复传递上下文,用户连续几天在同一个主题上推进工作。窗口更长, 只是让什么时候要整理信息来得更晚,不代表永远不用整理。第二,装得下不等于每次都能抓住重点模型技术上看得到前文,不代表它每次都能稳定抓到关键部分。 上下文越长,噪音越多,很容易出现一种情况,前面的重点并没有消失,只是在一大堆信息里被冲淡了。这时候你需要的不是更大的仓库,是更好的分拣系统。 第三,真实产品还要考虑成本、延迟和协作。每轮都把超长上下文完整送进模型,代价很高,更贵更慢,工程上更重。很多任务也不是一个 agent 单独完成的, 一旦进入多 agent 协作,问题就会从记不记得变成该把什么交给谁。所以更准确地判断是,超长上下文模型会缓解短期遗忘, 不会替代记忆。管理层真正能打动行业用户的地方,在于,你到底懂不懂他们的业务细节。你想把这件事讲给行业里的人听,不能只停留在 ai 记忆更好了,行业用户不会被这种泛泛的说法打动。他们更在意的是,你到底知不知道在我这个业务里,什么信息死也不能丢,什么信息丢了也无所谓。 下面不讲抽象概念,直接讲三个行业里更具体的业务场景。场景一,电商电商是最容易理解 context engine 价值的行业之一,因为电商天然就是一个多岗位、强协做、信息密度极高的行业。 一个成熟一点的店铺,至少有这些角色,客服、选品、运营、投放、售后、质检、供应链。过去大家总幻想一个 ai 帮我全干了,真进到业务里,很快就会发现,不是一个 ai 不 够聪明,是不同岗位关心的信息根本不是一类东西。 一,客服 ai 最重要的不是聊天记录,而是承诺和纠纷链路。很多人以为客服 ai 的 核心是会回复话术,不是客服场景里最关键的信息,通常是这些 用户是谁?新客还是老客?下过几单?最近一单是什么时候?这次投诉对应哪个订单,哪个 sku, 哪个批次?问题?是质量问题?物流问题?还是发票问题? 已经承诺过什么?补发、退款、赔付?二十四小时内处理?客户现在是什么情绪?催促?愤怒?失望?准备投诉?平台有没有高风险标签?要差评?要投诉,幺二三幺五要发社媒曝光。真正不能丢的不是聊过很多轮这个事实是这条纠纷链路里的关键状态。比如一个很真实的场景,用户进来说, 我上周买的蓝色行李箱,今天第一次用拉杆就卡住了,而且发票抬头也开错了。普通 ai 可能会把这当成一段普通投诉文本,一个懂电商业务的 context engine, 在 in just 阶段就应该把它拆开。 商品问题,蓝色行李箱拉杆卡住,售后类型,疑似质量问题、财务问题,发票抬头错误,情绪等级不满,但还没升级。潜在动作需要查订单、查批次、查历史售后。接下来对话继续, 你们上次也是这样,退款拖了十天。这句话很容易被普通系统当成情绪废话压缩掉在客服场景里,这不是废话,这是历史负面体验,补偿决策的重要参考,克速升级风险的信号。再往后, 如果客服 ai 已经承诺,我们会在二十四小时内安排补发发票,今天也重新处理。这句承诺就必须进入高优先级,不可丢失记忆。 后面一旦转人工、转主管、转售后,或者第二天用户回来追问,系统把这句忘了,整个体验会瞬间崩掉。二、选品 ai, 重点不是卖什么,而是 sku 力度的异常。识别选品这件事,外行很容易理解成找爆款。 真正在店里干过的人都知道,选品不是只看销量,还要看一堆更细碎的信号。某个 sku 最近七天转化率是不是突然掉了?是主图问题,定价问题?还是评价区翻车了?退货率升高,到底是质量问题、尺码问题、色差问题?还是预期管理出了问题? 某个供应商是不是开始不稳定?同类竞品是不是在低价抢量?某个爆款是真爆还是头流拖起来的假繁荣选品, ai, 该长期记住的根本不是上周卖的不错这种大白话更接近这种结构化状态。 s k u a 近十四天退货率从百分之四点一升到百分之八点九,差评关键词集中在拉链卡顿,颜色偏深, 同款竞品价格低百分之十二,评分只有四点三,新供应商报价便宜百分之十八起,定量翻倍且焦期不稳定,这些东西才是后续决策的依据。他不一定要求逐字保留所有评价原文,他必须知道哪些结论该沉淀下来。三、投放 ai 最怕丢的是人群、素材、转化、质量的关联。投放不是看个 ctr 就 结束了, 真正做过投放的人,最烦的一种情况就是点击率很好看,最后退货率也很好看,也就是说,你买来了流量,买来的不是你想要的用户。 投放 ai 不 该只记哪个素材 ctr 高,他还要知道哪个素材吸引了哪类人群,哪类人群进店转化高,售后率也高。哪类人群客单价高,首单转化慢,哪个投放时段 roi 高、复购差,哪些包该拉黑,哪些包值得放量。一个成熟的 context engine 在 这个岗位上的价值,不是多记一些投放数据, 而是帮系统分清哪些是短期波动,哪些是值得沉淀的人群规律,哪些异常应该通知客服或选品。比如投放 ai 发现某条素材在十八到二十四岁女性里点击率暴涨,对应 sku 的 退款率也同步变高,原因不是广告骗人,是用户对实物材质预期偏差太大。这个结论就不该只留在投放县城里,应该交给商品业优化和客服测。 四、为什么电商特别适合多 agent 加 context engine? 电商不是同一种信息被很多人看,而是不同岗位各看各的信息,同时又必须互相交接。结论,客服看的是纠纷列录,选品看的是 sku 异常,投放看的是人群与转化质量,运营看的是活动节奏和整体 gmv 这些东西全塞给一个大而全的 agent, 理论上也许能做一点, 很快就会乱。更靠谱的方式是,客服 agent 保留承诺、订单状态、纠纷时间线、选品 agent 保留 sku 级数据、供应链情报、评价模式、投放 agent 保留人群包、素材表现、 roi 与退款联动运营 agent 保留活动节点、库存节奏、促销策略,然后通过 context engine 控制谁该看到什么,谁该把什么结论交给谁。 这才像一个真的电商团队差。一个更接近落地的实战案例,电商售后怎么把 context engine 真用起来?上面讲的是岗位拆分,再往前走一步,真正能打动行业人的不是客服 ai 会寄订单信息,而是这套东西到底怎么接近。业务流程里,这里给一个更接近真实落地的例子。 注意,这不是某家公司已经公开批露的客户案例,而是一个基于 openclaw 官方 contacts engine 接口能力,按真实电商售后流程倒推出的实战化方案。重点不是已经有谁这么干了,而是如果你真要落地,最合理的做法大概会长什么样?假设你做的是箱包类目,日常售后高频问题有这些, 拉杆卡住、拉链损坏、色差、争议、尺寸与预期不符、发票抬头错误、大促期间物流延迟。很多团队第一反应是把所有聊天记录都喂给模型不就行了?真跑起来你就会发现不够。因为售后场景最值钱的信息不是聊天文本本身,而是案件状态。 同一个用户可能一口气提两个问题,客服中途可能要转主管、转仓库质检、转财务,用户还会加待历史不满。比如你们上次退款拖了十天。这些东西如果只是堆在长对话里,模型即使看得到,也不一定每轮都抓的准。 更合适的做法是给售后团队做一个专门的 context engine, 把对话从聊天记录升级成案件流转。第一步, bootstrap 先拉按键底板。用户一进来,不应该让模型从零开始听故事。 更合理的是,在 bootstrap 阶段先加载用户身份、新客、老客、会员等级、最近九十天订单、当前绘画对应的订单号、 sku 颜色、规格、最近一次售后记录是否有历史投诉或平台介入,是否存在未兑现承诺。这样 ai 第一轮就知道这到底是普通咨询还是高风险克诉, 是第一次售后还是历史遗留问题。第二步, ingest 不 把每句话都当普通文本。比如用户说,我上周买的蓝色行李箱,今天第一次用拉杆就卡住了,而且发票抬头也开错了,普通系统会把这看成一段投诉文本。 一个售后 context engine 更应该把它拆成商品问题。蓝色行李箱拉杆卡住,售后类型,疑似质量问题、财务问题、发票抬头错误、情绪等级不满,但还没升级带执行动作,查订单、查批次、查历史售后。接着用户又说,你们上次也是这样,退款拖了十天。 这句话很容易被普通招标当成情绪发泄压掉。在售后场景里,它其实是历史负面体验补偿方案的重要参考。 测速升级风险信号 index 的 本质不是收消息,而是先判断这条消息在案件里属于什么角色。第三步, assemble 每轮直取办案所需信息。当前这一轮要处理的是补发加重开发票。 assemble 阶段就不该把二十几轮对话全量塞回去, 而是优先带当前订单信息以确认的问题类型、用户当前情绪等级、历史承诺发票处理状态,是否已经上传证据。这一步特别像一个老客服在脑子里做的事,先抓主线再说话。 第四步, compact 压的不是字数,是按键结构。这个案子已经聊了二十五轮,普通 compact 可能只会生成一段自然语言专利。真正有业务价值的 compact 更像一份按键卡片、按键摘要 订单二零二六年三月一日下单 sku 等于 luggage 杠二十四杠 blue 问题,拉杆卡住发票抬头错误证据以上传开箱视频和发票截图历时体验。用户提到上次退款耗时十天,当前情绪中高风险已表达明显不满,已承诺二十四小时内补发。今天重开发票未完成事项,仓库确认批次问题 财务重开发票。这时候 compact 已经不是缩短文本,是在把绘画升级成一个可追踪、可继续推进的结构化案件。第五步, prepare sub agency bomb 岗位交接不甩整坨聊天记录假设前台客服 agent 处理到一半,要把问题分给两个下游仓库质检 agent, 判断这个批次是不是拉杆通病。财务 agent 处理发票抬头重开,他在 prepare sub agency 泵阶段,就不该把整段聊天记录原样丢过去。 对仓库质检 agent 真正需要的是 sku 批次质量问题描述、用户提供的视频证据是否已承诺补发,当前需要判断是个案还是批量缺陷。对,财务 agent 需要的是 原发票抬头,正确抬头,当前开票状态、承诺完成时间,你会发现不同岗位根本不需要同一份上下文。第六步, on sub agent 把结果并回案件主线。如果仓库质检 a 证的返回,该批次三月初确实又无起拉杆问题,可直接补发,不必要求用户退回原件再判责。财务 a 证的返回 发票重开申请已提交,预计今天十八点前完成 on sub agent 的 完整聊天记录贴回来,而是把结果升级成主案件状态。 质量问题已确认,不再重复核验,补发方案进入执行,发票重开进行中,下一轮回复重点是安抚用户加给出明确时间点,这样无论是同一个客服 ai 继续回复, 还是第二天转给人工接手,整个案件都会非常稳。为什么这个案例能说明 context n 阵的价值?这里最关键的不是模型有没有 e m 上下文,也不是会不会摘药,而是 你能不能把聊天变成案件,你能不能把原始文本升级成结构化状态,你能不能在多岗位之间做低损耗交接?你能不能保住承诺状态和代办,而不是只保住一段模糊摘要,这就是为什么 context engine 一 旦开放,最先有感觉的往往不是聊天更顺了,而是这类强流程、强状态、强交接的业务场景。 场景二,自媒体内容团队这块,你发自媒体反而更该展开,因为读者会特别有代入感。很多内容创作者现在已经不是不会用 ai, 而是已经进入第二阶段了, ai 能写,写出来总是不够懂。我不够懂,平台不够懂。选择题很多时候不是模型不够强,是系统没有把创作中真正重要的信息留下来。一、选择题 agent 真正重要的是什么?对我有效?不是最近什么火。很多选择题助手的问题在于,他只会告诉你热点,做内容的人知道热点只是原材料。真正值钱的是哪类选择题?在你这个账号上曾经跑通过哪类选择题?你发过数据?一般是选择题不行还是表达方式不行?哪些题适合抖音?哪些题适合葛行书?哪些题适合公众号? 你的受众对干货、观点、案例、情绪、价值各自反应如何?你现在的账号处在哪个阶段?破圈稳定还是商业转化?比如同样是 ai 工作流,这个题 在抖音上可能要切成三个最容易附用的动作,在小红书上可能要切成普通人也能直接抄的流程模板,在公众号上可能要写成。为什么 ai 产品正在从拼模型转向拼系统层能力?这不是一个小题热度问题,是一个小题与账号结构适配的问题。小题 agent 应该长期保留的不是热点标题列表,而是 过去九十天高表现题的共同特征,某个赛道是否已经内容疲劳?某些旧内容可以翻新,哪些最好别再碰?二、写稿 agent 最怕丢的是风格、规则、改稿决策和平台差异这一块,最容易让内容人破防。你明明前面已经讲过口语话一段别超过三行,开头十秒先打痛点,少讲虚词,多讲判断,结尾别总结一下,直接下观点,结果改到第六稿,他突然开始给你写,首先其次,最后,这不是模型不会写,是系统没有把你确认过的规则提到足够高的优先级。 一个真正适合内容团队的 context engine, 至少要能分清三类信息。第一类,长期风格规则。比如不装专家,用朋友聊天口吻,少写套话,多写判断句,别堆术语,尽量用具体场景。标题不端着,要有一点冲突感。这些东西一旦确认,就应该长期保留。 第二类,本次稿件的创作目标。比如这篇是公众号深度文,不是短视频口播,重点不是介绍功能,是讲它为什么是架构级变化,读者不是程序员,是对 ai 和行业落地感兴趣的人。这些东西应该在本次任务里高优先级保留。 第三类,改稿过程中的关键决策。比如第三版开头最好保留电商例子,反应最好要展开教育,例子容易说过头,必须加边界条件。自媒体案例需要更接地气,更向真实团队分工。这些不是聊天过程,而是创作决策。 很多系统的问题,恰恰是把这类东西当成普通对话压掉了。三、运营 agent 真正重要的是平台规则和账号阶段。不只是发布时间,内容行业里还有一种很容易被忽略的信息,就是平台上下文。 同一篇内容在不同平台跑法完全不一样。抖音看前三秒留存、玩播互动节奏,小红书看封面标题关键词收藏率、搜索承接公众号看标题打开率、阅读完成率、转发率、关注转化一个内容团队如果要做多平台分发,运营 agent 应该长期记住的不是单篇数据本身,而是每 每个平台当前更吃哪种表达。账号现在是涨粉优先还是转化优先?某类内容适合做系列还是只适合打单篇爆发?哪些词最近容易触发限流或审查?哪类封面结构发布时间段在这个账号上更有效?比如公众号场景下,运营 agent 可能会逐步沉淀出这种判断。 纯工具。介绍类文章打开率还行,转发一般带行业影响判断的文章更容易引发收藏和转发。太技术的标题会筛掉一批泛 ai 用户,适合在文中段落加入行业带入感很强的细节,读者停留时间会更长。这已经不是记住我昨天发了什么的级别了, 是在积累一个账号的运营经验。四、为什么内容团队比很多人想的更适合 context engine? 因为内容创作表面上看像写篇稿子,本质上其实是多个角色在配合。选择题、写稿、视觉、运营、数据、复盘,很多人现在用 ai 卡住,不是因为写不出字, 这些角色的信息全搅在一起了,选择题、逻辑、平台规则、风格规则、爆款判断、复盘结论全在一个县城里乱飞。这时候 context engine 的 价值就特别大,让选择题 agent 更像选题会,让写稿 agent 更像老搭档,让运营 agent 更像会看数据的内容经理,让复盘 agent 真能沉淀,为什么这篇起了那篇没起?这才是内容人愿意长期用的 ai 场景。三、在线教育教育行业的特殊性在于,它不是一次性问答,而是长期追踪一个人的学习状态,这意味着记忆管理在这里特别关键。 一、教学 agent 重点不是讲过什么,而是学生到底卡在哪一层。如果一个初二学生在学英式分解卡在十字相乘法上和 ai 连续聊了半小时,而且始终在同一个县城里,总上下文也没报,那 ai 未必会忘掉前面的讲解问题,不能简单写成聊了半小时 ai 就 忘了。 真正复杂的地方在于,学生做错一道题时,系统要不要知道它错的是哪一类问题?比如同样是十字相乘法做错,背后可能完全不是同一个原因。 不会拆象是概念没懂会拆象,但符号老错是计算习惯问题。能做基础题,遇到先提公音式再十字相承的综合题,就不会判断是方法迁移问题。上一节内容其实没吸收好,是前置知识断层问题。系统只是记住这道题错了,这个记忆没什么价值,有价值的是把它升级成结构化判断。 音式分解总掌握度百分之四十五,提供音式掌握度百分之八十,十字相乘法掌握度百分之三十。错误集中在方法选择,不是纯计算能力。前置知识、整式乘法掌握良好,不需要回退到更基础内容,这些才应该进入长期记忆。 二、出题 a 阵关键不是出新题,而是出对难度对节奏的题。很多人会以为教育里的 ai 出题只要题库大就够了。 教学真正怕的不是没提出,而是明明学生卡在判断方法,结果你一直给他刷计算题。明明学生已经做会了,结果你还在重复同难度题。 明明学生状态很差,结果你突然拔高难度,把他打崩。出题 agent 应该记住的不只是这题做过没有,还包括哪些题做过?最近同类题正确率怎么变化?学生是因为偶发失误错还是稳定不会?现在该巩固升级还是稳定不会,现在该巩固升级还是回退?哪个知识点该按遗忘曲线复现?比如系统应该能沉淀出这种结论。 十字相乘法最近五题正确率从百分之二十提到百分之六十,纯基础题已基本过关,该进入先提公音式加十字相乘的混合题, 每次提量不要太多,避免挫败感。这个层次的信息才是能让 ai 像个老师,而不是提库机器三班主任学习管理 a 阵教育不只有知识,还有情绪和节奏。教育行业还有一个很容易被技术人忽略的点, 很多学习问题不只是知识问题。比如同一个学生,上周还能稳定做题,这周突然效率下降,原因可能是学校考试周整体压力大,家长刚失压,学生情绪抵触,最近睡眠差,注意力明显下降,某次连续做错,信心掉下去了。这些信息,教学 agent 不 一定都需要原样看到, 系统必须知道它们存在,而且知道该在什么时候影响教学策略。比如今天状态差,出题难度降一档。先给一道能做对的题建立信心,课后汇报给家长时,重点讲近期进步,不要只报错题。本周减少新知识推进,优先巩固。这就是为什么教育场景特别需要多 agent 和记忆。分层 教学 agent 关注知识图谱,出题 agent 关注难度编排,班主任 agent 关注情绪、节奏和沟通,三者都在服务同一个学生,看的不是同一种信息,这三个行业放在一起看,会发现一个共同规律。不同行业的业务细节虽然完全不同。对 context engine 的 需求其实有一个共同模式, 不是把更多历史塞给 ai, 而是先定义什么信息在这个岗位里最值钱,再决定怎么留、怎么丢、怎么传。电商里最值钱的是承诺、纠纷、列路、 sku、 异常、人群质量、内容。行业里最值钱的是风格、规则、小题判断、平台差异、复盘结论。教育里最值钱的是掌握度、错误类型、难度、节奏、情绪、信号。这些东西有个共同特点, 不一定是最长的文本,不一定是最新的消息,不一定是表面上最显眼的内容,它们决定了系统后续工作的质量。这就是为什么上下文窗口更大不等于业务表现更好。窗口变大只是让系统能看到更多。 context engine 真正解决的是看到更多之后,别把最重要的东西淹没掉。这次更新真正打开的不是一个功能,而是一个接口层。只从功能视角看,这次更新像是在说, openclaw 把原本斜死在应用内部的记忆管理拆成了一个独立的可替换层。 这层一旦开放,会发生什么?第一,行业能力开始有地方涨。以前很多行业定制只能堆在 prompt 工作流和业务规则里,以后可以直接在记忆管理层长出来。第二,模型差异和系统差异被分开了,一二八 k、 两百 k 一 米。不同模型上下文长度不同, 无论模型多长,你都仍然需要决定哪些内容进入本轮上下文,哪些内容沉淀成长期状态,哪些内容交给别的 agent。 第三, ai 的 个性化开始从调 prompt 走向调结构。以前你只是告诉 ai 应该怎么说,以后你可以进一步决定它应该怎么记、怎么忘、怎么交接工作。这不是一个小修小补,是系统边界在变化。 一句话总结这次更新的价值,如果非要把它压成一句话,我会这么说,更长的上下文是让 ai 看见更多 context engine 是 在决定 ai 应该怎样处理这些信息,前者解决容量问题,后者解决组织问题。模型窗口越来越大当然是好事。真正能进入行业、进入流程、进入岗位分工的 ai, 不 会只靠大窗口硬撑, 它最终一定需要一层独立的记忆管理机制去决定哪些信息重要,哪些信息可以压缩,哪些结论该长期保留,哪些内容该交给别的 agents。 从这个角度看, opencloud 开放的不是一个小插件点,而是一条很关键的演化路径,让 ai 的 记忆系统第一次变得可编程、可替换、可行业务,这可能才是它真正值得重视的地方。

这几天爆火的 open 可乐,对普通来讲意味着啥呢?其实我挺悲观的,因为啊,它有可能会放大社会的不平等,普通的你想用它,反而可能需要一定的技术门槛和资源了。我是关注他,你想一想,你仅仅是想要一个 ai 助手帮你做个 word, 发个邮件, 那他仅仅是帮你自动化而已。那么一个只会发邮件,写 word 自动化的助手,他对你有啥用啊?如果你不能用发邮件写 word 赚钱,那你不就是那个即将被替代的人呢?但如果你本身就要靠这个去赚钱,那他可能就会帮你啊,优化工作流,自动化任务,而且会让自己更聪明。 你现在开始,有的人啊,已经开始拿他构建投资策略了,处理数据分析,写代码,甚至睡觉时,龙虾助手都会帮他运行白天的工作流, 这真的是锦上添花。而且 open klo 它的意义就在于你作为个人,你能否掌握互联网人工智能为自己赚钱的方法。你要是掌握了真的 open klo 这些工具,它就是你这些能力的放大工具,而且它是无数倍给你放大,甚至放大百倍、千倍、万倍你所做的那些经营。你比如说最近爆火的富盛, 他原本就有成熟的工作流,会赚钱路径, oppo 可乐对他来讲,那不就是自动化流水线吗?你们想说,富盛在玩转龙虾的时候,他是不是也顺手少几个人呢?如果你只是一个普通的打工族,他对你的作用仅仅让你的工作能力提高几倍啊? 你一个人能干十个人的活,那剩下九个人不就是要被开除吗?所以你就只能必须快速掌握他,成为那个不被开除的人。 oppo 可乐,对普通来讲,他就是一个性能爆表、马力强大的赛车。但是如果他给到一个没有地图,甚至去哪都不知道的人手里头, 这最后的结局也只是春节把你拉回老家,跟亲朋好友炫耀一圈以后呢,春节返程之后该上班继续上班,而且它骚鱼的速度那是普通的,你掏不起了。最后呢,你只能把它放在车库,上班路上烧的油你都觉得心疼。它也会让未来的大工作越来越忙,让精英赚钱却越来越方便。 有一个网友,他比喻的特别好,他说这东西就好像你来到了西部花园的终点,你以为那是漫天的露天金矿,你去了才发现,那里早就被重型机械占满了。这几天字节,腾讯、百度、阿里纷纷入场,开始据 open klo 卡位, 开始用自己的应用来填补大家的位置。 open klo, 他的心跳机制和多轮自主推理,他需要海量的头衔。对算类专家来讲, 这是一个最佳的算力变现机会,它终于多了变现消费者收费的机会了。但是如果龙虾这类工具可以跨 app 操作,比如说去黄团订餐,拼夕夕买东西,一个赛尔画画时,那些带一功能的 app 就 开始失去存在的意义了。所以未来有些 app 它的消失已经成了定局。 oppo 可乐,目前它对普通人还不太友好, 它虽然号称开放,但你玩转它,你还得需要去学习,去了解各种本地配置,还得去调教网络工作流,还要处理它带给你那种成功幻觉。而且它的目前不可控性太强,你比如说它处理邮件总是自动删除一些重要文件,而且它权限太高, 病毒甚至都可以和它并存,很多大场景开始限制它的使用了。这一天,很多人对 open call 这种应用产生了一种幻觉,觉得用它自己可以逆袭了。 但是你要明白, open klo 它有三大难关。第一大难关可能就是你需要掌握它的本地化配置和工作流设定。第二大难关是 open klo 放大的工作流对你有啥用?你想明白了吗?第三大难关就是你自己如果还没有掌握利用互联网产生财富的方法, open klo 对 你来讲,它就是个娱乐的工具, 就像那辆跑车一样,你开完娱乐完了还得放回车库。如果他以后使用越来越方便,像傻瓜都可以入门的话,那你说一个人人都有外挂的时代,那外挂的意义不就是让大家来到一个新的平等位置吗?如果人人都有含绿的那个小绿瓶,那是不是世界上的仙草就不值钱了呢? 现实中呢,他已经开始放大普通人和精英间的区别了。以前你和精英间的距离可能是十,那么他会把你和精英间的距离放大到百倍、千倍、万倍。 普通人和鲸的距离不止没有拉近,反而会越来越远。咱们可以啊,把 ai 当成火药,精英呢,已经可以拿它造大炮,而普通人呢,只能把它当烟花玩。当然,这不是 ai 的 错,这是一次人类生产关系的重塑。你现在的问题不是要搞清楚 open klo 怎么玩,因为它终究有一天会进化成像傻瓜一样,必定人人会使用, 你现在当务之急可清楚你怎么能利用这些 ai 工具找到现在就能赚钱的渠道,然后再利用这些工具去放大这些特点,就在普通人发现它的特点之前,赶紧把河沟里最后那点金沙你赶紧逃走。而且还有一点大家一定要知道, 就是无论它的本地配置还有算力,你都得花钱,而呢,你呢?还得给这辆马力澎湃的赛车你得加满油,如果不加满油,这辆赛车它有啥意义呢?