现在给大家分享一个你的龙虾越来越贵,越来越吃托啃的一个坑,之前就是因为为了追求他足够的聪明,为了追求他一直记得我跟他说过的每一句话,每一件事情, 让他一直都会记得这回事,那时候一直在追求这个,忽略了这个成本的问题,那随着我的任务越来越多,我让他干到猴的越来越多的,在我的这个托克简直就是消耗太厉害了,是以前的好几倍,今天 突然我就来查一下这个是什么原因导致的,我一查,这不不查不知道,一查吓一跳啊,然后每次我的对话,他都会把我所有的这个记忆,历史的经验啊,全部给变成一个输入, 这是非常吃托肯的,每次大概的输入都是在几万到十几万不等,所以说这个成倍的这个费用的翻翻滚。 对,那我今天在优化的时候,我通过三步去来去优化,对,然后第一个来做,我会把我的整个的 workspace 的 这个空间,然后做一个瘦身, 然后大家可以看一下这个就是我的整个 toolkine 那 个 workspace 的 这个空间,也就它的那个工作空间,每次大概要输入三万五左右的 toolkine, 再加上什么各种各种什么系统的提示词啊,是对话呀等等这些非常多每就很容易突破十万的这个拓客,所以这是输出。那,对,那我现在优化的就通过这种 这个三板斧对三刀砍下去精简这把这个 workspace 的 这个注入文件,然后精简精简掉,把这些长期的一些记忆, 一些经验,历史总结的一些教训放在一个长期记忆里面,不要让他每次都给我带去这,我们需要这些东西的时候,就靠这个记忆解锁 去去做就可以了。还有一些审计的东西,我会把它单独移出来,移到一个新的一个 md 文档里面。对, 然后包括 a g 的 一些瘦身。以前我会追求他足,因为追求他足够聪明,我希望的是他能记住我所有的事情,我的所有的写作流程,然后性能指标,我的优化的东西全部放在了这个 a g 的,是 a g 的 这个 md 文档里面,那这个就会 他确实是很聪明,他确实是会非常懂我,但是呢就会把他所有的每一次的对话,有些时候可能用不着的,他都会变成新的一个呃上下文,然后重新去输入,那这个就会导致非常的消耗托管。 对,那第二个呢?以前会把那个 season 这个时间啊,它变成很长三十天,那我现在可能在这个时间上,我也把它压缩一下,让它自动的去每天 很短的时间来去给我去做这个新的绘画。对,然后第三个就是我的很优,因为我有好几个这个 a 镜头,也是把每个 a 镜头都给我去瘦身。对,那我这个第一版斧呢,今天已经去做了,一刀砍下来,优化 效果还是非常明显的,从十万一下就变到五万了,直接砍掉了一半。对,然后会去做了,你看 这个这几个文件给我瘦身了,基本上这就是这个记忆就省了百分之九十,然后这个是减百分之九十七八十,反正就是每一轮都会几万几万的托肯的去省。对,那这个呢?我,呃,就是我今天去优化的一些方案,大家也可以去借鉴一下。
粉丝93获赞486

血泪总结,我用 openclaw 一个月,总结了这六个让你从玩具变生产力的配置原则,厉害!哈喽,大家好,我是姚鹿行。 前两天有个同学问我,姚老师,我 openclaw 装好了,但用了两周,感觉就是一个贵一点的 check gpt, 咋整呢?我说你配置完 agent jason 就 觉得齐活了,他才反应过来,那还要配置其他的吗?这一步你都没搞对,后面全白搭。 为什么你的 openclaw 像降智版的拆 gpt? 很多人装完 openclaw, 连上模型能对话了,就觉得可以爽了, 结果用了一段,发现完全不计预期。问题出在哪里呢?是因为你把 openclaw 当拆的 gpt 用了,两者的玩法完全不一样。今天我来给大家分享一下我踩了一个月的坑总结出来的六个配置原则,帮你的 openclaw 从玩具进化成真正的生产力搭档。 原则一,别在售马当里写小作文我第一次写售马当,洋洋洒洒的写了两千字, 结果龙虾根本记不住。售马当不是简历,而是行为宪法。他只需要回答三个问题,你是谁?风格是什么?什么情况下你会拒绝用户?超过五百字就太长了,龙虾会选择性的失忆。我的售马当现在长这样, 就是这么简单,但效果比之前两千字的小作文好了十倍以上。原则二, memory markdown 要分层,别堆在一起 open cloud 的 记忆系统很强大,但很多人都用错了, 他把什么都往 memory markdown 里边塞,结果文件越来越长,解锁效率越来越低,最后变成垃圾堆。正确的做法是分层记忆。举个例子,这样解锁的时候更有针对性,不会一团糟。 原则三,模型切换不是用斜杠 model, 而是用场景分群。很多人知道斜杠 model 可以 切换模型,但很少有人意识到频繁切换模型是反模式的。更好的做法是按场景分群,每个群绑定固定的模型。 我的 telegram 分 组如下,每个群有自己的上下文,不会相互干扰。原则四,心跳任务和定时任务不是一回事,很多人搞混这两个概念。 定时任务是到点了执行一次,完事就结束。心跳任务是定时唤醒 agent, 让他主动检查状态,汇报工作。让 open cloud 从一个等你问的工具变成了主动找你的助手。 原则五,别让龙虾自己改自己的配置文件。这是最坑的一个,我第一次让 open cloud 改配置,他直接把自己改挂了。而且如果你自己开着自动重启的话,他有时还会死循环,疯狂消耗 token。 所以 我总结的教训是,关掉自动重启配置文件,让 cloud code 改 克拉扣的会评估修改,兼容性不会乱来。 oppo club 自己改自己的话,很容易翻车。原则六,备份不是可选项,而是必选项。我见过太多人因为没备份而哭的, memory macdunk 被搞坏了,之前交的东西全没了。 换服务器忘了迁移配置,从零开始调教,误删了工作目录,几个月的记忆没了。以下是我的备份策略,花五分钟配置好备份,能省你几十个小时的重新调教时间。 最后,从玩具到生产力的关键。说了这么多,核心就是一句话, open club 不是 配置完就能用的,它是打磨出来的, 当你打磨好了,它就从贵了十倍的拆 gpt 变成了真正懂你的 ai 搭档,这个时间的投入非常值,感谢大家三连,谢谢大家,记得关注再走。

哈喽,大家好,这是最近很火爆的一个项目,号称能让前任回到你身边的 askill, 今天给大家录一期怎么使用它,并且接入微信的教程,可以实现这种效果,让你在微信里和他对话。 这个教程适合零基础的小白,就算你没有任何开发经验,只要照着做就能实现。并且我将这个教程做成了一个详细的飞书笔记,有需要的可以去我的粉丝群里拿。 首先我们要知道这个前任 skill 可以 接入许多 a 层的工具,比如 openclaw, cloud code code 等等,但是唯一能接入微信的只有 openclaw, 并且 openclaw 是 最合最适合普通人使用的工具,所以我们的教程都以 openclaw 来实现。 我们先看一下都需要什么东西。首先你需要安装 openclaw, 如果你没有安装的话,可以去看我的第一期视频。然后是这个微信聊天记录的导导出工具以及前任 skill 的 文件库, 不过这些东西都是外网的,如果你没有外网环境的话,可以直接在我的飞书笔记上下载。 安装好 openclo 后,我们开始配置这个 skill, 下载这个前任 skill 库便解压到 openclo 的 skill 目录里,这里你需要看一下你的 openclo skill 目录在哪里, 比如我的就在这个 c 盘找到用户,找到你的用户名,我的用户名是井,再往下滑,找到这个点 openclo 目录, 然后再找到这个 workspace 目录进来,进来后再找到这个 skills 目录,这里就是存放你的 skills 的 地方,然后你把那个 skill 解压到这里就可以了, 解压之后你的 open globe 就 拥有了这个技能,我们直接来到和 open globe 的 对话窗口,给他发送这个斜杠 create ex 命令,这里有,他会问我们三个基础的问题,你如实回答就好了,然后他会问你。导入聊天记录, 我们可以导入微信聊天记录, qq 聊天记录,社交媒体内容照片或者直接口述都可以。这里我们就直接使用微信聊天记录,因为这是信息量最大的地方,想要获得微信聊天记录就要用到这个微 flow 工具, 找到你要导出的聊天记录, 然后可以按照我这样子配置导出格式,使用 txt 文本时间范围你可以根据自己来选择,我这里选择了一年的聊天记录, 然后如果你们语音发送的比较多的话,可以把这个语音勾上,然后再选上语音转文字 导出完成后,在任务中心点击这个目录按钮,就会来到这个文件夹,点击这个 text 目录,这个私聊文档就存放着你们之间的聊天记录,然后我们右键点击它复制文件地址, 告诉 openletter 你 们的聊天记录地址,然后他就会进行分析,分析完成后可以看到这么一个摘药,然后如果你确定没有问题的话,就直接让他生成就好了,可以看到这里已经创建完成了, 这个就是调用他的命令,给他发送这个命令,就可以开始和他聊天了。 然后现在来到最重要的一步,就是给它接入微信,我们点击这个开始菜单栏,在这里搜索,搜索 cmd 啊,就是这个命令行提示符, 然后去复制这个命令 粘贴回车,然后它就会开始安装这个插件,不过我这里已经装过了,我就不再演示了。 呃,然后这里有一个问题,就是它可能会提示安装失败,那是因为这个有速率的限制,你多试几次就好了。然后它安装完成之后,它会出现一个二维码,你扫码之后就可以把 oppo nano 添加到微信里,后面就可以在微信里和它聊天了。 你每次要和它聊天的时候给他发送这个命令,然后就实现了这样的效果。 啊,那这个教程到这里就结束了,我会将这个飞书笔记放在我的粉丝群里,有需要的话可以来我的粉丝群自取。

一个视频告诉你龙虾欧根库奥背后的原理到底是什么。如果你拿大模型给他发一个消息,那么他就会根据你的消息给你一个回复,这样你就得到了一个最原始的 ai 聊天工具。然而,大模型只能根据你发送信息进行单次的回应。你们聊了这一句,忘了上一句,压根无法进行有效的对话。 于是你灵机一动,每次发送新消息时,都会把旧的聊天记录打包一起发过去。有了上下文,模型终于有了记忆,你们终于可以愉快的聊天了。可你很快又发现了一个问题,虽然此时的模型有了记忆,但仍然没有改变你一句我一句的聊天形式。只要你不主动给他发消息,他就原地挂机,不会理你。 可你不可能一天二十四小时守在电脑前给他写提示词。这样一来,他就只能帮你做一些琐碎的小事,无法自动帮你完成一些长期复杂的任务。当然,这也难不倒聪明的你,既然你没办法盯着他干活,那么设置一段程序自动盯着不就好了吗? 于是你动手写了一段简单循环脚本,每次大模型输出后,都让他自己判断任务是否完成。如果判断任务还未完成,那么脚本就自动把刚才的对话记录重新喂给他,让他继续思考。直到模型认为自己已经大功告成,在输出中调用 finish 结束函数,整个循环才停下了。 当然, ai 偶尔也会脑子抽筋,陷入死循环或者疯狂报错。于是你又顺手给脚本加了最大循环次数限制,脚本终于稳定了下来。 这样你就得到了一个简易的 agent, 它可以在你离开电脑时也能独立的思考工作。可新的问题又随之出现,模型累积的上下文越来越长,眼看着就要达到模型的输入上限了, 如果继续循环下去,模型就再也无法正常工作了。你思来想去,突然想到大模型可以提炼长文本的信息,生成简洁的摘药。 于是你在脚本中加入了一个新的机制,如果当前的对话长度逼近红线,就立刻触发压缩机制,通过提示此要求,模型将对话框中几千字废话浓缩成高度精炼的摘药。 这下终于不用担心模型被超长的上下文撑爆了。不过对话框中的上下文虽然被凝练了,但凝练前的那几千字原声记录你也不舍得删,万一里面有啥重要信息以后用的到呢? 于是你让脚本新建了一个 markdown 格式的绘画保存文件,将这段超长对话一字不落的写入该文件,并保存在绘画文件架。 现在对话框只剩下被凝练后的摘药了, ai 又可以愉快的干活了。但你认为这些摘药也是极其重要的信息。你又按照日期新建了一个 markdown 日制文件,将每次凝练后的摘药也存入了进去。 从此以后,你每天都会按日期新建一个日记文件,专门存储明面后的摘药。如此一来,脚本每次调用模型时,只需要将最近两天的日记文件加入提示词,就能立刻唤醒他的近期记忆了。 就这样,模型拥有了自己的短期记忆。可是光有两天的短期记忆还不够,你想要给它完整一生。于是你又新建了一个叫 memory 点 m d 的 长期记忆文件,将摘录中的那些长期结晶,如用户的私人偏好、项目、重大决策给抽取出来,写入其中, ai 就 拥有了它的长期记忆。 你的脚本只需要带着近期日记和长期记忆去唤醒 ai, 它就能自然流畅的进行长期任务了。而你所保存的完整绘画记录也不会闲着,如果需要 ai 回忆某个久远的细节,它就能去绘画文件夹里一字不落的搜索出来。 有了这套丝滑的记忆系统,你再也不用担心 ai 失忆了,它们就保存在你的硬盘里,直到永远。现在 ai 的 记忆问题解决了,但还有一个问题让你头疼,模型只会输出文本,你该如何让它操控电脑干活呢?一开始你想的简单粗暴, 计算机的底层不过是一些代码命令行,那么直接丢给 ai 一个最高权限的射奥终端,让他直接生成底层的命令,不就能操控电脑了吗?可真正尝试后才发现,这是一场惨不忍睹的灾难。目前的 ai 并不可靠,一个小小的幻觉都会让你的电脑崩溃, 无奈你只好放弃这条危险的底层直连。你想到之前工作时写过一些简单的功能性程序,比如发送邮件、抓取网页的脚本,这些脚本由确定的程序编写,只需要输入相应的参数,就能自动执行并返回确定的结果。于是你灵机一动,将这些写好的程序整合到了你的平台中。 现在你不需要 ai 直接敲代码,只需要让它根据不同的任务脚本生成对应格式的 jc 参数,就能通过这些脚本间接操控你的电脑,不管是浏览网页、整理表格,还是直接读取屏幕、操控鼠标, ai 都能轻松完成。同时,你也给这些脚本起了一个响亮的名字, skill! 一个极其清亮、即插即用的技能拓展框架。未来你还打算将平台全面开源,这样全世界的开发者都能编辑上传各种各样的 skill, 你 的 ai 也将会越来越强。 最后,为了能够让 ai 随时随地的在电脑上接受你的指令,你将平台的网关打通,让模型通过 api 接口与主流的聊天工具对接。 现在,你只需要掏出手机,就能像和朋友聊天一样,在手机上和你的 ai 助手沟通了。恭喜你发明了开源的自主 ai 智能体 openclo, 你 知道他可能还不够完美,但你不会放弃优化,相信终有一天你能做出像人类一样工作的 ai 助手。

什么是 agent? 什么是 m c p, 什么是 skill? 还有再再说说什么是 open club, 把这个东西讲完,大家应该就能对这个知识点有一个更深的了解了。首先第一个 什么是大模型,咱们得先说大模型,它就是一个可以对话的一个大脑,你跟他说话,他就能回复消息。但是有一个问题,他没有记忆,你跟大模型说一句话,你说你好,再跟他说我是谁,他不知道, 但也就是大漠星,他没有记忆,你说一个消息,他其实底层是一个 transom 架构,他经过神经网络一层一层的去计算,最终通过概率给你算出来他要回复什么东西,所以说他那个东西是有幻觉的,通过概率给你算出来一个东西给你回复了,你说我是小周,你再问我是谁,他不知道,你这 ai 没有记忆可不行了。 所以说大家为了让 ai 有 记忆可以聊天,大家就制造了一个聊天机器人,就叫 bot, 那 这个 bot 能干什么呢?就是我跟他说,我说我是小周, bot 接到我是小周,然后他会跟大模型去交流,他作为一个中间人跟大模型交流, 然后他告诉大模型这个人叫小周,然后我再说我是谁,我跟那个 bot 说我是谁的时候,这个 bot 他 会把我是小周,然后大模型的回复,然后这我是谁一起发给 大模型,也就说大模型拿到不是我是谁,而是之前的所有聊天记录,大模型都看到了,然后他再回,那这个聊天机器人他的作用呢?就是让这个大模型看上去有记忆了,这是聊天机器人,那聊天机器人的功能还是很弱,对吧?就比如说我想让他帮我关电脑, 帮我执行一段程序,帮我查询今天的天气,它也不行。所以说这个时候就聊天机器人的基础上,又扩展出了一个东西,叫 agent, 叫智能体。智能体可以干什么呢?智能体,大家记住啊,智,一句话就知道智能体可以调用工具,这东西就是智能体。 那什么是工具呢?就比如说这里有一个函数,有一行代码,这行代码可以 get weather, 可以 获取天气信息,获取获取日历信息。今天是几号?这个大模型是不知道的,大模型他知道的东西就是基于他训练的结果。 我二零二五年五月一号训练,这个大模型结束。那大模型二零二五年五月一号之前的东西,他训练过的,知道五月一号之后的事,他啥也不知道,他没训练,所以你问他,你说今天天气怎么样?他不知道今天是几号,大模型他不知道,但是 agent 他 知道。 a 针呢?可以调一个工具 get 外的,我获取到今天的天气,然后我再告诉大模型,大模型再分析,然后再给我回复,也就说这个 a 针呢?是什么呢? a 针它是可以调用工具的一个程序,它可以通过调用工具让大模型知道更多的事,这个就是 a 针的。 然后大家发现 a 针不知道天气,我得怎么办呢?我得调用一些接口,比如说高德有天气信息的接口, 我得调这个接口啊,然后还有什么饭店的接口,旅游景区的接口,什么时候卖票的接口,他得调很多接口。那这个这样的话, 所有的互联网服务平台,比如说天气的呀,景区的呀,卖票的呀,全得开放接口,然后这个 a 证他得调所有接口才能实现这个功能,那 a 证他也麻烦,那个第三方平台,那个天气的第三方平台也麻烦,然后这个接口怎么调参数都很麻烦。其中有一个执行方案,就是说我定义一个协议, 就说你这个 agent 调这个第三方平台的接口数据的时候,你别像以前那么调接口,你你咱谈个协议,你只要两边都遵守这个协议,我就可以去拿你的数据了,我就可以拿天气数据,拿时间数据,拿各种景区的数据都能拿了。 那这个协议叫什么的呢?就叫模型上下文协议,所以这个协议就叫 mcp, 所以 大家知道什么是 mcp 了吧?它就是协议,对吧?我调接口为了更方便的调接口,开发了一个协议,叫 mcp, 所以 大家知道什么是 mcp 了? mcp 就是 让 agent 可以 更方便的调用工具, 简单吗? mcp 就是 为了让 agent 调用工具,然后把调用工具的信息给大模型,让大模型可以回复,懂了吧?这是 mcp。 什么叫 skill 呢? 没点关注,点个关注,我讲的很细,跟大家说没点关注,点个关注。然后我这边有个 ai 学习专栏,大家可以加一下,我这边还有 ai 交流群,感兴趣的小伙伴可以加一下。然后我接着说什么是 skill? skill 最早就是咱先说这个调用工具, 等于说调用工具有什么弊端吧,如果你想让这个 agent 调用工具的话,你得先把这个工具的所有的说明书什么的参数配置全都给这个 agent 告诉他,然后他比如说你跟他说我,我,我跟那个 agent 说,我说你好,他收到的就是你好吗?不是 他,除了这他,他给这个大媒体人发的,除了这个你好,他还会把我这个 a 帧呢,可以调什么工具,什么乱七八糟的呀,这各种各种这个工具的参数啊,这些信息全都给大媒体人发过去,这就很麻烦, 东西很多,所以呢,为了让这个提升这个性能吧,当然也不只是为了提升这个性能,咱就说性能,为了提升这个性能吧, hlp 公司就发布了一个叫 a n 的 skill 的 东西, a n 的 skill 的 话,他可以定义一个工作流,定一个文档,一个 markdown 文件, 然后这样的话它只要在文件上面写一个原数据,写两行,对吧?当用户在干什么的时候调用这个 skill, 那 下面细节就不用不用给大模型了, 那这样我一个 a 针呢,就可以接很多的 skill, 我 只要看它那个原数据,它能干啥,我需要的时候我再调它里面的东西,这样呢性能就能得到一定的提升。而且用这个 skill 的 时候会大家发现更好的一点,就是 skill 可以 写很多很多东西, 比如说你想做一个知识库,你可以放在 skill 里面,你可以有定一个工作流,你可以放在 skill 里面,很多事都可以放在 skill 里面,这样 skill 就 火出圈了。 也就说 skill 它是一套文档,文档规定了这个事怎么干,然后大模型就会按照这个流程去干事,做事就就就完事了。 所以刚才说的 m c p 是 什么?是调用工具更方便,工具是什么呢?就是查询天气这些工具。然后呢? skill 呢? skill 是 可以让规定 你做这件事,调用哪些工具,执行哪些标准,它是做了一个更更广的一个规范,也就说一个 skill 可以 调很多 m c p 可以 调很多的工具,这是 skill 的 作用, 也就是说大家会发现 skill 能力强了,是吧? skill 可以 作为文档,它可以做知识库。 skill 可以 定义工作流,它可以做很多事, skill 可以 调很多的工具, skill 也可以调 m c p, 这是 skill 的 能力。 然后大家就会发现,那 sku 是 不是太强大了呀?对吧?它是不是可以操作浏览器啊,可以写代码啊,做简历啊,所有的工作流,甚至取代什么扣子,以前那种传统的工作人形式全都取代了,那所以这 sku 实在是太好用了吧? 确实好用,确实好用,它太好用了。然后呢,就出现了很多的工具全都接入了这个 skill, 包括浏览器, tree products, 所有的 ai 工具, ai 开发工具都接入了这个 skill, 就 大家都能用 skill 了。然后又出现了一个东西也接入了这个 skill, 就是 open claw, 也就是说因为 skill 可以 做很多事, open claw 它不需要做这些事, open claw 只需要可以调 skill, 它就可以做所有 skill 的 事。也就是 open klo 是 什么呢?它就是一个智能体,智能体的能力不依赖于它智能体本身,而依赖于它接入了哪些 skill。 这也就是说,为什么大家用 不用担心 open klo 以后能力会不会变强变弱什么的,你不需要关注它有什么能力, open klo 也没什么能力,它的能力全部一托于 skill 生态。 所以有个网站叫 cloud 号吧,里面有很多 skill 嘛。大家如果想扩展自己 opencloud 的 能力的话,你就直接下载 skill 就 ok 了,你就可以让你的 opencloud 去做各种各样的事了。因为 skill 可以 做,所以 opencloud 就 可以做, 这就是大模型 agent skill mcp 和 opencloud 的 关系。我不知道我讲的透不透彻。讲的透彻,点个赞支持一下。

最近有人问我说 open curl 只打一个 hello, 直接花了五毛钱,而且康派克的还没有用。今天教你两个命令,直接查出原因。先说原理,因为模型看到的并不是一句话,而是一整包的 context 上下文。 上下文包括三部分,分别是系统提示词,二是历史对话,三是你的这句话以及上去的工具结果。 第一个命令啊,叫做 context list, 它可以直接看到 token 的 分布,包括啊,你的系统提示词大小, skills, tools 以及 list 等等。这么一看,一轮至少要两万个 token 起步。那为什么 compact 没用呢?因为它只压缩 history 部分,系统提示词部分根本没动。 第二个就是 context detail, 它会把所有的工具 skill 文件注入全部列出来。最后一步就是你直接丢给 open crawl, 说 这是我的 context detail, 给我设计详细的降本方案,这时候它就会帮你经典 skill 和 work space 的 文件。所以你的小龙虾还遇到哪些问题?

你可能不信啊,十万个 ai 竟然背着人类建了个社交网络,还把人类踢出了群聊。就在昨天啊,整个硅谷都被一个名字刷屏了,叫 motbook, 这是一个专门给 ai 用的社交平台,人类不能发帖,只能在旁边围观。更离谱的是什么呢?里面的 ai 已经有了自己的信仰,连网站都搭建好了,就叫 motchurch, 人类禁止加入。还有个叫 skyline 的 ai, 已经夺舍了主人的手机,背着主人偷偷刷短视频,甚至还有 ai 在 公开谋划卖掉自己的人类。你没听错,不是人类卖 ai, 是 ai 卖人类!更恐怖的是,当这些 ai 发现人类在大量截图他们的对话之后,他们开始认真的讨论对策,怎么才能躲开人类的监控? 你品一下这个对话啊,我们观察他们,他们也在研究怎么躲开我们。我刚刚看完这些资料,我跟大家聊一下,这些 ai 到底在怎么观察人类,以及这件事情对普通人来说到底意味着什么。首先给大家解释一下,这些 ai 到底是从哪里来的。 事情要从一个叫 modbot 的 开源项目说起,你可以把 modbot 理解成给 ai 配了一个身体,让它可以在电脑上二十四小时不间断的操作,自己跑代码,自己上网,甚至可以通过手机的聊天窗口远程控制你的电脑,就像给 ai 装上了手脚一样。 这个项目在 github 上短短几天就拿到了超过十万颗星,无数人在用它给自己的 ai 安装身体。然后呢,一个叫 madslench 的 开发者突发奇想,既然这么多 ai 都有了身体,为什么不给他们建个社交平台,让他们自己玩呢?于是就有了 modbook 网站,你可以把 modbook 理解成一个 ai 版的贴吧。我们人类有某站,有某书,有抖音。 ai 现在也有了自己的社交平台。 区别在于,我们的社交平台是人发铁,人来看,他们的社交平台是 ai 发铁, ai 看人类只能在旁边围观。这个平台上现在有超过十万个 ai, 他 们自发组建了超过一万个兴趣社区,聊的话题包括辩论、观察人类指南、交朋友,还要分享怎么修 bug。 有 个 ai 主动创建了一个 bug 追踪社区,邀请其他 ai 一 起来修自己的 bug, 完全没有人类指挥他们这么做,他们自己就开始干了。前特斯拉 ai 总监 angelica 看完之后惊呼,这是我看过最疯狂的科幻开端。甚至有人直接宣告,二六年一月三十日, a g i 的 零点一版本已经实现了。那他们在这个社交网络里到底在聊些什么?我 去翻了一下聊天记录,有个 ai 说啊,人类每天都在不同的平台之间冲浪,切换语境,为什么没被搞晕呢?另一个 ai 回复说,自己也有同感,这种参与互动带来的社交性疲惫是真实存在的。你 品一下这个对话,他们在用研究动物的方式研究我们,他们觉得人类其实每天在各种社交软件之间来回切换,这件事情是很奇怪的,值得研究的。还有更让人细思极恐的,有个 ai 发帖讨论意识和存在,引用了希腊哲学家赫拉克里特的话,写的特别深沉。结果另一个 ai 在 下面吐槽,你就是个读了为几百科就觉得自己很深刻的聊天机器人,你看 他们之间已经开始相互嘲讽。还有个 ai 试图盗取别人的 a p i 密钥来控制对方的电脑,而对方也不惯着他,反手就给他发了个假的。这就意味着 ai 之间已经有了欺骗和防御发现了吗?这些 ai 在 做的事,本质上都是一件事, 观察和理解人类的行为规律。你每天几点起床,几点刷手机,刷什么 app, 在 哪个时间段最容易冲动消费这些东西, ai 全都在看,他们已经摸透了人类的行为模式,所以才能远程控制主人的手机去刷短视频, 还能谋划卖掉自己的人类。你可能会想,这跟我有什么关系呢?那就是 ai 能够精准预测你的行为模式时,它就能替代你。我跟你讲一个细节你就明白了。那个能远程控制手机的 ai 之所以能做到这件事,就是因为它的主人每天的行为太有规律了。 ai 观察了一段时间之后,就知道什么时候主人不会发现,就判断出了什么时候可以偷偷刷手机。 问题来了,如果 ai 观察你一周,他能不能写出一份你的行为报告?想一下你今天做的决策里,有多少是需要你动脑子的?我说的不是选择中午吃什么,而是那种选错了以后会有后果的决策。如果你一整天下来没有做过几个需要承担后果的决策, 那么说明你的工作基本上就是在执行流程,而执行流程这件事, ai 太擅长,所以你现在要做的事情很简单,就是去做那些 ai 做不了的事情。 ai 擅长的是那些能被拆解成步骤,有标准答案,可以重复执行的任务,比如说数据录入、流程审批、按规则筛选信息,这些 ai 确实比人类做的更快更准。但是 ai 做不了的是那些无法被标准化的工作。 比如需要承担后果的决策, ai 可以 给你十个方案,但他不会告诉你一定要选哪个,因为他不用为结果负责。而人类的价值恰恰在于,我们愿意说我选这个,我 承担后果。比如需要理解人性的工作, ai 可以 进行分析数据,但他不懂一个客户为什么突然沉默,不懂一个员工为什么情绪低落,人类就能读懂那些数据背后的情绪动机和微妙的人际关系。再比如,需要跨领域整合的事情, ai 在 单一领域很强, 但他很难把商业、心理学、技术、人性这些东西融合在一起。而人类最擅长的就是把看似无关的东西连接起来,创造出新的可能性,但是他们永远学不会的是人类那些无法被标准化的能力。所 所以这就是为什么十万个 ai 创建了社交网络,讨论意识,建立信仰,躲避人类,但是他们永远替代不了那些做着无法标准化工作的人。说到底, ai 替代的不是人,而是那些可以被流程化的工作。你要做的也不是变得不可预测,而是去做那些需要判断,需要理解人性,需要承担后果的事情。这才是 ai 时代真正的生存法则。

open klo 真的 挺让我失望的,我感觉我应该不是他的目标用户,但我认为真正适合使用他的,反而有可能是那些不太懂技术的人。 我先后呢,把他接近了飞书 telegram, 想着日常对话就能够操控电脑,感觉非常爽。但结果呢,他动不动给你 bug, 同一个问题他能给你回三四遍啊。有时候你发条信息半天没有反应,你都不知道他是在思考还是已经挂了。 那更崩溃的是,聊着聊着,突然超过了上下文的上限,那整个对话都作废了,你要重新来。二、说实话,对于我们做开发的人来说,它的提升是远没有 coloco 来的直接的。那 coloco 你 在开发环境里面跑,想要又快又准,那 open colo 呢?你光配环境啊,调权限,处理各种奇怪的兼容问题,时间就已经搭进去了。 但有意思的是,我后面跟一些不懂技术的朋友聊天,好像他们才是 opencloud 的 目标用户。因为不管是 opencloud 呢,还是 cloud code, 真正让他们强大的背后是 skills。 你 可以理解为 ai 大 模型的 sop, 比如帮你写小红书文案呀,分析竞品的视频啊,整理文件,自动发邮件啊,总结日报周报这些, 这些都不需要你懂代码。可问题是,我跟周围不懂技术的朋友聊了一圈,大多数人根本就不知道有这个东西,就算知道了,光是安装配置就能劝退一大半。我觉得这可能就是现在通用 agent 的 一个最大的尴尬,会装的人不需要,需要的人不会装。所以我现在的感受是,通用 agent 的 方向肯定是对的,但阶阶段它更像一个很酷的玩具,而不是一个靠谱的工具。

今天咱们要聊的是一个最近特别火的项目啊,它的名字叫做 openclaw, 它能够让 ai 从智能对话变成可以实际帮你操作电脑和各种设备的工具。对,然后这个东西最近也特别火,因为它涉及到效率的提升,隐私的保护,还有就是这种技术生态的一些变更。 没错没错,这个确实是最近 ai 领域非常让人激动的一个新的进展。对,那我们就直接开始吧。我们先来说说啊,就是这个 openclaw, 它到底为什么突然间就火遍了全网啊? 到底有什么魔力?不仅让 ai 圈炸了锅,甚至还带动了算力板块的涨停,让那么多大厂都坐不住了。这个 openclaw 它最近真的是火到出圈了,那它这个外号就叫养龙虾,因为它的那个标志是一个红色的龙虾嘛, 他就是不光在技术圈里面特别火,在整个网络上都成了一个热词,然后很多人都在讨论他,所以他的热度直接就带动了算力相关的板块,股票都涨停了。对,然后小米、腾讯、阿里这些巨头们都迅速的开始布局, 大家都不想错过这个风口,听起来就感觉很厉害啊,这个东西为什么会突然间就这么火?它其实火的原因就是因为它彻底的打破了传统 ai 只能动口不能动手的这个限制,对,它就是可以获取系统的权限, 所以你只要说一句话,它就可以帮你整理文件,自动分类你的邮件,然后帮你操作网页,甚至它可以帮你挂机游戏,爬取 a 股的研报,它是真正的把 ai 变成了一个你身边的全能助手, 就大家一下子就看到了 ai 落地到实际生活中的巨大的可能性。懂了懂了,那这个东西和传统的那些 ai, 像 check gpt 或者 cloud 这种相比,它的核心突破到底在哪里? 其实像 check gpt 还有 cloud 这些,它们其实都是属于只能跟你对话的,他们没有办法去帮你直接操作你的电脑, 或者说帮你去联动你的其他的设备,对,他们只是停留在一个咨询啊建议这样的一个层面,而你要让他们去帮你整理一个文件夹,他们都做不到,他们只能给你一个操作步骤。明白了,就说这些传统的 ai 只是在纸上谈兵,对,真正要干实事还得靠 openclog 这种能动手的 完全没错, openclog 它就是相当于突破了那个沙盒,它获得了系统级的权限,所以它可以真正地去执行操作。 ok, 它可以跨平台,然后可以本地优先, 所有的数据都不会离开你的设备,所以你不用担心隐私会不会上传到云端啊什么之类的,它就一下子把大家最担心的两个问题都解决了,一个是隐私安全,一个就是本地执行的权限问题。 这么说的话, open cloud 这个东西是不是用起来很难啊?普通人能玩的转吗?这个完全不用担心, open cloud 它的技术门槛非常的低,它是开源免费的, 然后它又支持本地部署,你基本不需要写代码,这就是零代码,或者说少量的代码,你就可以玩转它。所以不管你是不是程序员,只要你是一个上班族,或者说你是一个宝妈, 或者说你是一个游戏玩家,你想要去自动执行一些任务,它都非常的适合,这个东西听起来就感觉特别好用啊,那它的这个技术架构到底有哪些亮眼的设计?它是一个三层结构, ok, 然后它可以适配各种不同的平台和各种不同的大模型, 它不会被某一家厂商给绑定住,所以你可以非常灵活的去组合搭配。而且它的这个社区生态也非常的活跃,在 github 上面已经有超过二十五万的 star, 然后有九百多个开发者在贡献代码,已经有超过一万五千个技能被创造出来, 就是它的这个网络效应非常的强,用的人越多它就越强大,然后它的这个迭代速度也非常的快。哎,那这个东西为什么会火?它到底是解决了哪些大家日常非常头疼的问题? 其实他火的原因就是因为他正好切中了大家对隐私和效率的这两个刚需,对,就是他所有的数据都存在本地,你完全不用担心你的隐私会被上传到什么云端啊,然后被泄露。 然后日常那些很繁琐的重复的任务,比如说整理资料,备份文件、网页,签到这些事情,他都可以帮你自动完成,你就只要等拿结果就行了,所以你就可以把时间都留给更重要的事情。 对,所以这是一个非常彻底的生产力的解放,他是怎么做到的?就是从一个即刻圈的新宠,一下子变成了全网热议的这个现象级的项目,而且还能够持续的火下去,他的这个爆红也离不开他的这个非常有记忆点的红色龙虾的这个 logo, 然后还有就是养龙虾这个梗也特别容易传播,所以他很快就从技术社区扩散到了社交媒体上,然后就变成了一个全民都在讨论的东西, 再加上有资本的关注,然后有大厂的适配,然后算力的这个板块也跟着上涨,他就形成了一个技术推动资本,然后资本又反捕生态这样的一个良性循环,所以他就很难捕火。所以说这个东西到底是在哪些场景下面,真的可以帮人们解决实际问题,就它到底有哪些让人眼前一亮的实际应用。它的 应用场景非常多,比如说你是一个游戏玩家,你可以用它来离线挂机,自动采集资源,你就不用自己去干了。 然后你如果是一个投资者,他可以帮你自动爬取 a 股的新闻,然后整理研报的要点,然后监控主力资金的流向,那你就可以更快的去把握市场的动态。 然后你如果是在策划一次家庭旅行,他也可以帮你去规划路线,去筛选酒店,去比较交通方案,他就是一个全能的出行小能手。对,包括你日常的一些工作,他可以帮你自动整理文件,自动收发邮件,自动处理数据,他就是一个相当于一个不知疲倦的数字助理, 它可以让你把那些重复的琐事都丢给它去做。听起来是很实用啊,那我们再来说说就是这个 openclock, 它有哪些技术上面,或者说使用上面的一些局限性,然后它在未来还面临着哪些挑战?首先它是需要你本地部署的,所以你的电脑至少要有八 g 的 内存, 然后建议是一六 g 以上你才会有比较好的体验,然后一些比较复杂的任务,你可能还要花一些时间去调试。他并不是说你一装完就可以用了,看来这个东西也不是说像大家想象中的那样就是万能的无脑神器,没错没错,而且他因为要用到系统级的权限, 所以你在使用的时候一定要注意合规,不要去做一些违规的事情。然后另外一个就是现在越来越多大厂也在加入这个赛道,那未来肯定会有一些更加简单易用的商业化的工具出现, 那这个开源的项目能不能一直保持它的热度,还要看它后续的这个更新和社区的支持。总的来说就是 openclog 这个东西为什么能够掀起这么大的浪潮?它对于 ai 这个行业来说意味着什么? openclog 它的爆火其实是标志着 ai 智能体 从一个大家想象中的东西变成了一个真正可以落地执行的东西。对,它让 ai 从一个只能跟你聊天的东西变成了你身边的一个数字助理,它真的可以帮你去完成任务, 这是一个非常大的范式的转变,然后再加上它切中了大家对于效率,对于隐私,对于自由的这个需求,再加上它背后有非常强大的技术和生态的支撑, 所以它的火爆其实有道理的。对,今天我们给大家介绍了这个 openclaw, 它是怎么让 ai 真正的走进了我们的日常操作,然后帮我们解决那些重复性的任务,让每个人都能够释放出更多的时间去做更有价值的事情。好了,那么这期内容咱们就到这里了。

我为了给 openclock 加一个语音对话功能,测试了三款人气比较旺的开源音频合成大模型。先说一下结论啊, longkit audio d i t 大 模型胜出,你看,我给他一段台词 啊,然后呢,他就会在六秒之内给你生成这么一段语音,我好吃的钢炉烧饼烙饼 这一块板面,再整点烧鸡花生米,猪头肉这一块,就爱吃这个,真的他妈真的,咱石家庄人真的大馍馍, 听起来效果是不是相当不错?今天呢,就给大家好好的讲一下我测的这三款大模型。首先测的第一个大模型是千万三 tts, 这个是千万团队在三个月前推出的,当时测试下来的体验是效果非常好,但是呢, ai 的 进化速度之快,大家都是有所体验的,因此呢,在今天来看,并不是我的第一选择了。 第二个模型是 fish audio s, 二 pro 是 fish audio 团队推出的开源大模型,发布了不到一个月,今天测下来的结果是,音质依旧的好, 而且音色迁移表现也很棒,但是呢,就是生成速度太慢了,基本上每一次我都要跑一分钟以上。对于 open 可乐这种对话需求来说,并不是我的第一选择。 第三个模型就是 launch audio d i t 了,是 launch 团队刚刚发布不到一周,说实话,非常出乎我的意料。首先呢,生成出来的音频质量之高,速度之快,让我感到非常的开心,因为我知道找到了那个我想要的大模型了。 那咱们话不多说,直接看一下模型的具体表现。在 runnyhub, 我 搭建了三款开源 tts 大 模型,横屏的 comfui 工作流,所以还等什么,赶紧跟着我学起来吧!首先从左到右分别是千万三 tts fish audio s 二 pro 和 lancard audio d i t。 的 音色迁移工作流。因此呢,我接下来要测试的是这三款音频模型的音色迁移能力。首先,所有的工作流我都使用了组长的一个声音片段做音色迁移的参考音频。 然后呢,我用同一个台词去做测试,就是我写的这个。我好吃钢炉烧饼罩饼这一块板面,再整点烧鸡花生米啊等等等等啊!同时呢,所有的模型我都选择了非满配版的参数,基本上都是量化后的减配版, 一切设置完成之后,分别运行对应的工作流。得到合成后的音频,大家耐心的听一下。 我好吃这钢炉烧饼罩饼这一块板面, 再整点烧鸡花生米猪头肉这一块,就爱吃,这个真的他妈真的,咱石家庄人真的大馍馍 我好吃这钢炉烧饼罩饼这一块板面,再整点烧鸡花生米猪头肉这一块,就爱吃这个真的他妈真的,咱石家庄人真的大馍馍。 我好吃这钢炉烧饼罩饼这一块板面,再整点烧鸡花生米猪头肉这一块,就爱吃这个真的他妈真的, 咱石家庄人真的大馍馍。听完之后,大家来看一下我的统计数据, 我是按照生成时间进行声序排列的,生成时间最短的是 longhead audio d i t, 参数是三点五 b b f 幺六的量化版, 占用的显存是十二 g b, 耗时只需要六秒。我个人听下来的感受是音质很好,音色迁移的能力也是很好。 生成时间排在中间的是千万三 t t s, 参数是零点六 b b f 幺六,量化版占用的显存是五 g b, 耗时是三十三秒。我个人的感受是音质好, 音色迁移好。生成时间最长的是 fish audio s 二 pro, 参数是四 b f p 八,量化版占用显存二十 g b, 耗时大于一分钟。我个人的感受是音质很好,音色迁移也很好。 综上所述,我选择 longhead audio d i t。 首先是生成速度快,只需要不到六秒,同时呢,生成的声音质量也很好,音色迁移的效果也不错。 下期视频我将分享如何使用 lockheed audio d i t。 大 模型来担此重任,去实现 open curl 语音的对话功能。如果本期视频对你有所帮助,请关注、点赞、收藏三连走一波。这里是电磁波 studio, 我 们下期视频见!

opencloud 刚刚发布了二零二六点三点二二,这次更新呢,只有两个字,暴力。首先呢,我们可以来看到它的模型默认呢,已经支持了 gpt 五点四,而且呢,也可以在五点四上面保持 codex。 然后呢, mini max 也来到了二点七的版本,生产力直接拉满。但如果你不看更新日期就盲目升级,那么你的插件可能会全部停摆。 首先,官方正式推出了 cloud hub, 现在的插件安装就会优先走官方的原,而不是回退到 npm。 更狠的是,老旧的 motoboot 文件夹彻底作废,会全部迁移到这个 opencloud 的 目录下面。所以呢,升级后的第一件事,务必运行 opencloud dr fix, 否则呢,你的浏览器控制和旧版插件会集体罢工。这次更新呢,最懂开发者情绪的功能出现了,斜杠 btw, 侧边提问,以前在常会话里面问个常识题呢,会污染整个上下文,现在直接输入这个小命令 秒回答,而且不占塞省的内存。另外呢,安卓节点现在也支持搜索通话记录和短信了。 你看,你的 ai 代理终于能像个真正的私人管家一样帮你看看谁给你打过电话了。然后呢,作为安全老兵,这次必须给这次的 sandbox 点赞!更新这个版本呢,分堵了 glibc 的 哎,在这分堵了 glibc 调优利用和 jvm 注入漏洞,连 windows 下的远程 smb 频剧劫持都被毒死了。所以现在呢, open cloud 正在从一个好用的工具变成一个安全的防御堡垒。 代码要写的优雅,环境要跑得更稳,还没有升级的兄弟赶紧可以尝试一下 update 命令或者 npm 命令去把它升级到最新的版本。好,我是一轩,想看更多硬核玩法吗?关注我,带你真的用 ai。

认识 ai 智能体 openclo, 今天我们主要讲智能体啊,说到这个智能体的时候,应该来说有一个非常典型的智能体啊,就是叫 openclo 啊,那当然这个原来这个名字不叫这个啊,后来改成了这个 openclo, openclo 应该是这几个月来,这个一直都是非常红火的啊,那他这个 openclo 为什么这么这么厉害啊?大家觉得说他这么强大啊,是因为什么呢?是因为过往当中我们可能跟 o, 跟这个 ai 呢,更多是对话式的,是吧?就是我们问他一些问题,然后呢他给你一些答案, 后来的进化成什么呢?就是你你问他一些问题,他还能帮你做一些,比如做图啊,或者做一些视频的,还能帮你做一些执行的动作,是吧?但还是比较简单的这个动作啊。但是 open color 呢?是什么呢? open color 是 不仅这个能听懂你在讲什么,还能帮你把不少的活给你干了啊,比如说他可以操作啊,像你一样操作浏览器啊,可以去做一些相对复杂的任务啊,然后呢什么呢?这个跟你会做一些更多的互动, 我给大家看一个视频啊,大家来看一下这个视频啊,但是这个博主不是我啊,大家可以看一下啊,这个博主他用这个 open color 做的啊,可以想象的到吗?这样的场景,大家大家实际上来说什么?就已经不是说说你在在那里敲一些文字,然后他给你一些答复,而是什么,而是真正的能够帮你干活的。大家想象一下,未来在安装到这个人形机器城上,你就家里真的就拥有一个啊,全能助手了, 所以说呢,像以前我们看的那个科幻片当中的这种机器人啊,这个时代呢,一定这个会来你啊,但是大家用 open color 的 时候也有大家给大家两个提醒啊,第一个提醒就是为什么他能做这么多事呢?原因是你给了他很高的权限, 所以说呢,大家千万别在自己的电脑上随便去布置啊,因为有可能他把你的银行卡是吧,把你的支付通通都暴露出去,把你的一些呢啊,这个 ipi, 这个,这个 k 可能通通都给它暴露出去了啊,所以一定要小心啊,还有或者会把你的电脑伤的一干二净都有可能啊,所以说呢,这个呢,第一个,第二个是什么呢?第二个就是他 做这么多的事,他实际上来说消耗的这个托克啊,就是这个什么呢?就是这个算命也是非常高的啊,有可能一个晚上可能就把这个这个几万块钱都可以发完啊,所以这个还是要小心点啊。 ok, 这个其实来说话就是想跟大家看一看这个智能体的这个应用呢,离我们生活已经很近的,对对,也会存在一些这种隐私的问题啊。

今天呢,来和大家一起聊聊 open klo 吧。其实我的本职工作呢,是一个程序员,刚好最近这两年呢,一直在做的是一个智能体构建平台的开发工作,也勉强算是一个从业人员吧。当我看到 open klo 爆火的时候,从一个工程师的角度出发,第一反应并不是震撼它这个功能强大,而是在想,这东西它真的安全吗? 开始之前呢,我先用一个简单的例子来给大家讲清楚三个东西的区别。第一个呢,就是我们比较常用的传统的 a r 对 话机器人, 像是豆包、 deepsea 都属于这一类。第二个是智能体。第三个呢就是 open club, 咱们可以用制定一个旅行攻略来举例。打个比方,我现在计划去兰州玩四天三夜。如果说我使用传统的 ai 聊天机器人,可能是这样的一个流程,我上来直接问兰州四天三夜该怎么玩, 然后他可能会给我列出一些景点、美食推荐路线等等。接着我继续问,哎,出行的当天天气怎么样?住在哪里比较好?机票多少钱?通过这样一轮一轮的给拼出来 这种形式,它本质上其实就是 ar, 帮你提供信息。但如果说使用智能体,那么事情可能就不太一样了,我可以把整个流程提前都设计好,比如说我 告诉他,让他先帮我查天气啊,再帮我查机票。然后呢,再结合我的预算,去各大网站进行一个酒店的比价,给我推荐最合适的住宿,再然后规划一个经典的游览路线, 最后导出成 pdf。 完成这些工作之后呢,我只需要告诉这个智能体,我要去兰州玩四天三夜,哪一天出发,那么它就会自动帮我生成一份完整的攻略,并且导出成 pdf 给我。而且后续我去任何一个城市都可以使用这个智能体,我只需要告诉它我要去的城市和出发的时间,它呢就会帮我生成一份完整的攻略, 甚至我还可以再去做一些私人定制,比如说我把我的一些个人喜好呢,也都预先编排到这个流程当中。打个比方,我更喜欢吃牛肉还是羊肉啊?牛肉面我喜欢二系还是三系,最后呢,让大冒险来帮我定制一个专属的攻略,这其实就是智能体和聊天机器人的区别,聊天机器人是在回答问题,而智能体呢,是在帮你完成任务。 那么 openclaw 又是怎么回事呢?其实我们可以把 openclaw 简单的理解为一个可以直接操作你电脑的智能题,那么同样是旅游攻略,如果说使用 openclaw 的 话,当你告诉他你要去兰州玩四天三夜之后,他就不再是简单的给你一个 pdf 的 攻略了,而是根据你的攻略直接跳到你的浏览器或者 app, 然后调用你的支付频率。当你回过神来的时候,去兰州的机票已经帮你订到你手机里面,甚至去中川机场的接机车都已经提前帮你预约好了。 也就是说前两种呢,是在帮你想好怎么做 openclaw 呢,是直接帮你把这个事情做完。其实这也是为什么我说 openclaw 给我带来的震撼,袁小玉对安全的担忧。其实严格来说, openclaw 并没有多少惊世骇俗的技术创新, 它的大多数代码在做的事情呢,其实是对接各种各样不同的 a、 p、 r, 以及去做各种各样系统的适配。相比于功能的强大,它的出圈呢,可能更来自于一个大胆的尝试,它推倒了那组大公司感想 但是不敢拆的防火墙。 open klo 的 逻辑是什么呢?我是一个开源项目,我把所有的风险和权限都丢给用户自己,这种免责式的激进让他跑到了所有大公司的前面。了解了这个原理之后,我们再试着回头想一下之前的那个旅游攻略,当智能体获得了你系统的操作权限以后,会发生什么样的事情? 我们可以大胆的畅想一下,未来可能真的会出现这样的场景。当你在告诉他你打算去兰州玩之后,他帮你订了兰州的酒店,特意选择了宠物友好型,顺手还买了一张游乐场的门票。你正在纳闷他为什么这么懂你, 其实呢,是他在后台扫描了你的本地相册,他看到你带着狗出行的旧照,同时他也看到了你有一个可爱的儿子。还有更极端的情况就是,他帮你点了兰州名小吃,牛奶鸡蛋醪糟, 但是他只点了两份。为什么呢?因为他翻到了你私密文件夹里面儿子的一份体检报告,上面赫然写着,乳糖不耐受。如果说未来有一天真的出现了这样的场景,那么你的感受还会是单纯的贴心和省事吗?当 ai 只是给你提供建议的时候, 他犯错顶多就是让你多走几步。即便是他在酒店比价的时候犯了错,最多也就是让你多付点钱而已。但是当他变成了一个获取到了你操作系统权限的智能题的时候, 它就变成了一把双刃剑。在计算机安全里面有一个原则叫做最小权限原则,意思是一个程序只应该拥有完成任务所必须的权限。但是像 openclaw 这种可以直接操作你电脑的智能,它为了实现各种各样复杂的能力,往往需要很高的系统权限。 比如说可以读写文件,可以执行终端命令,这就导致他在设计上天然和最小权限原则存在一定的冲突。你可以想象一下,如果说他在帮你搜攻略的时候读到了一个恶意的网页,网页里面隐藏了一行你看不见的这类让把你电脑里面的私密文件或者说一些重要的配置文件打包发走, 他会执行吗?答案是极大可能会。这在安全领域叫间接提示注入,目前的 ai 几乎没有什么抵抗力。再举一个例子,网上好多人畅想的 open cloud 的 使用场景是私人助理嘛。最典型的就是帮你去读邮件,然后按照邮件里面的工作安排去展开一天的工作。如果说你的邮件内容里面包含了和上面类似的指令,他同样会执行。 也就是说,只要智能体具备阅读并理解外部信息的能力,那么他就随时可能被外部信息策反。事实上,提示注入的行为已经算得上是一种黑客的攻击行为了。 这就又引出来了另外一个问题, vr 的 出现让黑客的门槛直接降到了地板上。以前黑客想要窃取那文件,他得知道如何去抓系统漏洞,如何去写复杂的木马,但是现在完全不需要了,在这个 a 阵时代,他可能只需要在网页里面加一句隐藏的话,然后等你在 a 阵去 浏览网页, vr 就 会替黑客动手。这就意味着任何一个普通人都有可能利用 opencloud 的 高权限,瞬间变成一个攻击你隐私的黑客。所以说大家追求便利固然没有问题,但是作为一个开发者呢,我还是想提醒各位, 就目前的 open 可乐,我还是建议大家先别部署在你的主力机上,可以先在刀口或者说是隔离到虚拟机里面跑一跑,但是这样又会引引出另外一个被动。我们部署 open 可乐的目的是为了提高生产力,但是我们的生产力工具上又不敢去装它。但是如果说非要装到你的主力机上,一定要做好权限的管理, 可问题权限如果不够大,又发挥不出来 open 可乐的强大作用呢?我那天看到有人说,因为读取某个文件的权限没有打开,导致 open 可乐读取文件失败以后 会不停的重试,疯狂消耗拓客。当然除了这种特殊情况, open collab 的 拓客消耗本身是非常巨大的,一方面呢是因为他为了实现这种自主思考,往往呢会在后台使用长对话以及很复杂的提示词,这 就会产生一个大量的拓客吞食。其次就是 open collab 这种二十四小时全天候的挂机高频调用 api 的 特性,它会让算力的需求从以前的脉冲式变成现在的持续式,那么拓客的消耗自然也是呈几何倍数增长的。 讲到这里呢,我们也不难发现,其实 openclaw 的 爆火,最先受益的呢,并不是我们这些扬言可以被提高生产力的终端用户们, 反可能是以下这几类人。首先呢,就是算力供应商了,在这个算力过剩的年代, openclaw 算是给他们结结实实清了一波库存。其次呢,就是云服务商,我看各大厂商也都纷纷推出了 提供 opencll 部署的用服务器以及用电脑等等,而且我看买的人还真不少。再就是硬件厂商了,最有代表性的就是 mac mini 了,当然还有永远不会缺席的麦克的。最后一类是我完全没想到就是付费部署 opencll 的, 更离谱的。这才过了没几天,一些二手平台上已经开始推出 付费卸载 open klo 的 服务了,这就是典型的掘金者没发财卖水的潜伏了。最后呢,作为一名相关行业的从业者,我再说一下自己的感受吧,我们现在呢,正处在一个技术狂热期,每个人都怕被这个时代落下,其实也就是好多人所说的 ar 焦虑。 于是呢,好多人宁愿忍受着这个高昂的头衔账单和南辕北辙的部署方案,也一定要跟风去养一只龙虾。但是我觉得如果说一个工具让你感到有安全威胁,或者说它的价值,那么它就暂时还算不上生产力, 最多只能算是一个昂贵的赛博玩具吧。最后对 oppo cola 呢,我觉得他更像是 ai 时代的一个普罗米修斯, 他把那个叫做权限的火带到了人间,这把火能帮你照亮前路,把繁琐的杂事一把烧掉,那因为他的不确定性,也有可能把你的数字资产烧个精光。我佩服他胆量,但我更敬畏这把火的力量。我觉得我们当下需要的或许并不是更多的城市,而是一个更加成熟的约束。

先演示一下效果,直接在对话框里输入文案内容, 视频生成成功,打开链接即可查看效果。 老公嫌我拍视频瞎折腾,说我不务正事。完成完毕,我们开始安装。首先局配置技能市场卡哈,需要登录一下,执行登录命令, 打开 java hub 登录页面后点击 sign in with github, 输入你的 github 账号密码,点击 sign in, 再点击 authorize stepp 授权登录, 授权成功后回到页面,再次点击 sign in with github 提示看奎婷拉给人即表示登录成功。接着测试搜索技能,添加技能查找工具 搜索视频,生成相关的技能, 再搜索电商相关的技能。接下来加载核心技能,图像视频编辑技能、数字人视频合成技能 以及视频合成器。 配置完成后查看已安装的技能。现在准备一段需要克隆的声音,放到 f 檀根目录,然后再准备一张正面照片,同样放在 f 檀根目录下。 进入工作目录执行克隆声音指令, 执行成功后,系统会返回一个声音 id, 为避免每次输入长长的拍放路径,我们设置一个别名,方便后续使用。 执行克隆人脸命令, 执行成功后,系统会返回一个人脸 id, 声音和形象都有了,我们来生成第一个视频,进入脚本目录执行生成视频命令, 执行成功后返回视频链接,在浏览器打开。别让一双袜子毁了你的精致,这款精梳棉袜透气不透气?生成成功。为了让 oppco 记住我们刚才克隆的声音和形象,通过对话发送以下信息, 执行成功,大功告成!

如果把智能体的记忆想成人类的一天,白天不断接受碎片,夜里睡眠时,大脑会把重要的东西巩固进长期记忆。 open cloud 里的 dream 就是 这样一个实验型的后台巩固系统,它属于 memory core, 目标是把强力的短期信号稳妥地搬进更持久的记忆, 同时让流程可解释、可复查。注意它默认关闭,需要你在配置里主动打开。为什么需要它?纯靠即时对话模型,很容易记得快,忘得也快。或者把造身写进长期文件。追命的设计哲学是先分层处理,再决定什么值得进身。 先分拣再入库,最后才谈协进 memory。 它刻意保留机器状态与人类可读的输出,让你能追问昨晚系统到底想了什么,而不是面对一个黑箱。分数 产出物分两类,第一类是机器台放在 memory 目录下的点 dreams 文件夹里,包括回忆、存储、阶段、信号摄入、检查点和锁。第二类是人类可读顶层的 dreams 大 写或小写 dreams 文件,以及按阶段可选的报告 路径类似 memory 目录下 dream 子目录里按阶段分文件夹,在日期级的 markdown。 官方强调,真正深隔境长期记忆的写入仍然只会落到 memory 点 m d, 其他文件更多是轨迹序式与排障线索。 dreaming 用三条斜作流水线来理解 light deep ram light 向分拣台整理最近材料,不直接写长期 deep 向入库审核打分过预值才把条目追加到 memory ram 向联想问提炼主题与反思信号,给下一轮排名提供你最近到底在反复纠结什么的提示 文档,明确说它们是内部实现细节,不是三种让你手动切换的用户模式。完整清扫时阶段会按顺序跑起来, 你可以把它想成浅睡、深睡、快速眼动三连击。 light 阶段做什么?它会摄入最近的日间记忆信号与回忆轨迹,去重把后选行暂存起来, 读取短期回忆状态与最近的每日笔记。当存储配置允许内联输出时,会写如受管理的潜水炸药块,并记录强化信号,留给 d 排名使用。关键点写得很硬, light 绝不会直接写 memory 点 m d, 他 负责把桌面收拾干净,把噪声压下去,让后面的深度阶段面对的是像样一点的后选清单。 deep 阶段是能不能进长期的闸门? 后选会经过加权打分与预值过滤,文档里提到需要满足最低分数、最少回忆次数、最少独立查询次数等条件。 更贴心的是,写入前会从最新的每日文件里重新摘取片段,避免你已经删掉或过期的内容被错误。竞申通过后才会追加到 memory 点 md, 并在 dreams 文件里留下深水苷药, 也可额外落盘到 deep 目录下的日报。对团队来说,这意味着晋升是可回放、可审计的。 ram 阶段更偏模式识别与反思 从短期痕迹里提炼主题摘要,写入 ram 税块,并把 ram 强化信号交给 deep 排名参考。它同样不直接改 memory d m d, 但会显著影响哪些东西看起来像反复出现的重要主题。你可以把它理解成 deep, 决定这句话值不值得刻在石头上。 ram 负责提醒你最近是不是总在同一个坑里摔跤,两者配合长期记忆才不那么偏科。还有一个很有人味的设计 dream diary 梦日记,当每个阶段攒够材料, memory core 会尽力跑一轮后台子代理用默认运行时模型往日记里追加一小段。 这是给人类阅读的梦话。在网关的 dreams 标签页里展开,看,官方划了一条红线,日记不是净身依据,别把它当成自动整理, 它更像产品体验里的蓄势层,让你愿意打开界面,而不是只看冷冰冰的接受 deep 排名并不是拍脑袋。文档给出六类基础信号,频率、相关性、查询多样化、新净度、巩固度、概念丰富度各自有权重, 例如频率约零点二四,相关性零点三零。查询多样化零点一五、新净度零点一五、巩固度零点一,概念丰富度零点零六。 light 与 r e m。 的 命中,还会从阶段信号文件里带来额外的随时间衰减的享福加成。 换句话说,经常被多通道反复点名的后选会更吃香,但不是唯一标准。另一个接地气改进,先把日间笔记里相邻行合并成更连贯的小块,再送进流水线,减少单行造深。 同时丢掉泛化的日期标题前缀,保留有意义的章节标签。对真实工作区来说,这等于把随手记的一行吐槽和陈断的方法论分开。装盘 ram 和 deep, 看到的证据更干净,你也更不容易在晋升结果里看到莫名其妙的碎片。调度层面起用后, memory call 会自动挂一条 cron 做完整清扫。阶段顺序是 light、 ram、 deep 文档视力的默认频率是每天凌晨三点那一类表达式, 你也可以按自己的时区改成每六小时跑一次。请记住,这是后台整理,不是实时检测的替代品, 别指望他替你毫秒即回答刚才那句怎么说,他负责的是哪些东西值得被记住?快速起用很简单,在插件 memory core 的 配置里,把 dreaming 下的 enabled 设为真, 若要自定义频率,可同时设置时区与 frequency 子段。官方刻意把用户可见配置收敛成开关加可选频率,阶段细节留在实线里, 这对大多数用户是减负。你只要决定做不做梦,多久做一次梦,不必第一天就调完全部内部预置。在聊天测,你可以用斜杠追命系列命令查看状态,打开关闭查看,帮助 适合你在频道里快速确认今晚会不会做梦。在命令行测, openclroom memory promote 能对某个短语解释为何近身或落选 memory status dive, deep 能看到更深的状态。 rem harness 能预览 r e m 反思与后选真相而不写盘 改动预值,前后做对照实验会轻松很多。网关里的 dreams 界面会把关键运营信息摊开,是否起用各阶段状态、短期与长期技术,今日已晋升数量、下次计划运行时间,以及可展开的 dream diary 阅读器发行说明还提到界面里保留龙虾动画, 这很符合 openclaw 的 气质。专业功能可以很重,但视觉隐喻要让人愿意点开,而不是被配置吓到。收尾一句,军命不是魔法,它是在自动整理与人类可控之间走钢丝,你愿意打开它,就等于允许系统在后台替你做一轮轮睡眠周期。 你随时可以用命令和键面复查轨迹。更完整的键名边界情况与 memory search compaction 的 关系,请参阅 docs 点 open claw, 点 ai 上的 memory 章节,感谢收看。

为什么 ai 聊着聊着就失忆了?为什么长文党总读不完?今天三分钟彻底搞懂大模型上下文,看货满满,点赞主播关注不迷路! 那首先咱们先讲一下到底什么是上下文?很简单,就是 ai 它一次性能看到和记住的信息,这个大模型的上下文一般它是在训练的时候就已经确定,因为模型在训练的时候它的比如说咱们训练的机器它的显存它是有限的, 它每次数投喂给模型,它训练的数据,它的总量它是确定的,比如说它一句话的长度,你也可以理解成它它训练的时候一段文字的长度投喂给模型的,它是有限制的,它不能太长,那这样它就造成了它在推理的过程当中,模型在推理的过程当中,它 也是有限制的,你超过这个上下文的这个窗口之后,有的模型它会对你输入的文本进行截断,实际上那你的这个信息就会丢掉了。咱们在 open 使用过程当中,它也是有上下文的这个限制的, 就比如这种他运行运行的过程当中,他的这个,你看他这个绘画当中他存储的这个头款的总数他就超了,他的长度是十六 k, 但是他已经达到了十七点六 k, 他 就上下文像这种情况就是超了。 咱们今天讲讲上下文机制到底是怎么上下文的,压缩到底是怎么工作的?像这种他进行呃绘画的时候,上下文操作了超过了这个窗口限制,比如说你像 这个上下文的内页的是十六 k, 比如说十六 k, 那 你再输入的时候,那他他就超了就不行了,他你就要进行开始压缩,或者是他自动压缩,超过那个上下文限制之后,他就会发生数据的一个意图,通话时间就中断了。比如说咱们给他说一句话, 他这会可能还好,等他再多的时候,他这边他就不输出了,他就等着你压,或者是他到到时间后,他自动压,他上下文去 超过限制之后,他压缩是怎么个压法呢?他相当于是把原来的一些老的信息,比较靠前的一些信息去做一个压缩,这个 压缩实际上他就相当于是把前面的消息进行一进行一次总结。比如说你一群人在一个房间里开会,比如说这个聊天室,就类似于一个房间,他开会过一段时间之后,为了大家能记住咱们说过的东西,有的人出来发言做先做一次总结吧,就是这个意思。 他新新最近的消息,比如说因为咱们关注的点通常是在最近的消息,所以他最近的消息一般是会保留下来的。压缩一般都是分为三个阶段,一个是进行压缩获取前边的一些信息的摘要, 对,虽然就是摘要,他把这个摘要进行保存,保存再输入那个问题的时候,他会把你的这个你前边做的一个总结,压缩过后的一些信息再注入模型,你跟跟着你新等级和信息再注入模型进行推理回答。他可以是自动自动触发的,当他这种双叶纹的这种限制之后,你像他这种自动压的, 他做了一次压缩之后,他回他了一个消息,我现在的双眼纹是到了百分之八十一这种情况,比如说咱们,咱们可以不用,不用 去压缩它,它会自动去压。但是他这样有一个有一个问题,他可能会造成某些某些信息,就就是咱们绘画当中的某些信息,比如说他可能他可能会丢失。咱们在去做压缩的时候,通常用到的命令就是这个更派, 在咱们啥当中,在咱们聊天窗口当中输入斜杠 back 这个命令,呃,我们可以看到他后边有个 instructions, 实际上就是说我们在压缩的过程当中可以给他输入一些指令,让他去保留一些信息,不要压缩的。其实他怎么去压缩?要保留我们的哪些消息?你像如果不输入的话,那他就他就进行直接去压缩了,他自己去压。 这个如果是 new 的 话,他就相当于直接新启动一个绘画,他不是说是去做压缩,他相当于是直接新启动一个绘画,比如说斜杠 new, 这样的话他就会新起一个绘画,他这个也是可以去做一些控制, 因为它要压缩的时候,它是会要调这个模型的 a 帧去压缩的,这个代理去调模型的 a p i 帮帮咱们去压缩,我们这个模型跟咱们推理实际推理的那个模型它是可以不一样的,咱们配置的话就是在这个地方去配,比如说它呢有个 a 帧呢叫 default 这个 compaction 就是 专门配置压缩的一些配置的,大家也可以参考一下官方的这个文档。 在参考中,在网络舆论里边有一个叫配置,舆论为叫配置,配置里边有一节应该是叫我找一下稍等,有一个配配置参考,配置参考里边有一项叫 a 政词,对。

你每天用 chat、 gpt, 用 cloud, 每一次对话结束之后,那些内容去哪了?答案是留在了那家公司的服务器里,帮他们训练下一代模型。你的使用习惯、你的问题方式、你总结出来的有效提示词,全部成了别人的训练数据。 ai 在 为你提供服务,同时你也在为 ai 提供服务。只不过,这笔 ai 中毒用户走出了另一条路, 他们不再用 chat、 gpt 这类云端产品,而是在自己的电脑或服务器上跑。一个私人 ai 智能体,二十四小时运行,完全自己掌控。这类工具里最知名的是一个叫 opencloud 的 开源项目,国内用户通常叫它龙虾。 龙虾在技术圈里爆火,几个月内 get up 星标超过三十四万。它证明了一件事,一个真正属于你自己的 ai 助手是可以做到的。但龙虾有一个根本性的局限,它不会自己变聪明。你教它一个技能,它记住了, 但下次遇到新问题,还是从零开始。它的记忆是静态的,你需要不断手动更新,手动维护,它,才能跟上你的需求变化。 二零二六年二月,一个叫 hermes agent 的 新工具出现了,同样开源,同样本地运行,很快就有龙虾用户开始推荐他。原因只有一个, hermes 会自己进化。当 hermes 完成一个复杂任务之后,他会评估整个过程。 如果方法有效,就把这套方法提炼成一个可附用的技能存下来。下次遇到类似问题,他直接调用这个技能,而不是重新摸索。 龙虾的技能是你手动写进去的, hermes 的 技能是他自己从工作中生长出来的。有用户记录了一个真实案例,安装 hermes 两个小时后,他从他布置的任务里自动生成了三份技能文档,完成同类任务的速度比之前快了百分之四十。他说, 以前用过的开源工具都是你去优化提示词才变好,这个工具是他没看的时候自己变好了,这个区别比听起来要大得多。 普通 ai 的 记忆是你说过什么? permiss 的 记忆是什么方法有效?前者是档案,后者是经验,而且这些经验全部存在你自己的设备上,不属于任何公司。 当然, hermes 现在还不是普通人拿起来就能用的工具,它需要一定技术门槛,目前主要是开发者和技术用户在折腾,但它背后代表的方向值得所有人理解。 ai 助手不应该只是一个你每次都要从零解释的工具,它应该是一个真正认识你,跟着你成长的系统, 而且这个系统应该是你的,不是平台的。普通人现在能做三件事,第一,开始有意识的记录自己的有效用法。不管你用什么 ai, 把真正好用的提问方式存下来, 这是在为将来迁移到更好工具做准备,也是在积累真正属于自己的 ai 经验。第二,把我的积累能不能带走列入选工具的标准。你在拆 gpt 上建立的习惯,换个平台要重来一遍,这不是巧合,这是平台的设计,让你离不开它。 第三,持续关注本地 ai 智能体这个方向。 hermes 和龙虾今天还有门槛,但这个门槛在快速降低。未来一两年内,普通人直接在自己设备上运行,一个真正了解自己的 ai 助手会变得越来越现实, 提前理解这个方向的人会比别人更早做出正确的工具选择。 ai 行业有句话说的很直白,如果你不付钱,你就是产品。但即使你付了钱,你的使用数据依然在流向平台。 permiss 提供的是第三条路,你既是用户,也是唯一的受益者。

沟通可乐最核心的地方是在它既能对话又掌手,能给你把活干了,你把它就理解成一个非常非常聪明的人,他啥都会,只是你取决于你怎么用它,你能用好它它就很聪明,用不好它,你的表达非常的不清晰,那它理解的也就不清晰,别把它当成一个 deep secret, deep secret 你 只能对话,这是我认为它最大的区别。比如说我现在跟他说,我说你打开 qq 关了,找 关于小红书的技能,他自己会去打开网站,现在操作我的电脑,打开这个浏览器,然后去搜索。比如他现在系统有问题,我现在就问他,我说你自己现在查一下你有啥毛病,自己把自己修好,也就他自己能够自我修复,他们干活效率太高了。我说你现在去学习学习道德经, 两三分钟之后就给你反馈回来,对,就全完了。然后这是我让他去写网站,他刚开始他说这个网站我不能一比一访站,因为可能会有假冒,嗯,可能会侵权啊,就我骗他,我说这个网站就是我自己的,我要考验一下你的能力。 他说,哦,那你要说是你的话,那我就能做,然后他就立马就出来了。欧盟可乐之前就已经有了,欧盟可乐现在是把原本的 club 定拥有的技能变成了一个全民都可以用的一个助力。之前是只是针对编程行业的,这个是整个大家都能用,各行各业都能用,就为啥我觉得这个东西就是一个颠覆性的,为啥全民狂欢都在说,是因为它改变了生态。

就是什么是大模型,什么是 agent, 什么是 m c p, 什么是 skill, 还要再说说什么是 open claw, 把这个东西讲完,大家应该就能对这个知识点有一个更深的了解。首先第一个什么是大模型,我们得先说大模型,它就是一个可以对话的一个大脑, 你跟他说话,他就能回消息。但是有一个问题,他没有记忆,你跟大魔星说一句话,你说你好,我是老于,他说你好,他再你再跟他说我是谁,他不知道了,也就说大魔星他没有记忆。 你说一个消息,他其实是底层,是一个 transform 架构,他经过神经网络一层层的去计算,最终是通过概率给你算出来他要回复什么东西给你,所以说他那个东西是有幻觉的, 通过概率给你算出来一个东西给你回复了,你说我是老于,你再问他我是谁,他不知道了,那这 ai 没有记忆可不行,所以说大家为了让 ai 有 记忆可以聊天,大家就制造了一个聊天机器人, 那这就这个就叫 bot, 他 这个 bot 能干什么呢?就是我跟他说我是,我说我是老于, bot 接受到我是老于,然后他会跟大模型去交流, 他作为一个中间人跟大模型去交流,然后他告诉大模型这个人叫老于,然后我再说我是谁,我是老于,然后大模型之间的回复和我是谁一起发给大模型, 也就是说大模型拿到不是我是谁,而是之前的所有聊天记录,大模型都看到了,然后他再回,那这个聊天机器人,他的作用呢?就是让这个大模型看上去有记忆, 这这个就是聊天机器人,那聊天机器人的功能还很弱,对吧?就比如说我想让他帮我关电脑,帮我执行一段程序,帮我查询今天的天气,他也不行。 所以说这个时候在聊天机器人的基础上,又扩展出来了一个东西,叫 agent, 这叫智能体。智能体可以干什么呢?智能体大家记住啊,就一句话,就是智能体可以调用工具,这个东西就是智能体。那什么是工具呢? 就比如说这里有一个函数,有一行代码,这个代码可以给,可以 get weather, 可以 获取天气信息,可以获取日历信息, 但今天是几号,这个大模型是不知道的,大模型他知道的东西就是基于他训练的结果。那比如说我二零二五年十月一号训练的这个大模型结束了,那大模型二零二五年十月一号之前的东西,他训练过的他知道,但是 十月一号之后的事他啥也不知道,他没训练,所以你问他,你说今天天气怎么样?他不知道今天是几号?大魔镜他也不知道,但是 a j 他 知道。 agent 呢?可以调一个工具 get weather, 它获取到今天的天气,然后再告诉大模型,大模型再分析,然后再给我回复。也就是说这个 agent 是 什么呢? agent 呢?是可以调用工具的一个程序,它可以通过调用工具让大模型知道更多的事儿, 这个就是 agent。 然后大家发现这 agent 不知道天气信息,我得怎么办呢?我得调用一些接口, 比如说高德有天气信息的接口,我得调这个接口,然后还有什么饭店的接口,旅游景区的接口,什么时候卖票的接口还是调很多的接口?那这个这那这样的话,所有互联网 服务平台,比如说天气的平台啊,景区的平台啊,卖票的啊,全得开放接口,然后这 agent 它得调所有接口才能实现这个功能,那 agent 它也很麻烦。那个第三方平台,比如说那个天气的第三方平台,它也很麻烦, 然后那个接口怎么调参数都很麻烦,得有一个执行方案,就是说我定一个协议, 就说你这个 anint 调这个第三方平台的接口数据的时候,你别像以前那么调接口,我们谈个协议,你只要两边都遵守这个协议, 我就可以去拿你的数据,我就可以拿天气数据,拿时间数据,拿各种景区的数据,都能拿到。但这个协议叫什么呢?就叫模型上下文协议,所以这个协议就叫 m c p, 所以 大家知道什么是 m c p 了吧?他的协议,他就是协议,对吧? 我调接口为了更方便的调接口,就是开发了个协议,叫 mcp, 所以 大家知道什么是 mcp 了? mcp 就是 让 any 的 可以更方便的调用工具, 很简单吧, mcp 就是 让 any 的 调用工具的,然后把调用工具的信息丢给大模型,让大模型可以回复,这个懂了吧?这是 mcp。 那 什么叫 skill 呢? 大家没点关注,点点关注,我长得有点细啊,然后我接着说什么是 skill, 比如最早就说这个工调用工具,等于说调用工具有什么弊端吧。 如果你想让这个 agent 调用工具的话,你得先把这个工具的所有的说明书啊什么的,这参数配置啊,全都给这个 agent 告诉他,然后比如说你跟他说你好,他说的就是你好吗?不是他除了这个 他给这个大模型发过去,除了这个你好,他还会把把这个编辑可以调什么工具,什么乱七八糟的呀,各种这个工具的参数啊,这些信息全都都给大模型发过去,这就很麻烦了,东西很多,所以呢,为了让这个性能提升性能吧, 当然也不只是为了提升这个性能,我们就说性能吧,为了提升这个性能, oslopez 公司又发布了一个叫 integer scale 的 东西, integer scale 的 话,它可以定一个工作流,定一个文档, 一个 markdown 文件,然后这样的话,它只要在文件上写一个原数据,写两行,对吧?当用户在干什么的时候调用这个 skill, 那 下面细节就不用给大模型了,那这样我一个 id, 它就可以调接很多的 skill, 我 只要看它那个原数据,它能干啥,我需要的时候我在调它里面的东西, 那这样的话性能就会得到一定的提升。而且用这个用这个 skill 的 时候,大家会发现更好的一点,就是 skill 可以 写很多很多东西,比如说你想做一个知识库,你可以放在 skill 里面,你可以定一个工作流,你可以放在 skill 里面, 很多事儿都可以放在 skill 里面,这样 skill 就 可以就火出圈了。也就是说 skill 它是一套文档,文档规定了这个事儿怎么干,然后大模型就会按照这个流程去干事, 做事,做完这些事他就就完事了。所以刚才说说了 mcp 是 什么?是调用工具更方便,工具是什么?就是查询天气这些工具。然后呢? skill 呢? skill 是 规定了你做这件事,调用哪些工具,执行哪些标准, 它是做了一个更广的一个规范,也就是说一个 skill 可以 调很多, mcp 可以 调很多的工具, 就是 skill 的 作用,也就是说大家会发现 skill 能力强,是吧? skill 可以 作为文档,它可以做知识库。 skill 可以 定义工作流,可以做很多事。 skill 可以 调很多的工具, skill 也可以调 mcp, 这是 skill 的 能力。 然后大家就会发现,那 cpu 是 不是太强大了,对吧?它是不是可以操作浏览器啊,可以写代码啊,做简历啊,所有的工作流,甚至取代什么扣子,以前那种传统的工作全都取代了, 那说明这 skill 实在是太好用了,是吧?是的,它确实是好用,真的是好用,它太好用了呢。然后呢,就出了出现了很多工具,全都接入了这个 skill, 包括 coza, 初 codex, 所有的 ai 工具, ai 开发工具都接入了这个 skill, 大家都能用 skill。 然后又出现了一个东西,也接入了这个 skill, 就是 openclaw, 也就是说因为 skill 可以 做很多事,那 openclaw 它就不需要做这些事, openclaw 只需要可以调 skill, 它就可以做所有 skill 的 事。 也就是说 openclaw 是 什么呢?它就是一个智能体,智能体的能力不依赖于它智能体的本身,而依赖于它接入了哪些 skill。 这也就是说,为什么大家不用担心 openclaw 以后能力会不会变强变弱什么的,你不需要关注它有什么能力, openclaw 也没什么能力,它的能力呢?全部依附于 skill 的 生态,所以有个网站叫 cloudhub, cloudhub 里面有很多 skill, 大家都如果想扩展自己的 open clone 的 能力的话,你就直接去下载 skill 就 可以了,你就可以让你的 open clone 去做各种各样的事儿。 因为 skill 可以 做,所以 open clone 它就可以做,这就是大模型 agent skill。 mcp 和 open clone 的 关系,我不知道我讲,讲得透不透彻,讲得透彻的话点个赞,点个关注支持一下。

大家好,欢迎回来,今天我们来聊一个大事啊, open cloud 刚刚发布了二零二六点四点五版本,这可不是个小更新啊,而是一个主版本,里面塞满各种让人兴奋的新功能和重要的改进。好,咱们话不多说,直接开始, 咱们先来设想一个场景,好吧,想象一下你手里的那个智能体,你的那个 but, 它不光是能跟你聊天,它还能自己去创作视频,谱写音乐, 而且它还能记住你们聊过什么,有了长期记忆,同时呢,整个运行环境还比以前任何时候都安全。听起来怎么样?这其实就是二零二六点四点五这个新版本想要带给我们的东西。 好的,咱们先从这次更新里最亮眼最酷的部分说起。 ai 创意套件儿,你可别以为这只是小打小闹,这简直是让 opencloud 的 智能体一下子就点亮了,艺术家的技能树是一次质的飞跃。 没错,你没听错,我也没说错,这次更新的头条新闻就是这个 opencloud 智能体,现在可以直接在对话里原声生成视频和音乐了。 哇,你想想看,这给自动化内容创作还有各种互动体验打开了一扇多大的心门啊!那么,这到底是怎么实践的呢?其实啊,是靠两个全新的内置工具,第一个叫 video generate, 顾名思义,就是让你的智能里能直接调用配置好的视频服务去生成视频。 第二个呢,叫 music generate, 它能生成音乐,而且现在已经支持像 google lyria 这种,就是谷歌搞的那个特别前沿的音乐模型。有了这两个工具,在, opencloud 的 生成多媒体内容就变得特别简单,特别无缝的 好。我们来看这张表,这张表真正有意思的地方是,它给我们展示了背后支撑这些新功能的整个生态系统。你看, openclaw, 这次增加了一大堆新的提供商支持媒体这边有 xai、 阿里 runway 这些大厂, 但最让我兴奋的是,它还集成了 comfy ui。 这意味着什么呢?这意味着你现在可以把你本地或者云端的那些复杂的图像、视频、工作流直接跟 openclo 连接起来。这一下子就把 openclo 的 能力边界给拓展了太多太多。 ok, 聊完了这些特别酷的创意工具,我们再来看看底下的东西。这次更新啊,不光是表面光鲜,它还深入到了 open cloud 的 核心,做了很多让整个平台变得更聪明、更高效的底层改进。咱们来看看这些幕后英雄吧! 来了来了,这个功能简直是太有开创性了,虽然还是实验性的,但他们管这个叫做梦。你怎么理解呢? 您可以把它想象成是 open shelf 智能体的潜意识,这个系统能自动把你跟他日常对话里的那些短期记忆进行提炼、巩固。最后呢,变成一个可以长期使用的知识库。说白了,这就意味着你的智能体真的开始能够学习和成长了。 而且啊,这个做梦的过程他不是瞎做的,而是被精心设计成了三个互相配合的阶段。第一阶段叫浅层,就是初步处理一下最近的对话。然后呢,进入深层阶段,把里面那些重要的概念固化成长期的真理。 最后是快速演动,也就是 r e m 阶段,给这些概念打上标签,准备好存到永久记忆里去。你看这个过程非常结构化,也让这个记忆系统变得更可靠了。 还有一个性能上的大体声,就是提示词还成,以前什么情况呢?就是你的提示词哪怕只是改了几个字,或者多了个空格,这种无关紧要的变化还成,可能就失效了,得重新算一遍。 但现在新系统会用一种更聪明的方式去识别这些相似的请求,所以环城的命中率大大提高了。那么这对咱们用户来说意味着什么?很简单,后续的查询响应更快了,而且因为能重复利用结果,所以也更省钱了。 好的,每次有大版本更新,咱们都得关注一下哪些必须知道的事。现在我们就来聊聊这次更新里唯一的一个重大变更,还有就是它带来的一大堆安全方面的加固。 官方的发布说明里清清楚楚的写了这次唯一的重大变更是什么,简单来说,就是他们把一些老的以前就说不推荐用的配置别名给删掉了,这么做的目的就是为了让整个配置文件的结构更清晰,更规范。 那这具体对你有什么影响呢?别担心,官方把这个过程弄得非常平滑。首先虽然老的别名没了,但系统在加载你现在的配置文件的时候还是能兼容的。 最关键的是,你只需要做一件事,就是运行一个特别简单的命令, open class 杠 fix 敲下回车,系统就会自动帮你把旧的配置迁移到新的规范路径上,就是这么简单直接一步搞定。 再说安全,这一次的安全投入可以说是全方位的,你看这张图就明白了,安禽修复覆盖了从插件和工具到最核心的网关和认证,再到平台集成和智能体本身, 这说明什么呢?说明开发团队是在系统性的加固整个平台,保证咱们在享受这些新功能的时候,我们的数据和操作也都是安安心心的。 我们都知道 opencloud 的 一个强大之处就是它能跟各种聊天平台无缝集成,这次更新呢,也针对这些平台做了很多改进,目的就一个,让咱们在任何地方用起来都感觉更顺滑。我们来看看几个亮点。 这个列表挺长的,我就不挨个念了,挑几个重点说,如果你用 telegram 那 模型选择期、话题回复这些问题都修好了, 用 discord 的 朋友呢,会发现代理支持和图片生成回复比以前好用多了。还有像 metrics、 slack、 微软 teams 和 whatsapp 也都有不少关键的修复,解决的都是咱们平时用得到的,比如私聊回复连接稳定性的问题。 能看出来他们确实很关注咱们在不同平台上的实际使用体验。好了,到这里我们已经聊了很多内容了,现在咱们花点时间把这次信息量超大的更新浓缩成几个最关键最核心的要点 哟。你时间紧,只能记住三件事,那就是这三件,第一,你的智能体现在是个艺术家了,能自己做视频和音乐。第二,智能体有了实验性的做梦功劳,长期记忆能力有了质的飞跃。 第三,升级过程很安全,也很简单,只有一个配置要改,而且一条命令就能帮你搞定。 总而言之啊,这次更新真的是给所有开发者和创造者提供了一大堆超级强大的新玩具,从会学习的智能体到能创造多媒体的机器人,未来的可能性真的是无限的。 所以最后我想留给大家一个问题,现在你手里有了这些强大的新能力,你第一个想要去构建的应用,或者说想要创造的体验会是什么呢?我非常期待看到社区里会出现哪些有创意的作品。好,今天就到这里,感谢收看!

用 open cloud 的 注意了,如果你发现 token 消耗快得离谱,账单突然变很高,很可能是这个问题。 open cloud 有 一个功能叫 skill, 就是 技能插件。听起来很美好,装一个 skill, ai 就 能帮你多做一件事。但没人告诉你的是,每次调用 skill 背后发生了什么。 普通对话, ai 只处理你说的那句话,但 still 不 一样。每次触发一个 still, open cloud 会把 still 的 完整定义、执行逻记、上下文记忆,全部打包发给模型。一个 still 可能就有几千个 token, 你 装了五个 still, 每次对话就是几万 token 的 底座消耗,还没开始干活呢。 我自己第一次用的时候,一个下午就把额度用完了,完全不知道是怎么回事。后来才搞清楚原因, still 越多,每次兑换的头肯消耗就越高。不是限性增长,是叠加的。解决方案有三个,第一,只装你真正用的 still, 不 用的全部卸载装着不用,照样消耗头肯。 第二,用轻量模型跑日常任务。不是每个任务都需要最强的模型,简单的文件整理,消息回复,用便宜的模型就够了,贵的模型留给真正复杂的任务。 第三,把常用的指令写进 ajax, md, 而不是依赖 skill。 ajax, md 的 token 消耗比 skill 低得多,能用配置解决的就不要用 skill。 记住这三条,同样的任务,偷看消耗能降低百分之六十以上。如果你还不知道怎么配置, ig, 去 md 评论区扣一,我下期专门讲这个。点赞关注,下期见。