今天给大家揭秘一下 openclaw, 俗称龙虾,它到底是个什么情况?用官方一点的说法呢,这是一个超强的智能抓取系统,通俗一点讲呢,就是负责帮大家拆快递,开零食,顺便按一下下班键。听起来很高端对吧?实际上就是个高级打工钱。 openclaw 现在也是最火的,经过一段时间的运用, 我认为 openclaw 其实就是一个大模型,空白的大模型,需要什么就自己往里面添加各种各样的 skill, 把它变成和豆包、 ppt、 deep、 secret、 jam 一 样, 需要不断地调试,用大量的数据填充和测试,才会形成真正稳定的 skill。 它可以封装很多 skill 技能,形成一个完整的 agent 智能体,而且不受限制,完全由自己掌控。当然,弱势的话也是十分明显的。 你这是讲劣势还是公开处刑?我们仨啊,别拍了别拍了,这一页其实可以直接略过快关 ppt 观众已经开始截图了,时间成本其实特别高调,一个 skill 也好,一个 a 针也好,往往得折腾十天半个月才能勉强出来一个,而且出来了还不一定好用。 数据采集难,数据太少导致效果差。第三条,测试人少,不能很快迭代完成,调试成本巨高。哇,动了, 要不把少数人完成多数测试写进绩效,人手再少一点,我们这进度条就能申请非遗了。一个 skill 调试很久才能真正被应用, 这就是 open claw, 一个充满可能性的 agent。 时间成本高,数据采集难,财力跟不上,知识面不够广,普通人真的适合养 open claw 吗?我们评论区聊聊,点赞、收藏加关注。
粉丝1147获赞2.4万

就在几个小时前, openclaw 四点九发布了,但你可别以为这只是个普普通通的更新,不就根本不是一次孤立的行动,这真的是背靠背是日更的节奏。你看啊, openclaw 在 短短两天之内,连续甩出了三个版本, 先是四点七一个全模态的加强版,紧接着四点八一个紧急修复,然后就是我们今天要重点聊的四点九一个 可以叫做做梦进化版。说真的,这种离带速度简直就是在重新定义这个行业的标准了。四点九版本里最重磅、最核心的更新,其实是一次非常底层的架构性转变,它从根本上改变了智能体的工作方式。 官方公告里啊,用了这么一句话来介绍这个新功能,我觉得特别有意思,他说你的智能体现在会梦到你, 哇,这听起来是不是特别像科幻电影里的台词?浪漫?还是有点吓人呢?所以,这到底是什么意思呢? 好,我们来揭秘一下这个听起来很玄的做梦功能,官方名称其实叫 rem 回填,你可以这么理解,这就好像是你的智能体小助手在下班之后,开始自己默默地整理一天的工作笔记, 它会在自己闲下来的时候,自动去翻看回顾你们过去的对话呀,日记呀,然后从里面把那些关键信息,比如说你的个人喜好,重要的项目细节都给揪出来,最后呢,把这些精华内容整理好,存到它的永久记忆里去。 那具体是怎么做的呢?整个过程大概分四步,第一步,他会重放过去的记录,然后呢,就像淘金一样,从一大堆信息里筛选出那些真正有价值的,能长期记住的事实。接着第三步,他会把这些记忆的碎片给组织起来处理好。 最后也是最关键的一步,就是把最重要的那部分正式的写入他的长期记忆里。你看,这整个流程,简直就是在完美的模拟我们人类大脑在睡觉的时候巩固记忆的那个过程吧。 关键点来了,它解决了目前所有 ai 智能体最大的一个通点,那就是健忘。你想想以前的智能体,每次对话都像格式化了一样,像个新生儿,你得一遍又一遍地跟它重复背景信息,多烦人呐。 但是现在不一样了,通过这个做梦机制, opencloud 的 智能体可以随着时间推移不断地积累知识、理解上下文,它就再也不是一个健忘的工具了,而是在真正的进化变成一个持久的、越来越懂你的伙伴, 能力越大,责任越大。所以有了这么牛的功能,安全性就成了重中之重了,对吧?尤其是在那些要真正投入到生产环境的商业场景里。那我们就来看看 openclaw 是 怎么给自己的堡垒加固的。 在讲具体的安全措施之前,我们得先快速解释一个关键的安全术语,叫 s s r f, 全称是服务器端请求伪造。我知道这听起来很专业,但简单来说,它就是一种安全漏洞, 坏人可以利用这个漏洞来欺骗你的服务器,让他去访问一些他本来绝对不应该碰的内部网络资源。所以你可以想象,这玩意儿是相当危险的。 好,了解了 s s r f 之后,你再看四点九版本的这些安全更新,就能明白它们有多重要了,它基本上是从好几个层面把安全漏洞给堵死了。 你看它不仅加固了我们刚才说的 s s r f 防护,还把远程命令注入的风险给锁死了。而且它还把所有从外部来的数据源全都默认标记成不可信,先净化一遍再说。可以说这打出了一整套漂亮的组合拳,让 openclo 在 处理那些敏感的客户工作时,变得前所未有的安全和稳健。 除了安全方面的加固,四点九版本还带来了一个我觉得特别有意思的质保工具,他们管这个叫角色氛围评估, 这是干嘛的呢?它能让你把不同模型下的智能体并排放在一起进行比较,看看它们的个性和行为有什么不同,这样就能确保你最后选出来的那个智能体不光是聪明,更重要的是它说话的那个感觉,那个风格能完全符合你的品牌调性。没错,就是我们常说的那个最对的 web。 那么问题来了,四点九版本这次这么惊人的进化是怎么做到的呢?难道是凭空出现的吗?当然不是,答案其实就藏在一天前刚刚发布的四点七版本里,可以说正是四点七版本为这次进化打下了一个非常坚实的能量基础。 四点七版本其实带来了五大关键升级,它的核心就两个词儿,能力和自动化。比如说它搞了一个新的 infirm 命令,把所有的 ai 任务都统一了,操作一下子就简单多了。还有它引入了 webhook, 这下智能体就可以被外部事件自动触发了, 这就实现了真正意义上的自动化工作流,再加上它还支持了一堆新模型,所以你看,所有这些其实都是在为四点九的这个做梦进化铺平道路。 我们现在把四点七和四点九的发布公告并排放在一起,你仔细看,没错,这两个都带来了巨大更新的版本,发布时间仅仅就隔了一天,一天啊!说真的,这种开发速度在整个行业里用恐怖两个字来形容一点都不过分。 当这种惊人的迭代速度和我们前面提到的强大功能两者结合在一起的时候,就会产生一种我们称之为复利优势的效应,而这才是真正能够改变游戏规则的地方。 所以它的核心价值到底是什么?其实就一句话,你拥有了一个在你睡觉的时候还能不断学习自我净化的智能体,这种真正的力量就来自于它能够持续的积累上下文,并且每天都在进步,这是一种持久性的智, 而且这还不是一个人或者是一个小团队在战斗。光是在四点七和四点九这两个版本里,就有超过六十五位贡献者参与其中。 这个数字说明了什么?它清楚地表明, open call 的 背后是一个充满活力、高速运转的庞大社区在共同推动,这已经形成了一股不可阻挡的势头。 所以这就引出了我们最后的一个思考。你想想看,一个每天都在自我完善的智能体,在复利效应的加持下,六个月之后,他会变成什么样?或者我们换个角度问,拥有他的你又会领先别人多远呢?这个问题确实值得我们每个人好好想一想。

今天我们来聊一下 opencloak 的 版本问题,那么 opencloak 的 更新速度是很快的,可能三天两天都在更新,那么我们通过那个 npm 来安装那个 opencloak 的 时候,默认安装的是最新版, 安装最新版以后可能会有各种的一些错误,那么有些版本可能是稳定的,有些版本的话可能就用不了,我们安装有问题的 openclaw 以后是不是就用不了 openclaw 了?那么这个不是的,我们可以通过在安装的时候就是我们指定版本,比如说现在他发布的最新版是那个二零二六点四点一,那么我们可以选择我们需要的版本, 比如说某一个版本比较稳定的话,我们就来安装那个版本,现在的话我们看一下。好,我们打开那个 power show。 好,这里是以那个管理员的身份打开的,那我们来看一下它的版本, openclo, openclo 跟 v。 好, 那我现在安装的这个版本是二零二六四点一,好了,配置一下那个 openclo, 看它有什么问题,那么这个是我安装的那个最新的一个版本 openclo on board。 好, 我们看一下上面这里,那么它这里已经报了错误了,那么这个的话就是我是正常安装以后,就是发现它已经报错了,那么我们往下面再试一下,这里的话,我们选择那个是好,敲回车 一样的,那么下面这里也是有报错的,那么这种的话就会影响我们使用。但是我们用 npm 安装的时候,它默认安装的就是最新版,那么其实我们在安装的时候是可以设定版本号的,我们来看一下怎么操作,我们先退出这一个设置。 好,我们退出来了,那么我们先把那个 open 给它卸载掉,就是我们通过那个官方的指令来把它卸载掉。 好,我们 在这边选择那个中文, 好,选择简体中文。好,我们点一下安装这里,然后再点一下卸载这里,然后我们看一下,就是我们用这种非交互式的,就是我们不用确认它里面的那些内容,我们把这个考过背过来。 好,我们先卸载一下,那么这一步的话就是卸载它的那些配置文件,还有核心的一些东西。好,那么卸载完了以后呢?它这里就把这些给删除掉了,那么接下来的话,我们还要卸载一下,就是那个通过 n p m 安装的那个 c l i n p m install 杠记,因为我们是前局安装的 openclo。 好, 已经卸载完成了。好,我们通过那个 npm 来安装,我们选择一下版本,好, npm i i 的 话就是那个 inshift 的 缩写,那么我们用缩写也行,不用缩写也行,那这里的话我就用那个 inshift。 好, 这里的话是那个杠记,接下来我们要安装那个 openclo。 openclo, 好,接下来这里就比较重要了,我把这个往上拖一点,之前的话我们是到这里就直接敲回去安装了,那么他默认安装的是最新版的那个 openclo, 但是最新版的 openclo 是 有问题的,那么这里的话我们要 就是跳过那个不安装最新版,我们要来安装那个之前我们有过的版本,就是比较稳定的版本,比如说这里的话,我就安装那个三月二十八号的那个版本。好,我们看一下怎么安装,加一个艾特符号,然后写上二零二六点三点二八, 这个是 oppo 的 版本号,它是通过日期来定义的,那么有些软件的话,它就可能是一点零一这种的一个格式,那么这里的话就是我们根据它自己的版本号来进行确定。好,这里的话,如果我敲回车的话,它默认安装的就是那个二零二六点三点二八的版本了,因为我们现在那个 最新版的话是有问题的,那么我们就安装那个没有问题的版本,那么到这里的话就是我们想安装哪个版本,就在那个就是 openclock 后面加上一个艾特符号,加上它的版本号就可以了,那么我们这么写的话就是安装指定的版本,到这里的话就是我们要注意, 比如说我们之前用的是那个某一个老版本,那么我们要到新版本或者是到其他版本的时候,那么我们就在后面指定版本就可以了。好,我们敲回车看一下。 好,我们的 openclaw 安装完成了,那么我们看一下我们安装的版本是哪一个 openclaw 更微。 好到这里的话,我们看到了那个 openclaw 的 版本,就是我们指定的这一个二零二六点三点二八这个版本,那么实际在用的时候,比如说我们 e 的 新版本有问题的时候,我们要切换到老版本的时候,那么我们就指定某一个版本来进行安装,有些时候可能就是你用的某一个版本,你又想换到其他版本的号,那么我们就通过在安装的时候,我们在那个 open color 后面加上艾特,加上版本号就可以了,那么这个是需要注意的一个地方。

嘿,各位, openclo 又有大动作了,刚刚发布了二零二六点四点七版本,跟你说这次更新可不是闹着玩的,它不光带来了一堆超给力的新工具,还对整个平台的核心做了个大加固。 今天呢,咱们就来好好聊聊,深入挖一挖这次更新到底有哪些好东西,来,我们开始吧! 好,那我们今天就分几步走。首先呢,咱们先从一个宏观的视角鸟看一下这次更新的全貌,然后我们会一头扎进去,看看那些最亮眼最强大的新功能到底是什么。 接着,我们再看看 opencloud 生态系统,它的朋友圈又是怎么扩大的。当然了,那些平时看不见但又超级重要的安全和稳定性修复,咱们也得聊透。最后,我会给大家总结一下,这次更新最核心的价值到底在哪儿。 好,咱们先进入第一部分新版本概览。这么说吧,这次更新呐,绝对不只是一次常规的修修补补,它更像是 openclaw 平台的一次重要飞跃。 如果你要问这次更新的核心是什么,我觉得啊,主要就三块儿,第一,给开发者们塞了一堆全新的大杀器级别的工具。 第二,跟各大 ai 服务商的关系搞得更铁了,集成得更深了。最后,也是非常重要的一点,就是对平台的安全性和稳定性来了个硬核加固,这三条腿稳稳地撑起了这次发布。 接下来是第二部分主要新功能。好了,说完了整体印象,咱们就来点实在的,看看那些真正让人兴奋的东西。 这一次更新带来的几个新工具啊,可以说真的有点改变游戏规则的意思了。 首先要说的这个,哇,简直就是个大招啊!一个全新的命令中心叫做 open cloud info, 你 可以把它想象成什么呢?一个专属的 ai 副驾驶就坐在你的命令行里,随时听候你的调遣。 那这个音符儿命令到底有多深呢?这么说吧,它把四大核心功能全给你打包到一块了,不管你是想直接调用大模型做推理,还是想生成图片、音乐、视频,甚至是想让 ai 帮你上网搜东西,或者给文本创建嵌入,现在通通一个命令就搞定。 这就意味着,以前那些可能需要倒腾半天的工作流,现在一下子就变得超级简单。还有一个功能啊,可以说是王者归来了,那就是内存维基堆占, 你就把它想成一个超级智能的知识库,它厉害到哪呢?它不光是帮你存东西,还能把信息自动整理成论点和论据的结构,甚至能自己发现哪些信息是互相矛盾的。而且啊,你在搜索的时候,它还会优先把最新的内容给你, 对于那些需要跟海量复杂信息打交道的人来说,这简直就是个神器。当然了,对于那些喜欢自己动手追求极致定制的高手们,这次更新也准备了个特别的礼物, 可插拔的压缩服务商。说白了,这就好像换电脑的零件儿一样。你现在可以把 opencloak 内部那个负责总结摘药的核心引擎直接换成你自己写的,这一下子就让整个平台的灵活性上了一个大台阶。 好了,第三部分,扩展的 ai 服务商支持聊完了新工具,我们再来看看 opencloud 的 朋友圈,你知道一个平台再厉害,也得有朋友才行。这次更新呢, opencloud 在 交朋友这事上又迈出了一大步,大大扩展了对第三方 ai 服务商的支持。 你看这张图就明白了, opencloud 的 生态圈是越来越大了,也越来越开放了。这次更新重点优化了对好几个主流服务商的知识,这里面有我们都认识的谷歌 anthropoid, 也有像 rca i 和 alma 这种非常专业的工具, 而且这些更新都特别实在。比如说,你现在可以直接在 opencloud 用上谷歌最新的 gem 模型了, 跟 r c a i 的 集成也变得更简单,直接内置了插件还有 alma, 它现在甚至能自动识别你本地的模型有没有视觉能力,非常智能。 哦,对了, antropic 的 cloud 命令行工具也回来了,这些小小的优化,其实都让咱们开发者在选模型、用模型的时候感觉更顺手了。 好!第四部分,关键的稳定与安全修复,炫酷的新功能说完了,咱们得聊聊那些幕后影响了。 你知道一个平台再牛,要是三天两头出问题,不稳定不安全,那也白搭。所以接下来咱们就看看那些让平台变得更可靠的底层修复工作。所以你肯定想问,新版本到底安全了多少呢? 答案是安钱的多。我给你举几个例子,以前啊,可能会有一些服务器端请求伪造的漏洞,让坏人能从服务器内部搞事情,现在呢,咱们加了专门的保安和门禁,这条路给堵死了。 还有系统里一些特别关键的设置,以前可能会被不小心改动,现在也上了一把安全锁,不让随便碰了,再就是会画令牌,这就好比你家慌了门锁,旧钥匙会立刻作废,独绝了后患。这些改变让整个平台就像穿上了一层盔甲, 除了安全,用起来爽不爽也很重要,对吧?开发团队在很多小细节上也下了功夫,比如以前聊天记录里可能会冒出来一些看不懂的技术代码,现在都给你藏好了,界面干干净净,在小屏幕上,聊天窗口也不会被其他东西挡住了。 ios 上的连接错路提示也更清楚、更人性化了。还有跟 discord、 slack 这些我们天天用的工具集成也更稳定了。就是这些一点一滴的打磨,让我们的日常使用体验变得更 好了。好了,最后一部分核心总结说了这么多,咱们来回顾一下,如果要给这次更新找一个精神核心,一个关键词,你觉得会是什么? 嗯,我觉得就是社区。你看这个数字,四十五加它不是冷冰冰的,这背后是超过四十五位开发者的心血和智慧。 正是因为有他们,才有了我们今天看到的这次强大的更新,这也恰恰证明了 open core 社旗的活力有多惊人。 你看官方的发布说明里,也特别感谢了像 winston、 cock j lamer 这样的核心贡献者,以及整个社区的每一个人。这就是开源最迷人的地方,对吧?大家一起把一件事做得更好,共同推动项目往前走。 所以咱们来给 open core 二零二六点四点七划个重点,它就像一个武林高手,一边练就了更厉害的新招式, 另一边呢,又把自己的内功,也就是平台的底子打得更扎实了。结果就是现在的 open car 不 光功能比以前强大了不知道多少,用起来也更让人放心了。那么最后这个问题就留给大家了, 现在你手上有了一个更强大更安全的 open car, 准备好用它来创造点什么不一样的东西了吗?

血泪总结,我用 openclaw 一个月,总结了这六个让你从玩具变生产力的配置原则,厉害!哈喽,大家好,我是姚鹿行。 前两天有个同学问我,姚老师,我 openclaw 装好了,但用了两周,感觉就是一个贵一点的 check gpt, 咋整呢?我说你配置完 agent jason 就 觉得齐活了,他才反应过来,那还要配置其他的吗?这一步你都没搞对,后面全白搭。 为什么你的 openclaw 像降智版的拆 gpt? 很多人装完 openclaw, 连上模型能对话了,就觉得可以爽了, 结果用了一段,发现完全不计预期。问题出在哪里呢?是因为你把 openclaw 当拆的 gpt 用了,两者的玩法完全不一样。今天我来给大家分享一下我踩了一个月的坑总结出来的六个配置原则,帮你的 openclaw 从玩具进化成真正的生产力搭档。 原则一,别在售马当里写小作文我第一次写售马当,洋洋洒洒的写了两千字, 结果龙虾根本记不住。售马当不是简历,而是行为宪法。他只需要回答三个问题,你是谁?风格是什么?什么情况下你会拒绝用户?超过五百字就太长了,龙虾会选择性的失忆。我的售马当现在长这样, 就是这么简单,但效果比之前两千字的小作文好了十倍以上。原则二, memory markdown 要分层,别堆在一起 open cloud 的 记忆系统很强大,但很多人都用错了, 他把什么都往 memory markdown 里边塞,结果文件越来越长,解锁效率越来越低,最后变成垃圾堆。正确的做法是分层记忆。举个例子,这样解锁的时候更有针对性,不会一团糟。 原则三,模型切换不是用斜杠 model, 而是用场景分群。很多人知道斜杠 model 可以 切换模型,但很少有人意识到频繁切换模型是反模式的。更好的做法是按场景分群,每个群绑定固定的模型。 我的 telegram 分 组如下,每个群有自己的上下文,不会相互干扰。原则四,心跳任务和定时任务不是一回事,很多人搞混这两个概念。 定时任务是到点了执行一次,完事就结束。心跳任务是定时唤醒 agent, 让他主动检查状态,汇报工作。让 open cloud 从一个等你问的工具变成了主动找你的助手。 原则五,别让龙虾自己改自己的配置文件。这是最坑的一个,我第一次让 open cloud 改配置,他直接把自己改挂了。而且如果你自己开着自动重启的话,他有时还会死循环,疯狂消耗 token。 所以 我总结的教训是,关掉自动重启配置文件,让 cloud code 改 克拉扣的会评估修改,兼容性不会乱来。 oppo club 自己改自己的话,很容易翻车。原则六,备份不是可选项,而是必选项。我见过太多人因为没备份而哭的, memory macdunk 被搞坏了,之前交的东西全没了。 换服务器忘了迁移配置,从零开始调教,误删了工作目录,几个月的记忆没了。以下是我的备份策略,花五分钟配置好备份,能省你几十个小时的重新调教时间。 最后,从玩具到生产力的关键。说了这么多,核心就是一句话, open club 不是 配置完就能用的,它是打磨出来的, 当你打磨好了,它就从贵了十倍的拆 gpt 变成了真正懂你的 ai 搭档,这个时间的投入非常值,感谢大家三连,谢谢大家,记得关注再走。

openclaw 四点五这次更新不是小修小补,而是大踏步迈向全能型 agent。 首先最直观的升级是 video generate, 在 对话里直接生成视频。第二个工具是 music generate, 在 对话里直接生成音乐。第三个是 confluence, 本地云端都能驱动图像、视频和音乐。还有这次最浪漫的升级, openclaw 的 梦境记忆系统共分为三个阶段,第一步是浅睡阶段, 先把每天零碎笔记收拢起来。第二步是深邃阶段,过滤噪音,提取更稳定的上下文。第三步是 ram 阶段,把内容串成更连贯的长期记忆。模型和后端也大升级,新增供应商通一千问、 fireworks、 ai 阶跃星辰 gpt 五前瞻适配,为后续高端模型做好准备。 cloud ui 中文化,支持简体中文和繁体中文, 原生审批更完整。 ios 推送审批, matrix 原生审批,插件管理更方便。新增 force 覆盖安装 cloud hub, 可搜索查看安装。一句话总结, openclaw 四点五不是单点增强, 而是整体进化,它正在从一个会聊天的 agent 变成会创作、会记、会协助的全能型 agent。

它这里是让你再确认一遍,要不要把它所有的内容都导入进来。好,那么现在它就已经是一个正常运行的状态了。 今天详细的教大家如何安装部署 hermes agent。 那 首先我们先了解一下 hermes 是 什么,就是它跟小龙虾有什么区别? 我们就用他自己做的这个演示动画来大概过一下。我用下来感觉他跟小龙虾最大的区别其实就是稳定,就是他比小龙虾要稳定很多,这个非常非常重要。在我看来一个工具最重要的就是稳定 可靠,那我平时给他布置任何长任务,他都没有崩溃过,没有中断过,这一点很重要啊。 呃,小龙虾的话,之前做那种长任务经常会停掉,要么就卡住,反正就会出一些问题。这几天我用 hermes 用下来,感觉非常的稳定可靠。而且他现在这个版本最新版本要比我刚开始安装他的时候好太多了, 就进步非常非常大。最开始我安装他的时候呢,他的权限很小,就是让他做什么东西他都需要申请权限,很麻烦。那现在的话很接近小龙虾了,这个可能是他在底层设计上出于安全方面的考量, 其他的他跟小龙虾没什么区别,最大的区别也就是他的记忆系统自我学习的能力,就是每次他完成一个长任务,他就会写成一个 skill。 那你现在看到的这个演示动画就是他做的,这是第五版,就修改了五次,我认为效果也还行,效果也不错。另外就是他这个创始人团队啊,这是一个做开源模型的团队,他们发布过一系列 hermes 模型,开源模型。 好,那么接下来就教大家如何在本地部署,如果你们自己在安装的过程中遇到什么问题,可以在评论区留言,我看到就会解答一下。首先我们打开这个项目的开源地址,或者打开他的官网也可以, 然后找到这个下载的命令复制下来。他目前不支持 windows 系统啊,如果你是 windows 系统的话,你需要装一个紫系统,然后打开终端 粘贴进去,按回车,然后等几分钟,他会自行下载,下载好以后会进入交互界面。 ok, 这里他是识别到了我电脑上安装了小龙虾,然后他问我要不要先导入, 这里我们可以选择导入,也可以选择不导入。我先演示一下不导入,如果要导入的话,你就输入 yes 就是 y, 如果不导入你就输入 n, 那 么我们先输入 n, 这里我们就可以选择快速设置啊,没必要完整的全设置,因为你只要快速设置能让他先跑通就可以了,后面需要什么配置,只需要和他说,他自己就会去配置。好。好,这里我们选择要接入的模型, 比方说我用 mini max, 你在粘贴 a p i k 的 时候,它不会显示出来啊。然后这里按回车, 好让我们选择模型。你如果定的是极速套餐,你就可以选这个 high speed 的, 这里是要接入通讯软件,选择不接入,后面再去配置, 这里输入 y 就 可以了。 然后再输入 hermes, 这里就可以进行交流了。 先跟他打个招呼, 好,我们看到它这里已经回复了,但是因为这个字体的颜色呀,看不清,那么我们就可以给它换成高对比度的,清晰一点的输入 skin 空格 model。 好, 这里我们已经换了,刚才我以为没换成功,这里已经能看清了。那么你如果要接入飞书的话, 你就去飞书创建一个频道,然后把 id 和密码发给他就可以了。好,下面演示一下如何一键导入小龙虾相关的配置啊。我们输入 permiss 空格 set up, 然后这里我们选择 yes, 它这里是让你再确认一遍要不要把它所有的内容都导入进来,然后会带来一些兼容性的问题,但是它自己会判断会弄好,我们选择 yes, 然后再次进入配置项。 ok, 那 么现在呢,他就已经拿到了你所有的 opencloud 的 相关配置,然后我们测试一下, 你看啊,他现在已经知道了,我叫戴哥,这个就说明他已经拿到了之前小龙虾里面的记忆文件。好,那么现在他就已经是一个正常运行的状态了。但是这个软件它目前没有 web ui 啊,就是浏览器里面没有控制台, 只有在终端里面运行。还有如果给他接入通讯软件的话,在通讯软件上面与他交流, 配置起来还是很简单的啊,要比小龙虾要简单很多。后续如果你还需要再让他去配置,其他的都可以和他讲,他自己就能去完成。好,这期教程就到这里。

所有养虾人必冲的一个 skill, 这个大家一定要装下来,为什么呢?你看好我们日常跟 opencry 聊天,跟龙虾聊天是这样子的,对不对啊?这边还有一堆的这个程序啊,大家看不懂,然后很多人跟我 battle, 说什么汉化,我告诉你这里面有多少进去汉化个头啊, 全是英文,很多人看不懂。来,对小白最友好的地方在哪里?这里直接去装这个,装完之后,你看这里面所有的数据你都看得到,再来这里面你实时的聊天,你看我在跟他写代码,什么都看得到,再来 他的服务管理都可以,还有日历,你需要看日历的时候,对吧?这对程序员比较有用啊,对,大家日常可能不一定有,但这个一定可以用。还有你配置的模型,你看我只配了一个模型,你要配多个模型,这里也都能实现。 然后包括 agent, 你 还可以做多个 agent, 也就是你们经常讲的直分身,什么都可以在这里面直接去完成,你理解吗?它跟龙虾直接做同步了,然后这网关你的信息渠道,你看 qq 啦,包括钉钉啦,啊,你看我是用飞书跟微信,对吧?那还有其他你都可以用,它在这里都可以看得到,包括通讯都在这,安全,你看这个,你可以自己设置一个密码来。 最重要的,很多人说你的龙虾记忆问题,来,你看所有的记忆,我的每一天沟通它的记忆都在这里。好,你这个时候觉得这个记忆有问题,就点开在这里面去改, 理解吗?你每一天的记忆其实在这里面都能改,你看一天的,你就直接去改它就可以了,你看这个太牛了,直接改记忆 对吧,还可以创改记定时任务来这个呢,是龙虾一直有一个很大的 bug, 你 知道我现在的龙虾怎么去提醒我的吗?你们应该在我朋友圈有看到我的龙虾,十二点会叫我去买一个 smoking, 对 吧?等等的,即使是我昨天嘴巴跟他一说他就给我了,那他怎么就 跑这个定时任务呢?其实他用的是我这个电脑的定时任务来提醒他触发,那这样在这里面你就可以直接去加定时任务,就特别特别的方便,包括你的使用情况啦,你看你的信息,聊天,你的 token 总消耗都在这里面,你可以看得到的。好在这里面有个最重要的来了 skill, 你 装了多少的技能,在这里都可以看得到。对新人最友好的地方,如果你们不会用魔法,不会用 tiktok, 在 这里面直接可以找国内的理解吗?你这里面直接安装一下,这里直接可以找国内的,你要什么 skill, 在 这里面直接找,可以用国内镜像,也可以用 tiktok, 原版的 都可以,在这里面特别舒服啊,那包括你的模板设置啊,什么七七八八都在这,能理解了吗?所以这一套大家一定一定要去充,我把它变成白色的也行,我把它变成黑色也行,你需要改什么?字幕都在这啊,语言什么都在这里。 这个 skill 还有个很强的地方就在这,如果你要退回原版,看到没有,他可以退回的。我现在是三月二十三号的版本,可以退回三月十三号, 牛吧。所以这一套真的是这段时间以来我用下来对所有的新人最友好的,因为龙虾嘛,你不可能说都是程序员去用,大部分还是普通的老百姓创业者玩家想用的这套,大家去冲啊,如果实在不懂的直接去 看这个好不好,最简单的啊,大家一定一定搞起来,搞起来,真的好的事情我每天都给你们去分享好不好,去帮到大家,在玩龙虾的路上,大家 respect。

hello, 大家好,今天呢,我们就讲讲 open curl 不 同的部署方案的一些比对啊,我们比对完以后啊,大家可以根据自己的需要去选择适合自己的部署方案啊, 然后以及我们三个部署方案当中,今天先讲一个 q curl 的 一个安装啊,这个是最简单的,然后其他后期呢,我们也会呃,我也会出那个 其他的方案的一个部署教程来给到大家。好,我们先来看一下 open core 它的呃部署方案的一些优劣势对比吧。那其实我们知道 open core 它的优势是很明显的对吧?啊,当然它的劣势也很明显,总结起来呢,就是高风险高权限 啊,当然他的风险也是可以在我们选择不同的配置方案的时候去有所区分的。呃,常见的部署方案呢?有这几个啊,比如说 q pro 最近也是比较火嘛啊,他呢是腾讯,他打包了以后呢,我们可以进行本地的一个安装, 优势就是他零门槛,一键安装几分钟就可以做好了。当然劣势也很明显啊,因为是毕竟你是大厂,是打包过后的嘛,他的安全沙箱限制深度权限也会是比较约束 好。那另外的几种方案,比如说 open crawl 手动本地布置啊,那他的优势就是完全可控,也支持深度定制开发 啊。当然难度呢,就是他的劣势啊,属于技术门槛会相对较高啊,当然还有我们云端的一个部署啊,我们这左边的这两个都是属于本地部署。那还有云端部署 啊,比如说以这个阿里 oppo pro 为例啊,他也是支持一键安装的,那优势就是呃,他的安装相比手动去进行本地布置,他也是相对会比较简单, 并且他是可以支持啊,全天运转的。我们本地部署,他就需要你的电脑保持开机他才能用,如果你关机的话呢,他自然也就停止了, 当然本地他也有这个数据隐私,他会相对较好的一个优势。那云端的话呢,他的优势就在于他可以全天运转,类似就是他的数据啊,云端储存私密性会相对较弱。 那总结的来说, q curl 呢,它适合我们去追求便捷的人群, open curl 它适合追求掌控的人群。 然后呢?呃,我们这个云端一键部署,它适合追求稳定啊。当然了,除了这三种,呃,龙虾的部署还有很多,因为也有很多大厂的龙虾也是在做。呃,不同需求的,我今天就主要讲这三个, 因为还有一个呢,是渠道比较不一样的,就是本地,本地手机其实也是可以部署的啊,当然手机这边啊,权限就更高了啊,风险也更高,所以我们有机会再给大家去讲讲。我们还是先讲这三种啊。 好,那这三种安装方式它有一个费用的一些比对,给大家有一个基本的概念。那 q curl 呢?前期投入是免费的。 open curl 手的部署啊,因为我们都知道它开源的嘛,它也是免费的。 那你如果是用阿里的这个打包,那它是需要付费的,因为主要是因为要租买它的云服务器啊。 好,那在后期的一个成本当中呢, qq 它基础功能是永久免费,高级定制功能可能会收费。 qq 的 话呢,因为软件本身是免费的嘛,那就看看你有没有购买这个付费模型,如果你不买的是这个付费模型的话,它的这个 api 可能会产生费用。 那呃,云端的这个它是呃需要持续付费的,呃,一般是按月或者按年去计算嘛?啊,你可以,然后模型这边你可以选择套餐,也可以选择计量啊。 好,那在下面的话呢,我们模型的一个费用啊,单独拎出来可以看看 qq pro 前期的,目前的模型它是有免费额度的,超量以后,呃它会在计费啊。还有一些付费模型是单独呃计费的。 呃, open core, 呃,就是我前面所说的,你可以选择免费的开源模型啊,也可以选择付费的。然后的话呢,呃,我们阿里云的一个 我们阿里龙虾的一个部署呢,然后模型这边就是它可以选择套餐,也可以选择计量啊。 总的来说, qq pro 呢,它是有免费版块也有付费版块。然后 open core 的 话呢,如果你想呃零成本也是可以的,因为软件本身不收钱,你如果选择开源模型也可以不花钱, 你也可以主配软件是免费的吗?因为是开源的。然后呢,你自己再买付费的啊,云端模型也是可以的。好,总之 oppo pro 它可以实现完全零成本,就主要是在于你硬件这一边,看看要不要配置好一点的啊。 好,那云端的一键部署的话,他长期使用是需要持续投入的。好,那这是这三种方式的一个费用比对。 接下来我们再来看一下试用的场景以及选型建议。像 q pro 的 话呢,会比较推荐新手去使用,因为它真的很容易去安装。当然长期的来说的话呢啊,你如果追求深度啊,你可以选择其他的方式啊,进门入手啊,新人入手可以使用它, 那像我们如果企业用户他追求本地的一些深度定制,要拥有极大的一个自由度啊,你想自己做一些深入的自定义,那我建议你是选择本地部署手动安装啊。 好,如果是追求云端的一个稳定啊,就是全天可以运转啊,那这个也是比较适合团队写作和企业用户的 啊,因为的话他不受本地设备的一个约束呢,是可以长期自动化运转的。所以的话呢,这一类人群你可以选择就是租云服务器,然后呢,呃,也购买云模型啊,那这一类用户呢,就可以选择啊,一键云安装啊。 好,那这就是我们三种嗯,常见部部署方式它的一个区分和选型建议。接下来我们就来看一下新手用户,嗯,比较推荐的啊,就是你用的完试一试啊,你 因为它这个也是腾讯做的嘛,然后的话呢,微信 qq 扫码哦,它的安装会很简单的啊,所以我们先来讲一讲 qq 的 安装好,你直接输入这个网址啊, h t t p s。 嗯,外号巴拉巴拉啊, qq 点 qq 点 com 就 进到这个页面,目前的话呢,它已经全面开放,不需要邀请码了,然后在这里你选择适合自己的, 呃,看 windows 的 还是?呃,这个 iphone 芯片的,你就自己看着适合自己的,然后点击安装啊,点击,应该说是点击下载,点击下载他就下载完了,下载完了以后呢,呃,你就点击一键安装,然后呢再扫码绑定微信就可以了, 在这里我直接就是用官方的这个教程来跟大家说了,因为我的电脑已经装了其他的龙虾, 一台电脑如果你装多个龙虾,其实它还是会有一些冲突的,所以本地的话最好还是不要养太多,只因为本身你的个人,如果对于个人而言,你的配备 也是比较有限的,你装多只他们啊,总归是会有些冲突啊,所以这里的话呢,我就用官方他这里来弄啊,他真的很简单,你会装 app 你 就会,你就会装这个 qq, 它真的没什么门槛 啊,然后你呃,下载安装完成以后呢,你就扫码绑定微信,然后就可以关联了,然后就可以通过微信窗口呃来去 指挥你的龙虾了啊,好,那这些都是真实场景的,嗯,一些使用就是当然需要你,你要用这只龙虾的时候呢,你电脑是需要开机的啊,你电脑需要开机,如果你关机的话, 他也是会关掉的啊,然后你就比如说你出去在外面啊,你可以通过你的手机远程让你的龙虾去帮你呃,操控你的电脑 桌面去做一些事情啊。好,今天呢,我们就讲这么多,大家如果感兴趣,欢迎在评论区当中进行评论。

做本科奥部暑这么长时间,被问最多的问题就是到底用什么电脑。今天这期,我把我花三千块踩过的坑全部分享出来,帮你一次性选对硬件。 在开始选之前,先问自己三个问题,第一,你的预算是多少?第二,你是长期用还是临时体验?第三,需不需要经常移动?这三个问题回答完,你基本就知道该选哪个方案了。 方案 a, 在 办公电脑上直接装,听起来零成本对吧?但这里有三个大坑,你必须知道。 第一,安全风险。 open call 有 设有执行权限,意味着它能操作你电脑上的所有文件,公司数据放里面,风险自担。第二,合规风险。很多公司明确禁止在办公设备上装第三,方案工具,一旦被发现,轻则警告,重则丢工作。 第三,无法气场,二十四小时运行,你关机睡觉,跟着你就停了,你第二天回来一切要重新跑。所以这个方案仅适合临时体验,不跑任何重要任务。方案 b, 单独买一台笔记本优势很明显,随时随地可以调试,可以跑本地大模型, 而且是你自己的设备,不存在合规问题。但也有两个要注意的,一是散热问题,笔记本长时间跑 ai 任务会降频卡顿。二是重量便携是有代价的,背来背去真的很累。如果你要买配置,记住两个关键, rtx 四零五零以上,独显 内存十六 gb 起,低于这个标准,本地跑模型会很痛苦。方案 c, mark mini。 这是大多数人的选择, 为什么?四个理由,第一,静音稳定。它本来就是为二十四期长期运行设计的,完全没有噪音,你可以放在卧室里跑。第二,功耗极低,只有六到三十瓦, 而笔记本要六十瓦以上,长期开着电费差距很明显。第三, m 芯片的统一内存架构,跑本地小模型,比如 bobram, 跑酷硬或者 bobram, 流畅度非常好。 第四,保值, mark mini 二手残值率一年后还能有百分之六十以上,买错了想出手也不亏。最核心的理由,省心,零噪音、零维护,插上电就不用管了。 方案 d, 云服务器这个方案适合两类人,第一,有技术基础的,云服务器的端口配置、网络安全设置需要一定的 linux 基础,纯小白搞不定。 第二,有跨境访问需求的,比如你在国内想访问一些海外服务,云服务器放对了地域就很方便。但要注意,云服务器长期算下来成本其实更高,一个月就算五十块,两年下来也够买一台 mac mini 了,而且完全依赖网络,断网就用不了。 所以它适合作为补充方案,而不是主力方案。好一句话总结,预算为零,只是临时试试。办公电脑 追求稳定静音,长期认真用 mac mini, 这是最不容易后悔的选择。需要移动办公,或者要跑本地大模型, windows 独显,笔记本有技术基础,有跨境需求,云服务器。好了,你现在用的是哪个方案?评论区聊聊,如果觉得有帮助关注我。

a n 时代,我们还需要苦练逻辑吗?现在既然有了 open cloud 这种强大的 ai 工具,我们还需要回头学习引导 ip 吗? 最近 open cloud 在 科技圈确实非常火,所以有很多小伙伴都在问立卡,有了这种能够直接看屏幕的 ai 工具,那像引导这种传统的 ip 是 不是要被淘汰了? 那我先给各位一个答案,完全不会,甚至引到刚刚推出的六点零版本,会让你发现,学好 r p 的 底层逻辑,才是真正的降维打击。为什么我这样说?我们来拆解一下这两个东西的本质。 以前我们用自动化工具的逻辑是,你需要先讲清楚任务的每一个步骤,然后像搭积木一样,手动拼出一个固定的工作流,最后让他重复执行。但 但 open call 不 一样,它是接到命令之后,直接观察屏幕去尝试完成任务,如果执行的结果不好,它会自己修正。听起来很美好,对吧?但你们发现了吗?这两者的本质其实都是工作流不同的事, 而必须要你手动拉节点,而 open cloud 是 靠 ai 实时去撞运气。如果你对工作流的运作逻辑不那么熟悉,那在操作 open cloud 的 时候,你还是会觉得他笨笨的,有些工作甚至是越做越糟,因为他不知道你的业务边界在哪里。 所以现阶段用引到六点零来建立自动化思维,不仅门槛更低,而且产出更稳定。那引到六点零的 ai 搭建流程到底是怎么回事?它不是那种完全脱离控制的自动驾驶,它的逻辑是你对着它口述你的需求。 比如帮我打开 b 站,搜索里卡加 ipa, 并按照最新发布排序,获取前面五页的标题作者发布时间,它会根据你的指令自动帮你把对应的指令积木排布好。 注意,如果遇到登录信息或是验证码的情况,引刀就会停止操作,并提示人工干预。这里我已经提前登录过了。另外还有一个隐藏的好处就是引刀是原声。 作为环境,你不需要像 n n 那 样去研究复杂的 a、 p i 声器,更不用折腾云端各种控制台。引刀的指令已经封装好了,你只需要按照它的提示把账号密钥填进去。那么我该学习那些复杂的编程环境设定吗? 千万不要设定环境搞定 vps 是 配置刀客这种事真的危险。我们是想当效率达人,不是想当修电脑的工程师。点到六点零的优势在于,他把 ai 变成了你的流程框架师, 他帮你把逻辑写好,你只需要负责最后那百分之二十的微调。这次六点零的更新真的是把魔法写进了现实,它不仅有之前魔法指令三点零的自动编程,现在连整个流程图都能靠 ai 一 句话生成,想怎么测就怎么测。 对于我们这些需要处理具体业务的人来说,这种确定性才是最重要的。到底怎么做?接下来就是丽卡的教学,重点在引导里面操作网页端的自动化,前提是都是你要 先给他权限。比如你得先在引导的插件环境里打开网页,该登录的需要提前登录。如果引导遇到有验证码的情况,就会需要人工介入才能继续完成任务。 听起来没有那么全自动对吧?但这就是阿飞稳如老狗的原因,因为他不是在猜,他是在执行你下达的精确命令。哪怕你用的是 ai 搭建这一步,人机确认也是必不可少的。然后这中间还有一个关卡,就是处理结非结构化数据。 这就是为什么我更推荐普通人学以到六点零,它把 opencloud 的 理解力和传统 rpa 的 稳定性结合在了一起。它不是让你彻底不动不用动手,而是让你不再需要去纠结第一步该干嘛,第二步该干嘛。想快速打造自己的专属工作流吗?真的不用去背代码,也不用去翻 github, 下载别人的 jason 来跟着丽卡一起点开,引到六点零,你会发现,自动化原来真的可以像聊天一样简单。好了,以上就是本期视频的全部内容,如果有帮助,请记得给我一键三连,同时别忘了转发给你身边那位同样也在学习自动化的朋友,我是丽卡,陪你用自动化和 ai 提升工作效率,我们下期视频很快再见,八八六五。

重磅!智普新一代旗舰模型 glm 五点一对零上线华为营,目前已接入华为原 max、 魔方猫的 lars、 马到扣、 darts agent、 tars、 flexes 等平台,一拖升腾,算力深度优化。 glm 五点一实现算力与仿存均衡,推理吞吐提升百分之三十, 支持免部署一键调用推理,部署智能体开发与复杂任务执行。您还可以在华为研 flexes 上部署 open call, 调用智普 glm 五点一,提升多轮任务中的一致性,降低日常使用场景中的失败率。 作为全球最强开源大模型,其编码能力刷新全球最佳成绩,单次可自主持续工作八小时,交付工程级成果。如您有云服务器或模型调用奥彭克奥部署需求,欢迎留言。

随着 opencloud ai 智能体的火爆,这可能离 ai 收购我们普通人最近的一次,平台都推出自己的 codingplay 的 套餐。为此,我花了一周的时间,把国内所有的平台 codingplay 全部撤了一遍, 整理出这一份可能是全网最全的对比指南。从七块九的入门价到五十块钱的旗舰版,从火山引擎到智普 glm, 从阿里百联到 mini max 七家平台,我会把每个细节都给你讲清楚,看完这期视频,一定帮你省下不少馒头。 那么我们正式开始吧。可能有些朋友还不太了解头顶 play 到底是什么,简单来说,它就是原厂商推出的 ai 编程模型订阅服务。 你以前可能只是简单用 ai 对 话来解决一些问题,但自从奥本克勒出现之后, ai 使用 有所改变,你需要自己调用 a api, 然后按 token 数量付费。 token 费用这个东西用起来真的没底, 有时候我们通过 open curl 问几个问题,一个月下来几百块钱甚至上千块钱都有可能。但是 coding play 不 一样,它是固定月费,根据我们的需要,每月只需要几十块钱就可以无限的调用。 这些平台做了深度适配,像 opencloudbirdcode、 coser 这些主流工具,全部可以直接使用,连门槛开箱即用,这就是 opencloud 的 核心价值。好,我们先说第一家,火山引擎方舟, 这是字节旗下的云平台,他们的特点就是多模型结合,什么意思呢?就是他不绑定某个模型,而是同时支持多个主流模型。他们有一个叫 out 模式,能根据你使用场景自动选择最优的模型。 这个功能很实用,省去你自己判断模型的麻烦。第二家,阿里百联,阿里百联是目前模型选择最丰富的平台,一口气支持五五个模型。还有阿里最大的优势就是它的 a 键生态圈, 什么意思呢?就是他不只是给你一个模型,而是有一套完完整的开发工具链,非常适合做复杂项目的开发者。第三家,腾讯云 腾讯云 callinplay 背靠着腾讯这座大山,最大的优点是企业生态做得好,支持混云二点零模型,这是腾讯资源的大模型。 腾讯人的优势。还有如果你本身就在使用腾讯的企业服务,如微信生态 企业微信这些,那腾讯人的接入是非常丝滑的。第四家,百度千帆,这家比较特殊,他最大的特点就是百度平台的生态圈,作为国内最早的原厂商之一, 百度的企业用户基础是非常庞大的,支持文新一员四点零,还有是百度的 c 加加优化,这是它的亮点,如果你主写 c 加加, 百度千帆可能是不错的选择。第五家,夜之暗面 kimi ko 夜之暗面这家的特点是长上下文的能力, mini 二点零,支持 二十万字的上下文,什么概念呢?相当于可以同时理解一篇三国演义,所以 timi 特别适合分析大型代码库或处理复杂的项目。第六家,智普 g l m codingplay 这家的编程能力是 真正的行业顶尖, glm 五在 s w e bench 榜单上是并列第一梯队的。 s e bench 是 什么?它是衡量编程模型能力的权威精准测试,能上榜的模型都经过严格的验证, 智谱的模型在推理能力上表现非常出色,适合需要高复杂编程任务的开发者。第七家, mini max talking plane 这家是今天性价比最高的平台,它最大的特点不是便宜,而是全模态。什么意思? 其他平台只支持编程模型,而 mini max 它包含了语音模型、视频模型、图形音乐模型一站式服务,且代码之余还能用它来语音转文字视频,裁剪图片,生成一页,制作一份定位,就解决了所有的需求。 如果你追求极致的性价比,又想体验全套模型,那么 mini max 是 最佳的选择。这边是模型的对比情况,最后给大家一些选购的建议。 如果你追求极致的性价比,日常写写代码,不用做特别的复杂项目, 那么 mini max 是 你最佳的选择。如果你在企业环境需要稳定的服务,完善的工具链,那么 阿里百链是最佳的选择。它不只是提供模型,还提供了 ag 的 生态生态圈,以及五个模型的随意切换。如果你需要 强大的编程能力,比如处理复杂的算法或者大规模重构,那么智普是首选。智普的 glm 五的编程能力是经过 swe 编程认证的,是行业顶尖水平。如果你想处理超大的代码, 如十几个文件、复杂的项目分析,那么 kimi 是 你的最佳拍档。如果你刚开始使用 ai, 火山眼前是个好的起点,它的自动选择模型模式 非常适合我们新手入门。以上就是国内七家平台 qq 平台的全面对比,如果你觉得有用,请点赞收藏,我们下期再见!

最近全网都在催 opencl, 说他是数字员工,能帮你发邮件,处理文件,自动化一切。我收了一圈真实案例,结果吓了我一跳,第一批受害者已经出现了。 深圳的一个程序员,转了 opencl, 第三天凌晨的收到账单,三天消耗了一点二万投坑的费用, api 密要被盗。梅特的安全总监号称全球最懂安全的人, 让 openclip 帮他整理邮件,两百多份邮件被删除,多次下达终止指令,全部无效,最后只能拔网线。二手交易平台上已经出现了一门声音,叫做远程代卸载 openclip, 收费一百九十九元, 就在几天前,商家卖的还都是三百到六百的上门安装服务。国家互联网应急中心也发出了风险提示。 openclip 呢,有几百个安全漏洞,公网暴露比例呢,高到了百分之八十五。百分之四点八的官方插件,里面都含有恶意代码。你装的不是 ai 助理,是黑客的特洛因木马。 但今天我想说的是,他最大的问题都不是安全问题,而是他根本做不到端到端。官方宣称他是自主执行,无需人工干预。实测呢,超过十分钟以上的长任务,奔跑率百分之六十以上,卡,死死循环,忘记上下文,全程都需要你盯紧,比你手动操作还累。复杂任务呢,更加离谱, 让他爬去网站,数据整理成报告,自信到一半报错了。你花了几十分钟排查的日子,最后发现呢,可能是某个插件没插好,没装好。简单任务呢,发送一份带附件的邮件, 手动操纵一分钟。 openclip 呢,肯定要配置十分钟,还经常告诉你附件添加失败了。说白了, openclip 现就是个半成品, 他不是一个数字员工,是需要你当保姆的数字巨婴。底层逻辑问题在哪里? ai 智能体要做到端到端,其实是需要三件事情,理解,意图,规划,不走, 自主纠错。 open core 呢?只做了前两件事情,第三件事情完全失效。所以你看到的是他开始执行的很顺利,遇到问题就卡住,然后等到你来救他,而不是他来帮你节省时间,而是来帮你浪费时间。我看过一句话,好的工具应该是让你自由,而不是让你更忙。 open curl 做到了反面,让你更忙,更焦虑,更危险。等它迭代成熟了再去用吧。现在不要碰 open curl。

我又干了好几天的 oppo 可乐,跟大家爆一个特别大的好消息,就是跑本地大模型的我现在能稳定的运行千万二十七 b 的 三点五二十七 b 的 这个模型了。 这个模型本来我都已经放弃了,因为奥拉玛在那个 oppo 可乐下面接起来经常超时,根本跑不了。 不管你是跑千万二十七 b 还是三十五 b, 三十五 b 理论上还要更小更快一点,但是它就是跑不了, 哪怕用 cpu 卸载什么的降低速度,但它奥拉玛反应稍微慢一点,它就超时了, oppo 可乐就彻底死在那了。本来我之前是 换了千万三十四 b, 因为我二十二 g 的 显存就是二零八零 t 的 摩根二 g 显存,装这个十四 b 我 去社区找了一个 awq 的, 它加载完只有十 g 左右, 但是上下文一塞进来马上也充二十二十多 g 的 显存。我是装了 vl m vl m 这个框架,它的好处是确确实实驱动这 oppo 可乐是确实比 oem 快, 但是最大的问题,我现在碰到的最大的问题是它这个没有办法设置 cpu 卸载,不知道是我的问题还是我搜了很多文档没搜到,也就是这个模型不管怎么样都要往这个检测里面塞,它好像 没有让你一旦撑爆了,他就不启动或者启动不了,所以导致什么二十七 b 三十五 b 这样的相对先进一点的三点五的模型塞不进来,三点五你只能塞 那个九 b 的 模型。而且更可恶的是九 b 模型在 v r m 就是 aw q 的 版本都没有,只有隐身版,我觉得可能设置各方面更复杂一点,官方版就到。千万三, 那请问三十四 b 其实我在 v l m 框架下跑的还是算顺利的,但是就这么说,你就我我就配一个问题,之前我们是调试编程,他是一个道理,调试编程他能不能用编程的调试工具 接受他的反馈错误就看这个模型智商的问题。我现在这两天用的是让他 找一个 t t s 的 语音接口,不管是 t t s 还是什么千万 t t s 还是什么爱智 t t s, 你 自己去找你配一个 t t s 的 接口给我合成男生女生的各种声音, 我想的是以后我弄一些那种口播,或者弄一种那种播客什么东西,每天让他自己生成一个播客的文案,再用一个声音把这个播客文案给他合成成语音,我们是不是再去配一点画面,夸就上传了,这他就自动能做一个自媒体, 甚至说画面我们就用固定的,什么类型的,比如中东打仗的就用油田的是吧?弄好几种那种视频,让他自己去跟声音合成在一起,就画面给他固定死了就几百种画面,你在这里面给我挑就行了, 我想这就可以做自媒体了,就合成语音这一部。千万三十四 b, 就 死活跟你说我没有权限,我无法调试,我找不到,这跟之前跑编程是一模一样,所以你要玩 open clone 就千万三点五,我跟你讲,九 b 的 模型都能理解这个东西,也就是说白了就是三点五是今年发的模型,他都能理解我们可乐的这个框架跟这种怎么去使用,但是千万三是去年的模型, 他的模型他就不理解,你是待在我们可乐个里面,他可能能操作一点,但是他关键时候他开始吐说,我不能,我需要你,你来验证, 这很讨厌。所以这是第一点。为什么放弃十四 b 的 模型,但是偏偏我二十二 g 这么大的显存只能跑三点五九 b, 我 又不甘心,因为我公司那个 十二 g 的 显存的那个三零六零也跑三点五的九 b 模型也跑的很舒服。那到我好不容易从十二 g 显存变成二十二 g 的, 还让我跑三点五的九 b, 心里不舒服,对吧?二十七币跟三十五币总是卡在那个超时,结果我就这两天刷那个头条帮我刷到了,就这样一条,他之前我问 ai 都没有问出来如何设置超时时间的, 终于我我在头条上看到了,我就把它试了一下,果然,果然一般。这个欧文可乐的超时是十分钟,是六百秒, 你要设置多少?我开始设置三十分钟,他能干活,但中间有一干了大概十几个小时又卡一下。那我现在设置四十分钟,四十分钟两千四百秒, 语音合成,什么事都能干了,我觉得这很好,也就是说他的现在做法是,我现在本地跑大模型的做法是用奥拉玛 妈妈要配置啊,我把配置的这个标定发在这好了,要配置 cpu 卸载就是人工在 c m d 里面要设定这个模型,你只跑多少层?现在二十七 b 这个模型我跑五十六层, 就我跑五十六层,剩下的挪到内存里面去,这是它总共大概应该有六十四层,挪掉一点。 沃腾可乐这边超时是长一点,你自己本地跑慢一点无所谓,其实我觉得慢点无所谓,总之他要一个人一直的不屑的在那工作。所以现在解决的问题是 v l m 没有跑通更大的模型放不进去。 奥拉玛能跑更聪明的哇,二十七币千分,三点五,二十七币这个模型综合实力真的好,就不用废话,康之就可以干活。这点上是我跑了这么多粉底,包括三十五币那个模型,我认为都没有二十七币这个模型聪明, 真的,二十七 b 这个模型给我的感觉真靠谱,三点五五,三点五九 b 那 模型我公司不是一直在跑吗?我认为也没有二十七 b 这个靠谱,这个确确实实好,所以给大家分享里面解决,第一 就是 cpu 卸载,我给大家说在奥拉玛下面的设置,第二就是我们可乐怎么把这个超长延时给他设置出来,你甚至可以设置的更长,这样一来 他就有希望自己自动工作二十四小时不再停下来。这工作二十四小时不管怎么样,这个消耗的 tucker, 如果你用在线模型,就算他比在线模型慢个三五倍, 那消耗的 tucker 就是 你省下来的 tucker, 费用也是挺多的。如果你能给他一个让他二十四小时一直在那边不停的工作的一个任务,那就太好了。你想,比如说写小说,让他一直写,哈哈哈,比如说生成图片,比如说之前有人试他剪辑视频,我觉得剪辑视频就算了, 反正你可以给他想,比如说让他编一个游戏,自己调试啊,调试错误自己重新再改写代码这种等等等等,反正能让他自己花很久时间去干的活,而不是总是停下来等你啊。 我这就我的努力,现这是阶段性成果,具体活还没有真的派给他干,我们接下来试一下派活,如果你有个 好的,比如说怎么样能让他本地模型跑的更流畅,更聪明更快,同时不出错不报错,而且还有什么活是可以让他一直干下去的, 不要老是干个五六个小时,他干完了停下来说等你指令。那怎么样让他二十四小时自己干什么活的分量以及第一分量是能够干到二十四小时以上的,第二个是中间不停,中间不会再卡下来,等你指令 是怎么样去给他这个指令的。好吧,这个大家交流一下,也帮我下一步帮我提醒一下大家交流一下这个经验。根据评论区我也在改善我的地跑 open klo 的 效果,那就是我们今天要聊的事。

今天我们来聊聊,怎么在你的个人电脑上把 ai 的 性能给拉满。这么大的模型要在咱们自己的电脑上全速跑,听起来是不是有点悬? 但你看这速度,每秒近九十个透坑,他们到底是怎么做到的?咱们就跟着他们的思路一步步看,从策略到最后的代码实现。首先他们的思路很巧,没用单个模型,而是搞了个组合,一个球稳,一个球快。 这就是两个主角,九十亿参数的 q 问,还有二百六十亿参数的折马,亏问的筹密架构保证了稳定,而折马的末易架构就是为速度而生的。这就怪了,折马明明更大,怎么反而快这么多?答案就在架构里。 这张图就冲出了筹密架构是全员出动,而 m o e 是 指派需要的专家上场。数据不会说谎,你看 jemmy 的 速度优势,简直是碾压级别的, 不过光有速度还不够,得能控制住才行。所以他们做了个重要的取舍。他们没用简单的欧拉玛,而是选了更硬核的拉玛。 c p p, 为的就是绝对控制权。 有了它,就像手里多了几个光框,能精细地调整 gpu 和线程。说白了,就是得抛开那些方便的工具,自己动手去搞定地层的东西。比如他们能精确地把某几层从显存挪到内层,防止报显存 速度和控制都搞定了。下一步就是让模型能看东西。他们给两个模型都接上了一个视觉模块,直接变身强大的多模态模型, 铺垫了这么多,最后落地的代码长什么样呢?就是这个,所有的策略和微调,最后就变成了这两个启动脚本。 所以你看,这种极致的性能背后全是聪明又果断的技术选择,最终目标完美达成。在咱们自己的电脑上刨起了高性能的多模态 ai。 那 么现在问题来了,既然技术上可行了,你会用它来做点什么呢? by the way 小 龙虾做长时间任务,如果老是中断,试试调高超时预值。我这里设置了两千四百页上下纹长度不要超过 l l m i c p p 的 模型,上下纹长度我这里用的六十四 k。 此外,我还测试了其他十六 g 显存常用的几个模型,速度如图, 具体参数请根据你的 cpu 和内存自行调试。这里的 t 三是因为我要打游戏,不要学我。如果不考虑局域网多用户访问,也可把病发数调到一,这里是天宫开,真拜拜喽!

哈喽,大家好,今天呢,我们来聊聊 openclaw 最新的二零二六点四点八版本。这次的更新啊,可以说非常对症下药,就是为了解决一些大家平时用起来特别头痛的问题,让整个平台变得更可靠,更智能。咱们一起来看看它到底牛在哪儿? 来,我们先从一个大家可能都遇到过的烦心事说起。你有没试过辛辛苦苦把应用部署上去,结果启动的时候系统冷冰冰的告诉你,文件丢失,真是让人抓狂。别急,这次更新的第一个重点就是来根治这个问题的。 好,这就带我们来到了第一个重头戏,如何让你个部署稳如磐石。这次更新的核心目标就是要让应用的部署过程彻底告别那些莫名其妙的意外,变得超级稳定,超级可预测。 你看以前的问题出在哪儿呢?就是说应用安装好之后已启动,它居然会回头去找一些开发时才会用到的原文件,那这些文件在生产环境里肯定是没有的嘛,结果就是程序直接崩溃。 现在呢,这个逻辑漏洞被彻底堵上了,确保了每次启动都顺顺畅畅的。那么具体的解决方案是什么呢?他们用了一个特别巧妙的概念,叫 sidecar, 这挺显然有点专业哈,但你完全可以把它想象成一个随身工具箱,这个工具箱里呢,预先装好了你应用运行需要的所有工具和零件,他会跟着你的主程序一起走,这样不管你的应用被部署到哪,这个工具箱都寸步离补领,保证万事俱备。 而且啊,这个修复可不是只针对一两个地方,你看,不管是你用 slack 还是 microsoft teams, 或者是咱们国内常用的飞书,这个随身工具箱方案都帮你安排的明明白白, 它一下子就保障了十几个不同渠道插件的部署安全,整个生态的稳定性可以说直接上了一个台阶。 ok 部署的稳定性可以说直接上了一个台阶。 ok 部署的稳定性决绝了。咱们接着看第二个关键领域,更智能的网络。 这次更新之后, openclaw 在 那些复杂的企业网络环境里表现的可就聪明多了。咱们来想象一个场景,一个特别常见的场景,你在一家大公司,公司的网络有严格的安全规定,所有的进出流量都必须通过一个指定的代理服务器。 那以前呢?在这种网络环境里,你可能就会抓狂了,特别是像 slack 的 这种实时连接模式,它会自作主张的绕过你设置好的代理,结果呢,就是死活连不上。 有意思的是什么呢?解决这个问题的还不是官方团队哦,它完全来自于社区的力量,就是这个编号为六二八七八的社区贡献。 所以啊,真的要特别感谢这位社区大佬, at m j me。 正是因为他的贡献,现在 open call 能完全听懂并且遵守这些代理设置了,你的应用部署上去,什么都不用改,就能顺畅地连上,特别省心。 网络方面的改进还不止这些,你看,平台现在更智能了,比如,当他检测到你用的是一个靠谱的、受信任的严格检查步骤, 他会放心地说,行,老熊 d i s 解析这事就交给你了,这在那些安全策略复杂的沙河环境里,大大增加了灵活性 好,部署稳定了,网络也变聪明了。那最后一步是什么呢?当然是让整个系统里的各个部分都能手拉手,肩并肩,形成一个更有凝聚力的整体。 这张表的核心思想其实就一句话,让 agent 的 行为更统一,更可预测。简单来说,就是不管你的 agent 是 在网关节点还是沙河里运行,它报告出来的行为策略都和它实际的运行情况一模一样。 这样一来,开发者调试和拐立起来就心里有底了,再也不会出现那种诶,在我电脑上明明好好的呀的尴尬情况了。当然了,还有一些虽然小但同样关键的修复,比如说确保所有捆绑插件的版本信息都整整齐齐。 还有就是在社区成员 at martin garmon 的 帮助下,修复了一个重新加载配置后 slot 连接可能会断掉的 bug。 这些小细节共同保证了整个平台的稳定。 好了,说了这么多细节,咱们来梳理一下这次二零二六点四的更新,到底给我们带来了哪几个最关键的好处呢? 我觉得可以总结成三点,第一,部署更稳定了,有了 sidecar 这个随身工具箱,驱动失败的风险大大降低。第二,网络更智能了,特别是在复杂的企业网络里,它能更好地和代理服务器打交道。 第三呢,就是整个生态系统更可靠了,各个组建之间的协作天衣无缝。这三点加起来就意味着一个更强大也更省心的 open call 平台。 好了,关于这次 openclaw 新版本的核心内容我们就聊到这儿,现在呢,问题就留给你了,这些在稳定性和兼容性上的改进,对你现在或者未来的项目会带来什么样的影响呢?又会帮你打开哪些新的可能性呢?好好想一想吧,感谢收看。

oppo pro 又又又更新了,真的是背靠背日更的节奏。你看他在短短的两天内连甩三个版本,从四点七的自动化加强一路狂飙到今天的这个四点九的做梦进化版。四点七的时候我就更新了,但是出了 bug 又不稳定, 所以我回滚到了四点二的版本。但是这是最重磅的底层架构转变,官方公告里用了一句极其浪漫的话,你的智能体会在做梦的时候梦到你,这到底是什么意思?简单来说,你的 ai 也有了下班的时间,它会在夜深人静的时候自动开启名叫 r e m 回程的机制, 去翻看你们白天的对话日记,像淘进一样,把你无意中提到的个人喜好、重要的项目细节揪出来,存进他的永久记忆里。他解决了 ai 最大的痛点,健忘。他再也不是每次都要重新认识你的工具人,而是在真正进化成一个越来越懂你的超级万能。作为你们的实测排位兵,我在这踩了一个大坑。更新完之后,我就对 ai 说 帮我开启军民功能。他给我回了一长串,说是已经帮我把所有的机器人都开启了这个功能,结果第二天一看,根本没有运行。我用 coco 查了一遍,才发现他居然在忽悠我,他在假装做梦。为什么呢?因为四点九版本步子卖的太快了,该自己把记忆功能开关和自动整理记忆这两件事搞混了。 他以为只要把配置文件里的开关打开就行,但实际上,这个军民功能在底层是一个独立的后台,定时任务进程。 那如果不懂代码,到底怎么才能真正唤醒它?我已经把通关密语写好了,你不要直接让它开,而是要把这段话复制发给他。请帮我把军民功能开启。它不是一个插件配置项,而是通过 ninja agent 运行的独立后台进程,请检查它状态并把它启动起来。 千万不要把它当做插件配置来操作,只要这么一说,它就能够精准定位,你的 ai, 才会真正开始在夜里自我进化。 ok, 记忆问题解决了,但一个 ai 这么懂你, 连你的底细都知道,安全性就成了重中之重。四点九版本直接打出了一套漂亮的防守组合拳,它堵死了像 s s i f 这种能让黑客入侵服务器的底层漏洞,把所有外部来的数据都默认标记为不可信,相当于给你的 ai 穿上了一件 隐形防弹衣。结合前一天四点七版本带来的自动化工作流,你拥有了一个白天能被外部事件自动触发去干活,晚上还会自己整理记忆 复习功课的智能体。这次四点九版本除了这个逆天的做梦机制,其实还悄悄隐藏了一个非常炸裂的生图工作流功能,他现在甚至能直接多模态联动出图。但这个大招的玩法有点硬核, 我留到下期专门出一期视频给你们做实测排雷,想看的在评论区扣个,想看催更一下解决。假装做梦的通关密语我已经放在了评论区,赶紧去唤醒你们的 ai 吧!我是达达,我们保持好奇,保持迭代,下期见!

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。