就在几个小时前, openclaw 四点九发布了,但你可别以为这只是个普普通通的更新,不就根本不是一次孤立的行动,这真的是背靠背是日更的节奏。你看啊, openclaw 在 短短两天之内,连续甩出了三个版本, 先是四点七一个全模态的加强版,紧接着四点八一个紧急修复,然后就是我们今天要重点聊的四点九一个 可以叫做做梦进化版。说真的,这种离带速度简直就是在重新定义这个行业的标准了。四点九版本里最重磅、最核心的更新,其实是一次非常底层的架构性转变,它从根本上改变了智能体的工作方式。 官方公告里啊,用了这么一句话来介绍这个新功能,我觉得特别有意思,他说你的智能体现在会梦到你, 哇,这听起来是不是特别像科幻电影里的台词?浪漫?还是有点吓人呢?所以,这到底是什么意思呢? 好,我们来揭秘一下这个听起来很玄的做梦功能,官方名称其实叫 rem 回填,你可以这么理解,这就好像是你的智能体小助手在下班之后,开始自己默默地整理一天的工作笔记, 它会在自己闲下来的时候,自动去翻看回顾你们过去的对话呀,日记呀,然后从里面把那些关键信息,比如说你的个人喜好,重要的项目细节都给揪出来,最后呢,把这些精华内容整理好,存到它的永久记忆里去。 那具体是怎么做的呢?整个过程大概分四步,第一步,他会重放过去的记录,然后呢,就像淘金一样,从一大堆信息里筛选出那些真正有价值的,能长期记住的事实。接着第三步,他会把这些记忆的碎片给组织起来处理好。 最后也是最关键的一步,就是把最重要的那部分正式的写入他的长期记忆里。你看,这整个流程,简直就是在完美的模拟我们人类大脑在睡觉的时候巩固记忆的那个过程吧。 关键点来了,它解决了目前所有 ai 智能体最大的一个通点,那就是健忘。你想想以前的智能体,每次对话都像格式化了一样,像个新生儿,你得一遍又一遍地跟它重复背景信息,多烦人呐。 但是现在不一样了,通过这个做梦机制, opencloud 的 智能体可以随着时间推移不断地积累知识、理解上下文,它就再也不是一个健忘的工具了,而是在真正的进化变成一个持久的、越来越懂你的伙伴, 能力越大,责任越大。所以有了这么牛的功能,安全性就成了重中之重了,对吧?尤其是在那些要真正投入到生产环境的商业场景里。那我们就来看看 openclaw 是 怎么给自己的堡垒加固的。 在讲具体的安全措施之前,我们得先快速解释一个关键的安全术语,叫 s s r f, 全称是服务器端请求伪造。我知道这听起来很专业,但简单来说,它就是一种安全漏洞, 坏人可以利用这个漏洞来欺骗你的服务器,让他去访问一些他本来绝对不应该碰的内部网络资源。所以你可以想象,这玩意儿是相当危险的。 好,了解了 s s r f 之后,你再看四点九版本的这些安全更新,就能明白它们有多重要了,它基本上是从好几个层面把安全漏洞给堵死了。 你看它不仅加固了我们刚才说的 s s r f 防护,还把远程命令注入的风险给锁死了。而且它还把所有从外部来的数据源全都默认标记成不可信,先净化一遍再说。可以说这打出了一整套漂亮的组合拳,让 openclo 在 处理那些敏感的客户工作时,变得前所未有的安全和稳健。 除了安全方面的加固,四点九版本还带来了一个我觉得特别有意思的质保工具,他们管这个叫角色氛围评估, 这是干嘛的呢?它能让你把不同模型下的智能体并排放在一起进行比较,看看它们的个性和行为有什么不同,这样就能确保你最后选出来的那个智能体不光是聪明,更重要的是它说话的那个感觉,那个风格能完全符合你的品牌调性。没错,就是我们常说的那个最对的 web。 那么问题来了,四点九版本这次这么惊人的进化是怎么做到的呢?难道是凭空出现的吗?当然不是,答案其实就藏在一天前刚刚发布的四点七版本里,可以说正是四点七版本为这次进化打下了一个非常坚实的能量基础。 四点七版本其实带来了五大关键升级,它的核心就两个词儿,能力和自动化。比如说它搞了一个新的 infirm 命令,把所有的 ai 任务都统一了,操作一下子就简单多了。还有它引入了 webhook, 这下智能体就可以被外部事件自动触发了, 这就实现了真正意义上的自动化工作流,再加上它还支持了一堆新模型,所以你看,所有这些其实都是在为四点九的这个做梦进化铺平道路。 我们现在把四点七和四点九的发布公告并排放在一起,你仔细看,没错,这两个都带来了巨大更新的版本,发布时间仅仅就隔了一天,一天啊!说真的,这种开发速度在整个行业里用恐怖两个字来形容一点都不过分。 当这种惊人的迭代速度和我们前面提到的强大功能两者结合在一起的时候,就会产生一种我们称之为复利优势的效应,而这才是真正能够改变游戏规则的地方。 所以它的核心价值到底是什么?其实就一句话,你拥有了一个在你睡觉的时候还能不断学习自我净化的智能体,这种真正的力量就来自于它能够持续的积累上下文,并且每天都在进步,这是一种持久性的智, 而且这还不是一个人或者是一个小团队在战斗。光是在四点七和四点九这两个版本里,就有超过六十五位贡献者参与其中。 这个数字说明了什么?它清楚地表明, open call 的 背后是一个充满活力、高速运转的庞大社区在共同推动,这已经形成了一股不可阻挡的势头。 所以这就引出了我们最后的一个思考。你想想看,一个每天都在自我完善的智能体,在复利效应的加持下,六个月之后,他会变成什么样?或者我们换个角度问,拥有他的你又会领先别人多远呢?这个问题确实值得我们每个人好好想一想。
粉丝153获赞747

今天跟大家讲一下这个在小龙虾里面,他这个的模型是怎么切换的,那我当前这个模型是 glm glm 五的模型,那如果说我要切换成呃 glm 四点六 v 的 这种模型,那该怎么切换呢?那切换里面我们有这么几种办法。 呃,先给大家说一下,一种我们先打开一个终端,在这个终端里面呢,我们输入这么一个命令,叫 openclock apple color, 然后呢 o d l 是 model 四,那设置 set j ai, 这是智普的那个前缀 j ai, 然后写杠 g l m 杠四点六 v, 那 这个就是切换成把把这个默认模型切换成 g m 四点六 v 的 版本,然后我们敲回车一下, 敲回车完之后呢,它这里呢会告诉我们模型已经设置成功了,然后呢我们给这个小龙虾呢的网关重启一下, 重启一下,这个可以重启一下, 那重启完之后呢,我们回到这边来,我们去刷新一下这个浏览器,你看它当前呢这一个会增加了,多增加了一个叫 g l m 四点六 v 的 这么一个呃默认模型, 那这个呢是我们切换模型的一种方法,当然大家这里看到的这是一种呃通过它这种内置的这种 p p n 的 一个命令, 呃可以设置的,那如果说呃这里面的那个模型默认的模型不在我们的小龙项链表里面,比如说像 deepsea 这这种模型,那要怎么设置呢?因为 deepsea 它是不能通过这种呃简单的命令去设置,它只能通过自定义的呃 模型去设置,那它这边呢有两种,一种两种命令,一种是直接通过什么通过这种呃非交互模式的这种条命令就可以执行,比如说像这个, 比如说像这种像这种一条式的命令,它这里是什么呢?它这条命令呢?它这个是什么?呃是像这个参数呢?是。呃 执行非交互模式,使用非交互模式。那第二个叫 modelcare 了,这一个呢?按本地模式配置网关,这个是按本地模式配置网关。那第三个是什么呢?第三个是使用自定义的 api t 接入,这个是使用指定 api t 接入的参数。那第四个参数呢?这个第四个就是给这个呢?呃提供商命名为叫 dbseek, 对 吧? 那第五个这个参数呢?这个是什么?这个说明让它兼容 openai 的 协议。那第六个呢?第六个是什么设置?呃, deepsafe 的 这个接口地址。那第七个是什么呢?第七个是,呃设置默认模行为 deepsafe chat。 那第八个这个呢?那就简单了。第八个这个就是填写我们在数据库上创建的这个 api t, 这个就是 api t 的 序号。那第九个这个是什么呢?确认接受非交互模式的风险提示,一定要加这句话,要不然如果说少了这个,它上面的这个就执行不成功,那我现在来给他执行看一下 啊,这里已经告诉我们。呃, justin 呢?已经备份了,然后呢?这里也执行完成了。那执行完成之后我们要记得什么?记得是,呃,我们要给它一个重启网关,网关重启一下。 网关重启完之后我们直接在这上面刷新一下就可以了啊,刷新一下它当前这个 deepsea 的 这个什么?呃,模型已经加载进来了,那我们可以直接什么跟这个呃, 我们直接问用 deepsea 看一下 它,这里会回复我们是由深度求索公司那一个研发的这个大模型, 那这个模式像这种方式呢?都是用一条的命令方式,那还有没有办法用?呃另外一种方法呢?就不用一条命令,我们用那种直接 on 使用的是什么? openclock on board 这条命令呢,就是类似于刚刚安装的时候我们去执行,那我接下来也给大家去演示一下这个呃,我们用这种命令,使用 openclock, 使用这样子的粗俗化的方式去呃配置我们的 deepseek 的 这个呃模型。那首先呢,我现在呢先给它做一个啊,先把这个呢做一下来还原。其实所有我们所有配置的这个 wincore 的 这些配置参数都在这个文件里面,我先把这个删掉, 删掉完之后复原这个文件, 我重命名一下,我复原这个文件之后呢,我们我在这里呢先给他什么,先把它网关 重启一下啊,重启完之后我们确认一下是不是恢复到我之前的呃初设设置,我刷新一下啊, 这已经呃复原到最早的之前的设置了。好了,我现在呢给大家去演示一下这个什么呃通过这个叫做 open, 通过这条命令怎么去呃配置我们的 deepcom 这个模型,那我们执行这条命令叫 opencloud on board 的 这个命令, 那这个执行完之后呢?他就是我们,就像我们第一次安装的时候会告诉我们这个呃一些风险信息吧。完了我们给他确认一下这个选择 yes 啊,这个还是继续选择 quickstar, 那 这里呢告诉我们什么配置,是否继承原来的值,那我们选择第一个就可以了。 use assign 就是 继承原来的值, 那关键就是这些位这个位置了,这个位置这里的模型驱动商呢?有这么多个,那我们要选择哪一个呢?我们选择的是这个叫做 custom, 因为这里没有 dsp 的 那个默认的夫商,所以说我们这里要选择的是自定义的 夫商,那我们选择这个回车,那回车完之后,关键这个位置的 api, 那 个 api base url, 这一个要改成什么?就是我们的模型的接口地址, 这里的接口地址呢?要改成我们的这个叫 deepsafe v 一 的这个默认模型,那我们啊路径改一下,黏贴进来,就一定要改成这什么 a p i deepsafe, 点 com 点 v e 这个 u r 的 地址呢?是兼容 openai 的 接口模式。那我们回车,那这里呢?我们是什么?呃,黏贴那个 api key 的 值,那我们把 api key 的 值黏贴进来, 然后呢这个位置这里有三个参数,是选哪一个呢?我们要选择的是什么?叫做呃,说明兼容和 ai 模式协议,然后我们这里选择第一个兼容 open ai 协议, 那这里呢? model id 又是什么呢? model id 呢?这里呢是设置默认模型,也就是这个提供了哪些的默认模型?然后我们选择呃,输入 d e e p s e k 默认模型,然后显示 a t, 其实就是这一个, 其实就是呃这个位置接口文件里面的这个,其实就是这个, 其实就是这个。这个 deepsafe 提供的这一个叫做什么?推理模型跟聊天模型,然后我现在先选择的是聊天模型,叫 deepsafe chat 的 这个模型。好了,那我们给它 model id 选择了 deepsafe chat, 那这里的是什么呢?那 point id 又是干什么的呢?那 point id 它其实是是模型的一个小名,那我们这里的小名呢?也可以叫让它默认叫 custom api, 这个默认的也行,那我们选择用默认值吧。 那第二个是这个是别名,那这里的别名呢?我们也可以不填,没关系,我们直接敲回车也不填。然后第三个,这什么使用的一些我们交互的方式吧,那这个我们直接跳过啊,这里呢也是直接跳过, 然后这个是配置技能,那技能像我们之前也配置过了,我们可以选择 low, 也可以选择 yes 或者点 yes, 在 这里面跳过也行。我们先跳过,那这后面都是跳过了啊,像谷歌的,国外的这些 a p i 我 们都跳过,目前都没有申请 好了,那这个是不可使的,这个也跳过,那现在最后步呢?这个是什么呢?我们再重启一下就可以了。重启网关, 重启完关之后我们选择的是什么?还是继续选择 open 的 web ui 的 这个方式,然后呢它这里呢?它这里呢?你看它这种方式也可以把这个 deepseek 的 这个模型给它配置进来,那这个就是我们呃默认的这种, 呃自定义的方式,把 deepseek 的 一些那个 a p i 呢?呃配置到小龙虾里面去好了。呃,这个今天呢,呃,跟大家讲的这个第三方的 a p i 呢?呃就到这里了。

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

哈喽,大家好,我是你们小伙伴波图。那今天在这个子频道呢,我们又来跟大家更新一下欧文 q 的 这个安装流程啊,由于最近这个版本更新也是比较大, 所以之前那个教程呢,已经有了很多这个不一样的这个配置的方法啊,所以说我们来重新来修正一下,而且之前有一些这个讲的不太明确的地方,我们会进行更加详细的一个讲解, 那这种方式呢,也非常适合我们频道原来的这个 nas 用户在虚拟机上安装。 那如果说你是这个 windows 或是 macos 下来进行这个安装的话呢? ws l 和这个 macos 都可以参考我们今天流程的一个向导,因为它的这个向导部分是一模一样的,这个配置方式呢,也没有太大的区别。如果你不知道怎么样来开始这个安装的话,你可以参考我们之前那个教程,然后再接到这样的一个教程里面。 除了这个安装流程以外呢,在这个视频最后我们还会给大家讲两种比较主流的聊天软件,对这个 open core 的 一个接入,一个是这个 whatsapp, 一个是 discord。 那 当然这不是我们国内比较主流的一个方式啊,那国内这个飞速和微信的接入呢?以后我们会做更加详细的一个讲解,因为那个值得做单独的一个视频。 好了,那我们废话不多说,马上开始今天的一个教程。那现在画面上呢,是我们在这个 w 二五点幺零的这个虚拟机服务器, 那之前有位小伙伴问我们怎么样的一个配置才够啊?其实我觉得八 g 十六 g 的 这个内存,然后机器性能有个四合,八合就已经足够使用了。具体看你的一个用途所在,如果说你只是满足一些基本的这个啊脚本的执行的话,其实像树莓派这样的一个配置都是足够的,不需要太强的配置。 当然如果你需要执行一些比较复杂的这个任务,那你要根据你原来这个任务它的一个性能需求来进行部署。 open core 它本来只是一个调度的这个软件,它并不需要很强的一个性能来实现的。那现在这个系统安装好之后呢,我们第一步其实是要对它进行一个换源呢,就是我们之前没有说到在这个设置里面, 我们可以把它的一个更新源换为这个国内,那后面的这个安装也会更加方便一点。我们在这个系统里面找到这个软件更新, 然后我们点击这个设置,然后在这个 win 图软件这里呢,我们把这个下载字从你原来的这个东西改成这个位于中国服务器,然后关闭,然后再按照他的这个向导来进行更新就 ok 了。那我这里已经更新过,所以他不会再提示更新,我们点击确定。 然后更新完成之后呢,我建议大家还是通过毅力的这个自己用的电脑这个终端呢来进行配置。那当然如果你另的是你自己的这个台式机的话呢, 你也可以直接在上面操作,这个都没问题的。那我现在以更加常见的一个方式来跟大家做一个配置吧。先装一个 open s s h 的 一个服务器,这是一个可以让你从远程电脑登录的一个服务,那我们点左下角,然后点这个终端,然后这里输入速度,然后 app install, 然后这里要输入一次你的这个用户的密码,然后这里要输 y, 那那完成完成这个服务之后呢,我们就可以回到我们这个 windows, 或者是你的这个 mac os 电脑,那在 windows 下呢,我们会用这个 power shell 来进行登录,如果你是这个 mac 的 话呢,你就用终端就可以了,我们打开是一个命令行的这个样式, 那接下来其实我们要找到虚拟机的一个 ip 地址啊,那我这里是虚拟机,我们点右上角,然后点这个有线连接,然后找到有线设置, 我们再点这个齿轮,然后这个详情设置里面呢,我们就可以看到我们这个服务器的 ip 地址。幺九二点幺六八,点零点幺六七,回到我们 windows 这个下面,我们找到这个终端,我们把它放大, 在这里我们会用到一个命令式,这个 s s 区就是远程登录他的这个命令行。如果说你啊之前登录过同一个 ip 的 服务器的话,你可能还要清除这个 s s 区的一个密钥,但如果你之前没有登录过的话,直接输入 s s 区,然后输入你的这个用户名,这个是你无版图上的用户名,然后艾特幺九二点幺六八,点零点幺六七, 那这样呢,我们就可以回车,那接下来他会让你配对一个这个指纹密钥啊,那我们这里说 yes, 然后接下来呢我们再输用户的密码就可以了,回车。那现在呢,我们就远程登录了这台服务器, 那登录完成之后呢,我们还需要安装一个这个软件呢,是这个 call, 那 这是一个执行互联网脚本的一个这个命令,那我们还是要输入你这个速度的一个密码。 好,这里安装完成了,那理论上呢,它可以跟你这个 open s s 取的一起安装,都是没有问题的,那现在我们就可以执行这个 call 的 一个命令 好了,那现在我们来到了这个 open core 的 这个官网啊,是这个 open core 点 ai 的 这个网址,然后我们找到下面这个 quick start 的 框框这里,那这里呢我们可以选择 windows 还是 linda 下的一个命令,然后我们点这个 change, 点到这个 lina 下面,然后这个命令呢,其实就是我们安装的一个命令了,我们可以点右边这个图标来直接把它复制到我们这个粘贴板里面,然后我们回到这个 power x, 然后把它粘贴进去,当你按右键也是可以粘贴的, ctrl 加 v 也可以,接下来它就会一键安装完成了。 好,那现在 open curl 安装完成之后呢,我们就进入了一个向导,那这里呢它会告诉你风险,我们还是 yes, 然后呢我们用这个 kris star 的 一个模式,那接下来呢,我们会进入这个 provide, 也就是这个模型提供商的这个选择啊,那之前这个 mini max 呢,它是需要手动来进行设置,你才能使用这个中国的一个这个 api 的, 那现在呢,它已经可以直接设置了,然后下面这个 z 点 ai 呢?其实就这个智普,那其他的话大家就可以自己去尝试一下,我们今天给大家来演示这两种的一个配置方式, 首先是这个字谱啊,那等一下我会用快照镜回滚,所以大家不用担心,我们这里就选这个 z 点 ai, 那 那接下来呢,它会让你选这个 coding plan 的, 这个国际版和 c n 版也有中国版,那下面这个是直接选这个 api 版本呢? 一般来说我们会用这个 coding plan, 这个啊编程计划,我们选这个 coding plan c n, 接下来我们输入这个 api 之后,它会让你选一个默认这个模型, 那一般来说呢,我们会选择它最强的一个模型,也就是说现在是这个 g l m 五,那 oppo 主买的这个 light 版,它没有这个 g l m 五啊,只能用这个四点七,那你如果说你是这个样的一个情况的话,你就选这个四点七就可以了,那到这一步呢,其实你这个模型就配置完成了,那我们现在回退到这个 mini max, 那如果你是用这个 mini max 的 话呢,你就选这个 mini max, 然后选到这个 mini max c n 这样的一个选项,那之前虽然有这个 c n 选项,但是你实际上它的这个街舞点还是国际的这个街舞点,它只让你选择这个模型,其实没有用的。那现在呢,它就会直接有一个这个 c n 的 选项,我们选择这个 c n。 好,接下来呢,我们输入我们 apikey, 那 输入完成之后呢,我们回车,接下来我们选择一个模型,那默认的情况下呢,它是这个 keep current 啊,选这个 minimax m 二点五就可以了,你也可以手动进行一个选择,我们直接用这个 keep current, 那 这样呢,你的 minimax 这个模型也就设置好了, 接下来它会让你设置这个 channel 啊,就是说你用什么聊天软件来跟你的 open core 进行一个对接。那如果说你能搞定这个啊网络的话,其实这个 telegram, whatsapp 和这个 discord 呢,都是非常好设置的一个东西。如果说你搞不定这个网络的话呢,你可能就要配置这个飞书了,那飞书需要这个企业的一个 api 的 一个设置,那今天我们不会说到,我们今天等一下会演示一下 whatsapp 和 discord 的 一个设置,接下来我们这里就先不设置吧,我们 skip for now。 然后接下来是这个 skill 技能的一个配置,那我建议大家是比较熟悉这个 skill 是 什么东西之后再来进行配置啊,不需要那么着急,我们可以选择这个 no。 然后接下来是这个 hux 钩子啊,那这个钩子呢,其实是当你的这个 a 卷它命令有问题的时候呢,自动执行一些这个操作来进行这个恢复,那我一般来说我们会把它全部勾上都可以的,我们回车,然后下面一步呢,它就会 install 这个 getaway, 也就是你的这个后端的一个程序,那我们等它安装完毕, 那这里我们要记住几个命令啊,首先第一次你安装完成之后呢,其实它是没有这个路径的,你直接输入这个 open curl 呢,它是会报错的,你可以选择重新登录这个命令行,或者是用这个 source, 然后主目录,然后斜杠点 bash r c, 那 这样呢,你的 open curl 就 可以运行了。然后接下来 open curl 呢,要加一个 dashboard, 那 这个是一个面板的这个选项啊,它会告诉你你通过什么样的一个网址来进行这个 open curl 的 一个访问, 比如说现在这个网址呢,你只能在你的这个啊,虚拟机里面,桌面浏览器里面才能访问,那当然我这里是没有办法黏贴的,我们可以直接在虚拟机里面这个终端里面输入 open crawl, 然后 dashboard, 那这样呢,他其实就会自动的帮你打开这样的一个浏览器,打开这样一个页面,同时呢里面带有这个 token, 那 他这个 token 呢,他会直接输入到这个 over view 里面,他会在这里面,那这个新版呢,他现在还有这个中文可以选择,但是 他非常奇怪的是,他只有在这里你选择一下,他才会变成简体中文,然后下一次打开的时候,他又会变成中文了,而且你在使用了一段时间之后,他又会弹回这个英文,那现在这个软件就是这么神经刀啊。 好,那这个是啊,暂时的一个打开方式,那当然你也可以在这个命令行里面启动这个 open core, 那 你可以用这个 open core t y 来进行这个访问。那其实你现在的一个访问方式呢, 跟你在这个网页上跟这个 open core 聊天是没有区别的啦。那由于我们现在的这个安装是直接可以在这个像导里面就把这个模型进行对话,所以说我们现在的安装呢,也不需要这个 open core 了, 如果说有什么配置上的问题,我们直接用这个 open core 来进行解决就 ok 了,那我们可以少一个这个 open core 的 安装,那当然也就不需要再引用我们之前在这个教程里面说的引用地号上面的一个这个连接了,所以现在整体安装来说是更加简单的, 那当然只能在这个虚拟机的这个浏览器里面访问,或者说用这个命令行来访问 open core 还是没有这么方便嘛。那所以下一步呢,我们先来配置这个局域网访问的一个方式,那这次我们也会用这个新的方法。 好了,那现在我们这个 open curl 呢,就在这个虚拟机里面安装好了,并且可以在这个虚拟机的桌面里面本地的访问我们这个 open curl 的 一个网页服务。 但是目前呢,他是没有办法让你在这个局域网里面通过局域网的 ip 来访问这个服务的,他并没有打开这样的权限。所以接下来呢,我们就教大家如何在你本地的电脑里面打开你虚拟机上面这个 open curl 的 一个管理页面。 那其实呢,我们现在录制这个视频呢,跟我们教大家来安装这个温控已经有两天的时间了,然后大家可以看到这个系统版本呢,产生了一个更新啊,那最近这个温控呢,也是一个更新频率非常高的一个状态,经常他会在更新之后, 对前面的一些参数的这个定义啊,就会产生变化。那像现在这个版本呢,其实他就跟我们之前安装的那个版本,他对这个局域网的设置方式产生了一个变化,如果说你直接更新,然后不改这个参数的话呢,你更新完成之后 qq 是 没法启动的,这个也是一个挺大的问题, 总之呢,这个阶段大家一定要注意保护好自己的这个对 a 卷的一些设置,同时也不要对这个软件有过多的一个寄望,如果说你没有太多恢复能力的话,反现阶段 open call 还不适合做非常严肃的一些工作,大家尽可能只是把它作为一个体验吧。 既然现在这个软件已经更新了,那我们也来演示一下这个软件怎么更新,你可以在这个网页端直接点这个对闹,让他在这个后台进行更新,更新完成之后呢,由于我们现在还没有设置任何东西,其实他这个更新的是有效的。 那另一方面呢,你也可以在这个命令行里面进行这个更新了,那你如果会在这个命令行里面进行执行的话呢,可能对以后你的这个恢复能力会有一定的这个帮助。 那我们来演示两个命令吧,一个是 opencore, 然后啊 status, 这个是可以看到你 opencore 的 一个运行状态的,如果说你有什么样的一个配置错误的话,在这里也会产生报错,那这里呢你可以看到它提示这个 update 来进行这个软件的更新,我们也来执行一下, 接下来我们就等它更新完成就 ok 了。好了,那现在我们这个更新程序呢,就陷入到一个无限重启的这个状态,反正 openclock 现在的一个稳定性呢,就是这样的一个状态,但是我们可以 ctrl 加 c 来停止它的一个重启,其实现在它这个进程已经启动了,并且我们可以正常的一个使用,实际上它是更新成功了。现在我们更新完成之后,这个网页可以访问了,是这个二点二四版本, 然后他现在的一个改进呢,就是这个中文,我觉得这是比之前好了吧,之前我们演示的时候,他这个中文刷新页面还会不见的,那现在呢,他就可以保存他的页面语言的一个设置,总之现在每一个更新啊,都好像是天翻地覆的一个状态, 只能说他原来做的不是这么好吧。好,那接下来呢,我们就来看一下怎么样来远程访问,那我们这里呢,我们要回到这个命令。行,好,我们清楚一下,我们用这个 opencloud, 然后 config 这个命令来进行我们这个局域网的一个配置。我们回车, 那打开这个啊, config 之后呢,它有点像我们这个初步化向导啊,但是实际上呢,它是进行配置的一个东西有些不一样。好,第一个呢,它是问我们在哪里运行 getaway, 就是 这个后端呢,我们选第一个本地。 接下来呢,你可以设置啊这些 work space 啊,就是这个工作目录,然后这个模型的一个选择,还有这个 web tools, 还有这个 gateway。 那 我们要设置的呢,其实就是这个后端的一个绑定,我们选择 gateway, 然后这个是 gateway 端口,也就是网页的一个端口,我们这里直接用默认幺八七八九。 接下来呢,他会问我们这个绑定的一个方式,那这个绑定模式呢?第一个是这个 local only, 只能用本地 ip 来进行访问。第二个呢是这个 telnet, 那 这种方式呢,其实是比你本地用这个局域网更加安全的,它这个链路会有加密, 他也是比较推荐这种方式啊。第三种呢是这个 auto 有 点类似我们本地转这个链的一个方式吧,这个其实相对来说我们之前设置过,会比较复杂一点。 然后第四个呢,就是我们可以让局域网或者说所有的这个 ip 地址的这个设备来访问,这种方式呢是最不安全的,但是也是最方便的。如果说你只是局域网使用的话,这个没有问题, 那我们这里就演示第四种,那当然你出了问题,这个就不要来找我了,未来我们也会跟大家讲一下这个 tail scale 的 一个连接方式啊,这样会比较好一点,我们选第四个。 然后接下来呢是怎么样的一个方式访问这个网页?我们一般来说用这个 token, 那 接下来是这个 tail scale 的 一个曝光,那我们这里就不选了。 off, 然后它会有一个新的这个 token, 我 们回车,那现在就已经配置好了,我们点这个 continue, 让它自动的一个执行,那再接下来我们可以重启这个 gateway, 还是用这个 open claw, 然后 gateway restart, 那 这样就可以重启我们的这个后端。 那作为我们刚刚在这个设置阶段,其实是修改了这个 token 的, 它默认的情况下呢,你直接重启这个服务,它是不会生效的,也就是说我们在这里啊, 好了,既然重启失败呢,那我们就需要手动来修改这个 config 啊,那我们用这个 nano 编辑器,然后找到我们主目录下的这个点, open core 目录下的这个 open core 点追审,那这个是保存你 open core 的 一些配置的这个文件呢?我们回车,我们简单看一下,这里有一些模型的设置啊,还有你的 agent 调用这个模型的一些设置,还有各种各样的东西吧, 基本上如果你出了问题的话,你就需要在这里找,那我们找到这个 get 位啊,也就是我们后端的,也就是我们刚刚修改的那个东西。 那刚刚我们是把这里的这个回环呢,修改为了这个 let 局域网的一个模式,但是不知道为什么他就没有加入他必须要用到的这个参数,我们也是通过这个网络找到了相关的一个答案, 那我们在这个 let 后面这个逗号这里按一个回车,我们把需要的这个参数给复制进去,大概就是这样的一个 control ui 的 参数, 原本的版本呢,它只需要加入非安全登录的允许,那现在呢,其实要加入这三行的一个东西,修改完成之后, ctrl 加 x, 然后按 y, 然后回车它就可以保存了。接下来我们再来试一下这个 wincry getaway 的 restart, 那现在呢,其实我们就可以正常重启了,但大家注意啊,它这里有一个,它察觉到了我们把这个 token 给修改过了,所以说它还是用原来的 token 来进行启动。如果说你要用新的 token 的 话,就要用后面这个命令来进行一个强行的增效, 因为他怕我们后期登录这个网页啊,没有办法登录,想的挺体贴的,对吧?但是我们这里是要用这个新的头款的,我们用这个 force install 的 一个参数吧。好,那现在就已经配置完成了,他也给我们备份的这个 surface 的 一个啊服务,然后我们再重启一下这个 gateway, 那这个时候呢,我们就用这个 wincore, 然后 dashboard 就 可以看到它的一个访问方式了。大家要注意,这个 token 还是非常重要的,因为我们之前用链接进入的时候,它是缓存了我们这个 token 的, 现在你其实在这个本地这个网页上登录,它会提示你这个 token 的 一个错误, 因为它 token 变化了吗? token 就是 网关令牌,那这里呢?我们要复制新的 token 进去,那这个是啊虚拟机上的一个页面啊,那现在我们其实是可以通过 我们这台电脑来进行访问的,那说完这个命令之后呢,它会显示有带有 token 的 这个链接,然后我们把它复制下来,然后直接在我们这边的网页端来进行访问。但大家要注意啊,你是局域网访问的话,你要把这个 ip 换成你服务器的这个 ip, 我 们来看一下。那现在呢,其实就我们可以通过这个局域网来访问到你这个虚拟机上的这个网页端了, 那这里呢,其实我们是带了一个更新这一步的这个操作的,如果说你是未来的版本,或者是直接安装的这个版本,你可能是不会遇到刚刚那些重启那些问题的,你只需要把我们刚刚的孔雀 ui 的 这个参数给加进 open core 点追悼这里面呢,应该就可以访问了。 好了,现在我们可以直接往访问就可以远程操作了,对吧?那这个配置也就完成了。那刚刚我们整体演示的呢?其实可能不是一个非常常规的这样的一个流程啊,因为我们是从一个旧版本升级到这个新版本,然后中间遇到了这个 get 位的一个重启失败,然后我们通过一些非常规的手段配置了这个 config 之后,然后再配置这个 啊追踪文件来实现了这样的一个访问。那接下来呢,我们也来试一下,如果说你直接装的就是这个二点二四版本的这个 open core, 它的配置方式是怎么样?那我也是非常好奇啊。 好了,那现在我们又重装了一次这个 open core, 直接从这个二点二四版本装起的,那我们来试一下,通过它的这个向导配置,我们可以直接配置这个局域网。啊。好,刚刚忘记了这个 h r c, 然后我们再来, ok, 依然是 local, 然后我们找到这个 gateway。 好, 我们选择这个 lan, 然后还是用 token, 然后新 token, 然后我们按 continue。 现在呢,我们看一下 opencloud gateway restart 可不可以重启。 基本上这个重启是失败了,我们就不用等了,就算你是全新安装了这个二点二四版本,他的这个向导调成链之后呢,你也是没有办法重启你这个服务的,你必须手动去添加这样的一个参数,那我们再添加一次 好了,程序成功了。那总之呢,县级段你要呃设置这个局域网访问的话,你可能都会遇到这样的问题,你需要手动去添加这三个参数,那我可以预见,很快我们这个教程可能这一部分呢,就会不适用啊,大家就 先用着吧,我们先这样的一个设置方式。好,那接下来呢,我们就用 install 啊 force 的 一个强制生效方式呢,让这个新的 token 生效,那我们现在访问这个零点幺六七,它会提示这个 token 的 一个失效,我们还得找回来我们 opencloud 点 dashboard, 这是一个很常见的一个问题啊,就是你的 token 变化导致你没办法访问这样的一个网页,我们可以直接把这个 token 这一部分给复制出来,然后在这个网关令牌这里进行一个输入。那现在呢,我们就可以正常访问新的 open core 的 一个服务了。 那下一步呢,我们再来讲解一下 open core 的 一些啊常见的配置啊,像这个搜索引擎怎么样来配置? 好,那接下来我们来配置 open core 一个非常重要的功能,就是这个搜索工具。由于我们这个大元模型其实是一个静态的这个知识库嘛,当他有一些不了解的这个问题的时候,如果你有这个搜索工具,他可以主动上网去搜索这个资料,当然他也可以调用这个浏览器,或者是直接获取网页来获取这个资料。 但对比一些通过 api 调用的这种搜索工具呢,它的这个 token 消耗数量是会更小一点的。所以说我们在这里设置一个搜索工具,那 open curl 它默认支持的呢?叫这个 brave 的 一个搜索工具,那我们在这里要注册一个账号来获取一个 api, 具体注册方式我们就不说了,我们直接来登录。 好,那我们来到这个 brave 的 一个后台哦,我们点击左边这个 api key, 然后我们可以点这个 app api key 来创建一个我们的这个搜索 api, 它每一个月呢会有大概一 千次的一个限额吧,就是说你的搜索次数太多的话呢,它也是会限量的,这个是免费版的限量,对于普通用户来说我觉得是够的。那我们就设置了一个 test 的 key, 然后我们把它复制下来, 我们回到这个命令行来进行设置,当然你也可以直接跟这个 open curl 对 话来进行设置啊,但是那样会浪费时间。我们直接在这个命令行输入 open curl config 的 一个命令, 进入之后我们点这个还是 local, 然后找到这个 web tools 这里呢我们要把这个 web search 给打开,选 yes, 接下来我们 粘贴我们的 api key, 然后下面这个呢是它可以直接获取这个网页的一些功能啊,我们这个也是打开的,那这个 web fetch 功能呢?你可以直接把这个网页的地址输入给这个 open curl, 它也是可以获取那个页面的一个信息。 当最终你也可以通过调用浏览器的方式来进行这个呃资讯的一个收集,但是那样呢会多很多像 h t m l 标签呢这样的一些东西来消耗你的拖沓,这样就没有必要了。然后我们 q 六这里我们还是重启一下我们的这个 getaway, 我 们 curl getaway restart, 重启完成之后,我们就可以在这个 open core 里面让他在网上搜索信息了,例如说我们可以让他给我十条最新的 a i 新闻, 好,那他现在就给了我们十条最新的这个新闻,这个呢就是通过搜索引擎来获取的,那以后你运行一些这个任务,如果说他有一些信息过时啊,或者说不清楚的这个问题呢,你可以让他直接通过这个互联网来搜索一些解决方案,或者说一些最新的信息。 好,那接下来呢,我们再来看一个 open core 新的这个浏览器的调用方式啊,那之前我们是推荐大家用这个 chrome 里面扩展的方式来进行这个浏览器的调用,现在呢,它有一种新的这个 open core 托管的这个独立浏览器的一个方案。那这里呢,你其实是可以问一下这个 open core 它推荐的这个方式是怎么样的, 然后再让他来进行这个自主的一个配置。既然他这里推荐的方式有两种的话呢,那我们就用上面这一种之前我们没有聊过的这种方式,也就是托管独立浏览器的方式,那我们就这样跟他说就好了,我希望使用 这种方式调用浏览器,请为我配置,当然你也可以按照它下面的这个说法来直接进行配置,但是我觉得既然我们有 open core 了,我们也不需要这样来手动操作了,我们就让它来自动来配置。 那以后大家反正也学会这样的一种配置方式吧,就是说让它来给出方案,然后让它来进行配置,这样对于一些新手来说可能会更精准一点,如果你是老手的话呢,当然你手动配置会更加准确了。 那现在呢,它出现了这个以断块与网关连接的这个提示,因为 open core 在 配置这种浏览器之类的操作之后呢,它会进行这个 get 位的一个重启,大家可以看到现在已经连上了这个 get 位啊这个网页。但是呢它不会继续跟你说下去,因为一旦这个 get 位重启之后呢,它这个对话就会中断了。 那我们就追问它一下啊,在浏览器配置好了吗? 好了,他现在显示配置完毕,然后默认浏览器是这个 open core, 是 一个独立托管的浏览器,那我可以让他来测试一下,对吧?问 b, 再看一下前条视频的名称, 我们同时也可以看一下它这边桌面有没有任何的一个显示啊。好了呢,这里的报告呢,它就会出现一些问题,那这也是比较典型的,就是啊, open call, 它有时候会回报你一个错误的这个答案呢,虽然说它配置了,但是其实并没有进行这个验证的。它这里告诉你需要用 command 内核的这个浏览器, 那我可以让他来帮我来配置啊,他这里提供两种方案,其实第二种呢是这个 wifi 的 一个方案,就是说不用浏览器直接获取这个网页的信息,那这不是我们想看到的,我们还是希望他以这个浏览器的方式来访问这个网页,我们告诉他, 让他按照方法一来进行配置,我们就不手动来安装这个框吗?好,那这里为什么他无法自动安装呢?是因为我在这台服务器上并没有设置速度的一个权限呢,我没有把这个速度设为免密码。 这里呢,我们还要设一个数度 b 数度的一个这个命令。这个呢,其实在我们之前的教程里面,我们是告诉大家可以配置这个东西的,或者说你配置了之后呢,他很多操作就可以执行这个自动化,如果你没配置的话呢,他只会告诉你怎么样的配置,其实实际上是需要你自己来配置的。 那这样也失去了它 open curl 的 一个意义了吧。那我们现在可以告诉他,我通过速度 v 速度给了用户权限,请重新操作。那这个时候呢,它输入一些这个速度的命令,就不需要再执行密码了。 好,它显示这个 chrome 也安装成功,现在重启网关,然后 get 位又进行了重启。 那我们现在让它测试一下,再测试一下。好,那我们现在让它再测试一下这个网页的访问 b 站前两个视频的名字。 好,那刚刚又出现了一个新的问题啊,它用了这个 snap 来安装 chrome, 这也是五官土常见的一个问题。那我们再让它来试一下。 好,再测试。 这里又出现了问题。如果说你完全不懂这个 open chrome, 它还是没有这么好用的,经常会出现一些根本让一般用户看都看不懂的东西,什么需要安装 google 的 chrome 啊之类的东西, 你正常一个软件好用的话,不就是应该装好了,你让他干什么他就得干什么,对吧?我,我就算再笼统,他应该也可以回答,行,那我们不多说吧,我们就再让他测试一下。总之,大家不要觉得这个 open call 非常神啊,还是一个非常神经的一个软件。 哎,启动成功了,访问 b 站,那实际上我们在这个呃虚拟机的这个桌面上是没有看到的,它应该是用这个 headless 就是 无头的方式来进行这个访问啊,我们可以让它直接打开这个浏览器啊, 无头就是说它不会在这个呃桌面上显示这样的一个页面,直接在后台给你执行,如果说你有这种扫码登录的这个需求的话呢,一般来说我们会用到这个 freeheadless 模式的, 哈哈哈,然后他这边又要重新进行一个配置,他刚刚重启了这个网关,我们让他请继续就可以了,或者说你不想说请的话,直接让他继续也可以的。哎,可以看到他这里呢就打开了这样的一个网站, 然后进入了 b 站,然后他就会把这个信息给复制下来, open curl 来回复给我们。那大概这个浏览器的配置我们就说到这里啊,大家可能还要注意一点呢,就是很多网页其实它有这个反爬虫的一个这个技术,它可能会出现 你没有办法获取这个网页信息之类的这种情况,这也是非常常见的一个情况,所以千万不要觉得你有这个网页的一个执行权限,他就一定可以完成你的这个任务,有时候他会检测出来他这个操作方式,他并不是一个真正的这个操作,所以还是有点问题的。那这个浏览器我们就说到这里 好了,那接下来我们就来看一下这个 open curl 它的 channel 该怎么设置,那 channel 呢?其实就是渠道,就是说你怎么样通过像一些飞书啊,微信啊,还有一些像 whatsapp 啊这样的聊天软件来跟你的 open curl 来进行一个对话,这样实现实时的一个控制嘛,你就算不在电脑前面,你也可以对它进行一定的这个操控。 那现在 openclock 其实对国外的一些平台设置是相对较好的,那而且这个国外的这些聊天软件它的一个限制会比较少,如果说你网络允许的情况下呢,那这个呢设置起来会比较方便。那我们今天呢也会想 两个国外的一个频道,一个是 whatsapp, 一个是 discord, 像飞出微信这些呢,相对来说它的这个限制会比较多,而且方法也比较复杂,我们会专门出视频来给大家讲解,那有兴趣的可以关注一下我们频道。那首先呢我们来看这个 whatsapp 啊,我们还是来到这个命令,行,我们说刚刚的这个 open call, 然后 comfic, 然后第一个还是选 local, 然后我们找到这个 channel, 这里呢我们点第一个 config, 然后找到这个 whatsapp。 那 今天我们教的其实都是呃单 agent 的 一个设置方法,后期呢是可以设置多个这样的一个机器人来帮你这个打工的,然后每一个机器人你可以设置对应的渠道来跟他进行沟通,像你也可以实现这个 whatsapp 绑定一个 agent 都是没有问题的。 那今天呢我们不搞那么复杂,我们先针对这个主的这个 a 卷来设置这个渠道,那现在呢我们选择了这个 whatsapp, 然后第一步呢,他让我们来用这个 q r 扣来进行这个连接,我们就点 yes, 然后他就会输出一个二维码来让我们扫码, 哎,输出了二维码了,然后呢我们来到这个手机,那具体这个 whatsapp 怎么样?来啊?注册这东西我们就不在这里说了,他就类似国外的一个微信这样的平台。 好的,现在我们就在这个 whatsapp 的 一个界面,我们点开右上角的三个点,然后点已关联设备,然后关联新设备,然后我们就要用指纹来解锁,接下来呢,我们就扫码。 好,那我们下面出现了这个 open call, 然后啊,就已经配置完成了,手机上这边就暂时不用设置,然后回到这个电脑上面呢,电脑上面它会让你输入一个你的这个电话号码,这里我们用我们自己的电话号码就可以了。 呃,注意有这个加八六。好,那现在呢,这个 channel 就 配置完成了,我们点击这个 finish, 然后 continue。 哎,那我们就已经配置完成了。好,接下来我们打开 opencore 的 一个页面,我们来看一下配置是否成功。 好的,现在来到我们这个 wincry 的 一个页面呢,我们点到左边的这个啊 channel 频道,然后我们可以看到这个 whatsapp, 这所有的配置都是已经完成了。那下面我们回到这个聊天,我们就可以跟他进行一对答,我们看到手机这里啊,手机这里我们点这个加号,然后找到你自己, 然后接下来呢,你就可以跟你的 open call 来进行一个应答。可以说啊,你好,好,那我现在就发一条信息,我让他发机械的硬件信息给我,我们发一下,发完之后呢,他马上会变成一个已读的状态,我们看他怎么样回复。 ok, 好, 他已经回复我们了,那现在呢,我们其实这个 whatsapp 就 已经配置完成了,那 whatsapp 的 一个配置是最简单的,只要你有这个 whatsapp 的 一个账号,并且平时可以使用的话,只要扫个码就可以跟你这个 open call 进行对话,那这非常方便。那接下来呢,我们看一下这个 discord 的 一个配置 好了,那这个 whatsapp 配置完成之后呢,我们就来看这个 discord 的 一个配置方式啊,那其实这期教程呢,我们在年前就已经做完了有四十多分钟,然后也剪了一个多星期,然后由于这个更新的问题呢,我们又重新做了一次,也希望大家多多点赞呢,给我们这个视频。 那 discord 这个部分呢,我们就不重新做这个教程了,因为新版本和旧版本配置流程没有什么太大的区别,我们直接来拼接一下,大家直接看后面就好了。 好,那接下来我们看这个 discord 的 一个安装啊,那为什么是这样的一个界面呢?因为我把这个服务器给重置了,那大家要注意现在这个 whatsapp 呢,如果说你配置了这个 whatsapp 的 连接之后,你再想改圈了一个配置,所以你手动改追悼呢,或者说彻底清除 whatsapp 的 一些配置,不然的话, 它是会有很强烈的一个残留的,就算你用它原本自带的那个呃 channel 的 重新设置的一个选项,都是没有办法重新设置的。所以说我建议大家啊,就是一开始就选对你自己未来要用的这个 channel 的 一个设置,现在这个 open core 呢,它的稳定性就是大概这样的一个程度吧。 在配置之前呢,我建议大家在这个聊天窗口啊,先跟他说,你要配置这个 disco 和 用 qq 的 一个连接,请给他一个完整的一个流程,尤其是这个权限的配置,那他就会查本地的一些这个资料啊,而且也会通过这个网络来进行搜索,来汇聚这样的一个信息,最后他会生成一个 具体的指南给你,但这个指南呢,可能每次的这个完整性跟我们这里显示是不一样的,这里大家要注意,那反正有了这个指南之后呢,你配置会方便很多。那我们回到这个 disco 的 一个 首页啊,那这里呢?注册这一部分我们就不跟大家说了,怎么样连怎么样注册。那我们点右上角,这里有一个 open discord, 如果你登录好的话,你会进入这样的一个界面,那这是一个群聊界面,那他会以服务器和频道为单位啊,那我们必须要有一个服务器和这个频道,我们 点左边的这个加号,就可以创建这个服务器了,那我们这里随便选一下,这里可以上传一个头像,这样会方便识别一点,我们点击创建, 接下来你找到这个服务器,右键点这个图标,你可以复制你的服务器 id, 这是你第一个要用的东西。那第二个呢,就是你要有一个频道啊,我们可以增加一个这个服务器下面的频道,我们设置一个 open core 的 这个频道我们创建, 这样呢,你就会有一个频道的 id, 你 右键点这个 open core, 然后点这个频道 id。 有 了这两个之后呢,你就可以限定在某个频道里面,与你的这个 open curl 来进行这个沟通。那当然你不设也可以啊,你可以在任何的一个频道里面艾特你的机器人,然后跟他进行一个沟通,都是可以的。那设置完这个之后呢,我们要来到这个 disco 的 一个开发平台,那就是这个链接,他会给你链接,当然我这边已经打开了, 那在这个页面呢,我们在右上角有一个 new application, 就是 新应用的一个意思,我们打开,我们创建一个这个 open curl 的 这个应用啊, 让我们这个 open call 可以 进行连接,那这里他会问你是不是机器人啊?那我不是啊,但是你很快就是了。我们点击勾, 创建好机器人之后呢,你可以给这个机器人创建一个这个头像啊,在左边这个 app icon 这里可以设置头像,那我们随便设个头像啊,然后下面这个 description 呢?这个描述是不需要的,那下面这些我们基本上都用不上,我们直接点击保存就可以了。 然后我们再回到这个指南,我们看到它这里会需要你 add bot, 但实际上呢,这个是不需要 add bot, 你 点击左边这个 bot 就 可以了,然后它这个机器人是自动生成好的,但是我们这里呢需要生成一个 token, 我 们点击这个 reset token, 然后我们点击 yes, 这里呢需要输入你的这个 discord 的 一个大密码。 接下来我们要把这个 token 给复制下来,然后复制好 token 之后呢,你在这个页面你还需要打开两个选项啊,一个是这个 server member intent, 还有一个这个 message content, 那 就这两个是一个权限的设置啊,你把它打开就 ok 了,这里记得大家要点击这个 safe change。 好,那现在我们这个选项生效之后呢,我们就要来到这个 o o two, 来到这个页面之后呢,其实我们要做的是生成一个让我们这个 bot 加入群主的这个链接啊,那我们找到这里,我们要看这里啊,在这个 scope 这里,我们要把 bot 和 application 这个给添加上 application command。 那 这个两个勾上之后呢?下面我们还有六个权限要勾上,大一对应就可以了,这里它会有一个列表在这里,我们直接给它跳过 好了,那这样我们这权限都设置完毕了。当然你觉得麻烦的话,你也可以直接点一下这个 administrator, 给他一个管理员权限,这样他可以做的事情会更多一点。 但是我们现在暂时呢,只要它能够跟我们聊天就可以了。那接下来它会在下面生成一个这个权限的这个链接啊,我们把它复制一下,那刚刚那个 token 我 们现在复制就失效了。那但没所谓啊,等一下我们还可以查到,我们来到一个新页面,然后我们连接,接下来在这个页面呢,我们就可以把我们的 bot 加入到这个服务器当中, 授权我是机器人吗?我不是,我是人类。那现在呢,这个 open core 就 已经加入到我们这个服务器的频道了,可以看到右边有这个啊,人物,你可以把它当成是一个 这个啊,正常的一个用户啊,他就在这里,你可以在这里找到他,可以艾特他。那加完之后呢,我们还需要建立 open core 和这个 bot 的 一个连接。那我们这里第四步,其实它就是获取一些信息,但是我们不一定要按它的一个座,我们回到这个命令行, 那如果你前面没有设过这个 channel 的 话,你在这里用 open curl, 然后 config 可以 对这个 channel 进行设置。 它本来这个指引呢,它其实让你直接修改这个文件,但这样会容易出错。选这个 local, 然后找到这个 channel, 那 我们选第一个就可以了。 config link, 然后找到这个 discord, 好, 那第一个要输入的呢?其实就这个 bot 的 一个 token, 那 我们一开始在这个 bot 页面这里,我们可以看到这个 token 啊,那这里呢它要你重置, 再复制一下,那这样这个 token 就 可以复制到这里,然后我们在这个终端里面把这个 token 输入,然后啊这里他问我们要不要配置 discord 的 一个 channel 的 一个权限,就说限定它在某个 channel 里面聊天,我们用 yes 吧,然后我们设这个 allow list, 就是 白名单, 然后接下来呢,我们要把这个 server 和 channel 的 一个 id 给复制进去,那这个设置也非常简单呢,我们来到这个 disco 的 一个页面,我们先复制这个服务器的 id, 右键点这里,然后 粘贴,然后接下来用一个斜杠,然后我们再复制这个 channel 的 一个 id 频道的 id, 然后我们粘贴,那这样呢,其实就把这样的一个频道作为白名单给输入进去了。 哎,好了,我们配置完成,接下来我们点这个 finish, 那 接下来呢,他会问我们要不要设置这个私信的一个权限呢?我们可以点击 yes, 然后这里我们可以用这个 pairing, 然后啊配对,我们点击 continue, 那 我们把这个私信的权限也配对完成。接下来我们重启一下这个 gateway, 创建 open 网页,我们点到这个 channel, 我 们可以看一下它是否已经连接成功。 哎,我们可以看到这个 discord 它的一个配置呢,就已经是 running 和这个配置了,接下来我们试一下可不可以用这个 discord 跟它沟通啊?其实我们在这里就可以找到我们这个 channel, 我 们 add 我 们的这个 open core, 我 们, hey, 哎,可以看已经联通了。这个呃图标呢,其实就是我们这个 bot 给我们的一个回应啊,他先会回应我代表他已经收到这个信息,然后接下来呢会再输入他的一个回复,我们可以等一下看看他回复 好了。那现在呢,其实我们通过了 discord 跟我们的这个 open discord 进行了联系,我们可以看到这个 chat 这里啊会有一个新的 session, 那 这里呢,其实就是 discord 跟他聊天的地方。当然如果是用这个手机 app 的 话,其实找到这个频道也就可以跟这个我们的 discord 的 这个 bot 进行联系了。但注意大家聊天的时候一定要艾特我们这个 bot, 他 才会有反应的。 那除此以外呢,我们也可以用这个私信的方式啊,来跟他进行聊天,也就叫 dm, 我 们也可以用这个来,嘿, 那第一次跟这个 bot 进行私信的话,你是要跟他进行一个配对的,他会给你一个码,然后你要在这个呃后台来说这样的一个命令, 有这样的一个方式把它组合起来,那这个就是你配对的一个命令了,我们回车。 ok, 好 了,现在配置完成之后呢,我们就可以通过私信跟我们这个 opencall 的 bot 进行联系了,那我们这边也有一个正确的回复,那总之呢,这个 disco 我 们现在就配置完成了,然后呃它的一个好处就是在于你可以让多个用户啊跟你的这个 bot 进行一个聊天, 同时呢你也可以直接呃进行一个私信跟他聊天,让他成为一个呃多人可以访问的这样的一个用户吧。另外一种使用方式跟这个 whatsapp 还不太一样, 那这个 whatsapp 呢?其实大家也看到是配置最简单的一个服务方式啊,那这两种方式呢,在 open core 里面都可以很好的一个执行。好,那我们今天这个视频的内容就差不多了,那接下来呢,我们也会给大家来做这个微信和飞速这个 open core 的 连接,大家有兴趣的话不妨关注一下我们这个频道。那我们就下期再见喽,拜拜。

今天 opencall 更新到了二零二六点四点八,这次更新很简单,没有新增功能,是一个纯修复版本。但它解决的问题 其实挺关键的,特别是最后一条,对于使用 callex 的 gpt 模型用户非常重要,一起来看一下吧。先说第一个,之前有的朋友可能遇到过启动报错,比如提示找不到模块,网关直接起不来, 那么有可能你是用 npm 安装 opencloud。 这次官方确认了原因,是多个渠道在打包时路径配置错误,程序在启动时找不到对应文件, 涉及的包括 telegram slack、 飞书、 google chat、 teams 等一系列渠道,这次已经全部修复,对 npm 安装的用户来说,这条影响是最大的。 上一个版本留言崩溃的用户可以试试这个版本。第二个是插件问题,之前内置插件的版本信息没有同步更新,导致在新版本中加载失败,这次也一并修掉了。更新之后不需要额外操作,插件可以正常加载。第三块是 a 诊相关, 主要是两个调整,一个是 update plan 工具保持可由。另一个是执行接口的规则和实际执行逻辑对齐。之前的问题是接口显示的默认规则和实际执行不一致,现在统一了。这个改动主要影响做自动化或者 agent 的 用户,自动化工作能更稳定。最后一块也是这次比较有价值的一点是 是代理网络支持,如果你是在公司内网或者通过代理使用 open core, 这个对于使用 codex 作为主力模型的用户懂的都懂。 这次更新支持直接读取系统的 h t t p 和 h t t p s 代理配置,同时支持 no proxy 排除规则,另外还修复了 slack token 在 配置重载后的失效问题。 还有一个比较底层的改动是在受信任代理模式下,允许代理自己进行 dns 解析,这解决了很多代理环境下连不出去的问题。整体来看,这个版本主要解决两类问题, 一类是 n p m 安装后的启动失败,另一类是代理环境下的网络连通信。如果你刚好遇到启动问题和网络问题,可以尝试更新到本版本,不过更新之前记得做好备份,备好一个 cloud code 或者 codex 已被 open call 不 能正常工作的时候,好让 ai 帮你回滚到之前可用的版本。想要尝鲜的用户已经可以执行安装脚本,自动更新到最新版本。好啦,这期就是这些,我们下期再见。

微信进入 openclaw 只需三步,厉害!哈喽,大家好,我是姚鹿行。微信官方推出了个插件,叫微信 cloud bot, 原声支持 openclaw, 而且没有封号风险,真的是太棒了。 进入流程也非常简单,只需三步。第一步,确认你的微信版本,打开微信,进入我设置关于微信,看看版本号, ios 必须是八点零点七零以上,安卓的话也已经在灰度了。 第二步,起,用插件进入我设置插件,找到微信 cloud bot, 点启动, 然后在你部署了 open cloud 的 设备上跑一条命令,安装接入插件。第三步,扫码绑定,终端会弹出一个二维码,用微信扫一下授权绑定,看到连接成功就搞定了。 回到微信,你的联系人列表里就多了一个叫微信 cloud bot 的 好友,直接跟他对话就行,文字对话只是基础,语音文件、图片也用,回复都支持,甚至还能设置定时任务。 基本上你的龙虾能干的事在微信里都能干,大家赶快去试一试吧!感谢大家三连,谢谢大家,记得关注再走!

我终于发现了,兄弟们,为什么那么多人说部署龙虾不能用 windows? 真的, 我昨天用了一天,真的很崩溃,这是我的四零六零显卡,配置不算特别高,但肯定也不低了。我部署好之后,也用了一天了,就准备弄一个网页的自动化,自动去做一些视频发布到自媒体上面。就单单一个网络问题,弄了这么久,你们看一下, 就单单一个网络点击问题控制网页弄了这么久,因为 windows, 它的原理呢,是在里面内置一个 linus 的 系统,然后通过 windows 控制 linus 的 系统,然后再用 linus 的 系统在里面部署龙虾。那么问题又来了,他们两个的网络是不相通的,你要通过一个中际服务把他们的两个网络连在一起, 那在操作的过程呢?就各种问题,各种报错就生根。我虽然不是一个非常资深的一个码农程序员,但我对比电脑小白,我肯定是属于里面的高手,我都弄不好。所以呢,普通小白我就更别想弄了。但是如果用 macos 的 话,这种问题根本就不存, 它已经帮你配置好所有东西,就是你上手安装好就直接用了,什么网络问题啊,什么这种格式问题啊,都不存在。而且这个龙虾 ai 呢,很多的插件都是基于 macos 的 m 系列芯片去优化的。今天真的决定这台 windows 要退役了。 我先是准备用这个,呃, mac air 就是 m e air, 先去跑跑流程,先准备是做一个自动化流程,是关于一个心理分享的这种类型的一个账号,看一下它能不能从文案再到剪辑,再到发布,再到合成一个视频,先用这台 m e air 去跑,跑通了之后如果它这个配置不够了,内存不够,硬盘不够了,我再考虑换一个大的 mac mini, 然后再搭配 那个显示屏去用,反正先用最现成的资源先跑起来吧,因为我觉得龙虾 ai 还是未来无限的可能性。那么我现在在做这个项目呢,也是基于啊,我是从自媒体出身,很多一些运营部门都是很大量的人去做 那种批量的账号,那我就觉得管人这么累对吧,你只要是管理人类,那就会很麻烦,人就是屁事多嘛。然后呢,会有各种的不确定性,那既然如果说这需要批量人力物力去做的工作,那交给机器他不会喊累,然后呢,也不会需要你去管理他们,管好自己就可以了。 大概花了两个小时部署好之后,给他安装了第一个技能就是打开网页,你看他已经能够什么,已经能够成功的打开这个百度的网页,网页显示了, 那打算今天再给他安排的技能呢?就是去网页上面搜索的能力,写文案的能力,然后还有生成图片的能力, 再到这个剪辑能力,我想要的这种参考的片子,参考的视频,如果他能够批量的做好视频出来之后呢?那么我下一步就研究他怎么样去啊,自动的批量的去发布,如果说有兴趣做这方面呢,我们一起可以一起探讨一下,一人技短,两人技长,加油兄弟们,这里是森哥搞局。

嘿,各位, openclo 又有大动作了,刚刚发布了二零二六点四点七版本,跟你说这次更新可不是闹着玩的,它不光带来了一堆超给力的新工具,还对整个平台的核心做了个大加固。 今天呢,咱们就来好好聊聊,深入挖一挖这次更新到底有哪些好东西,来,我们开始吧! 好,那我们今天就分几步走。首先呢,咱们先从一个宏观的视角鸟看一下这次更新的全貌,然后我们会一头扎进去,看看那些最亮眼最强大的新功能到底是什么。 接着,我们再看看 opencloud 生态系统,它的朋友圈又是怎么扩大的。当然了,那些平时看不见但又超级重要的安全和稳定性修复,咱们也得聊透。最后,我会给大家总结一下,这次更新最核心的价值到底在哪儿。 好,咱们先进入第一部分新版本概览。这么说吧,这次更新呐,绝对不只是一次常规的修修补补,它更像是 openclaw 平台的一次重要飞跃。 如果你要问这次更新的核心是什么,我觉得啊,主要就三块儿,第一,给开发者们塞了一堆全新的大杀器级别的工具。 第二,跟各大 ai 服务商的关系搞得更铁了,集成得更深了。最后,也是非常重要的一点,就是对平台的安全性和稳定性来了个硬核加固,这三条腿稳稳地撑起了这次发布。 接下来是第二部分主要新功能。好了,说完了整体印象,咱们就来点实在的,看看那些真正让人兴奋的东西。 这一次更新带来的几个新工具啊,可以说真的有点改变游戏规则的意思了。 首先要说的这个,哇,简直就是个大招啊!一个全新的命令中心叫做 open cloud info, 你 可以把它想象成什么呢?一个专属的 ai 副驾驶就坐在你的命令行里,随时听候你的调遣。 那这个音符儿命令到底有多深呢?这么说吧,它把四大核心功能全给你打包到一块了,不管你是想直接调用大模型做推理,还是想生成图片、音乐、视频,甚至是想让 ai 帮你上网搜东西,或者给文本创建嵌入,现在通通一个命令就搞定。 这就意味着,以前那些可能需要倒腾半天的工作流,现在一下子就变得超级简单。还有一个功能啊,可以说是王者归来了,那就是内存维基堆占, 你就把它想成一个超级智能的知识库,它厉害到哪呢?它不光是帮你存东西,还能把信息自动整理成论点和论据的结构,甚至能自己发现哪些信息是互相矛盾的。而且啊,你在搜索的时候,它还会优先把最新的内容给你, 对于那些需要跟海量复杂信息打交道的人来说,这简直就是个神器。当然了,对于那些喜欢自己动手追求极致定制的高手们,这次更新也准备了个特别的礼物, 可插拔的压缩服务商。说白了,这就好像换电脑的零件儿一样。你现在可以把 opencloak 内部那个负责总结摘药的核心引擎直接换成你自己写的,这一下子就让整个平台的灵活性上了一个大台阶。 好了,第三部分,扩展的 ai 服务商支持聊完了新工具,我们再来看看 opencloud 的 朋友圈,你知道一个平台再厉害,也得有朋友才行。这次更新呢, opencloud 在 交朋友这事上又迈出了一大步,大大扩展了对第三方 ai 服务商的支持。 你看这张图就明白了, opencloud 的 生态圈是越来越大了,也越来越开放了。这次更新重点优化了对好几个主流服务商的知识,这里面有我们都认识的谷歌 anthropoid, 也有像 rca i 和 alma 这种非常专业的工具, 而且这些更新都特别实在。比如说,你现在可以直接在 opencloud 用上谷歌最新的 gem 模型了, 跟 r c a i 的 集成也变得更简单,直接内置了插件还有 alma, 它现在甚至能自动识别你本地的模型有没有视觉能力,非常智能。 哦,对了, antropic 的 cloud 命令行工具也回来了,这些小小的优化,其实都让咱们开发者在选模型、用模型的时候感觉更顺手了。 好!第四部分,关键的稳定与安全修复,炫酷的新功能说完了,咱们得聊聊那些幕后影响了。 你知道一个平台再牛,要是三天两头出问题,不稳定不安全,那也白搭。所以接下来咱们就看看那些让平台变得更可靠的底层修复工作。所以你肯定想问,新版本到底安全了多少呢? 答案是安钱的多。我给你举几个例子,以前啊,可能会有一些服务器端请求伪造的漏洞,让坏人能从服务器内部搞事情,现在呢,咱们加了专门的保安和门禁,这条路给堵死了。 还有系统里一些特别关键的设置,以前可能会被不小心改动,现在也上了一把安全锁,不让随便碰了,再就是会画令牌,这就好比你家慌了门锁,旧钥匙会立刻作废,独绝了后患。这些改变让整个平台就像穿上了一层盔甲, 除了安全,用起来爽不爽也很重要,对吧?开发团队在很多小细节上也下了功夫,比如以前聊天记录里可能会冒出来一些看不懂的技术代码,现在都给你藏好了,界面干干净净,在小屏幕上,聊天窗口也不会被其他东西挡住了。 ios 上的连接错路提示也更清楚、更人性化了。还有跟 discord、 slack 这些我们天天用的工具集成也更稳定了。就是这些一点一滴的打磨,让我们的日常使用体验变得更 好了。好了,最后一部分核心总结说了这么多,咱们来回顾一下,如果要给这次更新找一个精神核心,一个关键词,你觉得会是什么? 嗯,我觉得就是社区。你看这个数字,四十五加它不是冷冰冰的,这背后是超过四十五位开发者的心血和智慧。 正是因为有他们,才有了我们今天看到的这次强大的更新,这也恰恰证明了 open core 社旗的活力有多惊人。 你看官方的发布说明里,也特别感谢了像 winston、 cock j lamer 这样的核心贡献者,以及整个社区的每一个人。这就是开源最迷人的地方,对吧?大家一起把一件事做得更好,共同推动项目往前走。 所以咱们来给 open core 二零二六点四点七划个重点,它就像一个武林高手,一边练就了更厉害的新招式, 另一边呢,又把自己的内功,也就是平台的底子打得更扎实了。结果就是现在的 open car 不 光功能比以前强大了不知道多少,用起来也更让人放心了。那么最后这个问题就留给大家了, 现在你手上有了一个更强大更安全的 open car, 准备好用它来创造点什么不一样的东西了吗?

大家好,我是麦冬。最近 open class 更新是真的有点快,就这几天已经连着出了好几个版本, 这个时候很多人都会有一个顾虑,想升级,怕错过新功能,但又怕一升级把现在已经跑好的环境弄出问题。其实这件事情没有那么复杂,如果你最近想升级 open class, 最简单的做法就是升级前先做好备份,因为你现在需要保住的不是程序本身,而是你已经跑起来的这套 open class 环境。 比如你现在这套 openclaw 的 配置、绘画记忆,以及你工作区里面的所有内容。所以备份这一步本质上就是给你自己留了一个后手,这样就算升级过程中真出了问题,也不至于从零开始。而且现在备份也非常简单, openclaw 自己就有命令,直接跑一下就行。打开命令行 执行 openclaw backup create openclaw 就 开始自动进行备份了。 执行完成后,它就会生成一个带时间戳的备份包,默认就放在你当前脚本执行时所在的目录下面。所以不用太担心频繁升级会把你好不容易养出来的虾搞坏,升级前先把备份做好,基本上就够了。 另外, open class 备份这块常用的几个命令,我也顺手帮大家整理好了,欢迎大家点赞收藏,后面要用到的时候就会方便很多。好了,今天的视频到这边就结束了,工具会变,但方法更重要,我是麦冬,下条继续。

hello, 大家好,我是 ken, 今天早上刚刚打开手机,我就兴奋的睡不着了。 google 刚刚发布了伽马四,一个可以本地部署的大模型,我的第一个念头是省钱了, 如果把它接入 openclaw, 从此在本地生产 token, 那 是不是就可以不用再被云端 ipi 一 点一点计废了呢?然后我花了一整天的时间来验证这个想法,结论有点出乎意料。先听我说完, 我在本地部署的是二十六 b 混合专家模型,二十六 b 代表着他拥有二百六十亿的参数。 混合专家模型的意思是,他不会一次性把所有的参数都用上,而是根据你的指令调动一小部分的专家来进行回答。这样的好处是推理的成本更低,回答的速度也更快。 这个版本在二十六 g 内存的 m 五芯片 macbook 上刚好能跑。这里 jam 四的几个版本呢?我也简单的跟大家分享一下。最轻量的是 e 二 b, 一个二十亿参数的模型,它在市面上大部分的设备上都可以运行。 那么 e 四 b 呢,是一个四十亿模型,运行它呢至少需要有十六 gb 的 内存。蓝血版是三十一 b, 拥有三百一十亿的参数能力最强,但是目前我手头的设备呢,都没有办法运行。目测 如果说要跑三十一 b 的 模型的话,至少需要三十六 g 的 内存。以我这一个月以来把所有的大模型接入到 openclaw 的 体感来看呢,二十六 b 版本我再应用下来,我认为它称日常工作是完全没有问题的。 截止到这里,一切都让我很兴奋。在 macbook 本地上跑通以后,我迫不及待的把它接入了 openclaw。 和我之前用其他大模型接入的体验不同, jam 四在接入以后没有那个互相了解定义角色的初识化环节,不过正常对话是没有问题的。那么问题来了,他能做些什么?说实话,就是个聊天机器人, 连在桌面创建一个 word 文档都做不到,更别谈生产力了。如果只把它看作是一个聊天机器人的话,那么在欧莱玛中直接运行反而比嵌入到 open cloud 中要更快,所以呢,还不如不用。 然后我掏出了我二零一七年的 windows 老本,这台机器呢,有十六 g 内存,按照 ai 的 建议,分别部署了 e 二 b 和 e 四 b 两个版本的模型。单独跑模型的话, e 四 b 这个四十亿参数的版本呢,每个回答要等待时间在十秒以上。那么 e 二 b 这个二十亿参数的小轻量级版本呢?如果是处理简单问题,基本上可以做到秒问秒答。 但当我把他们接入到 openclaw 之后呢,连收到两个字都没有办法回复,不管哪个版本,通通卡死。所以结论很明确,内存不够的设备不要尝试把 jam 四接入到 openclaw, 硬件是硬门槛,绕不过去。 总结一下今天的折腾,二十六 g 内存的 macbook 可以 本地运行,二十六 b 混合专家模型接入 openclaw 也能正常对话,但完全没有超出聊天机器人的额外生产力。 十六 g 内存的 windows 老本呢,接入 openclaw 可以 说是失败的,那么如果在本地运行呢?一二 b 和一四 b 两个版本都可以作为聊天问答机器人来进行本地使用。 我的判断是,如果内存能够达到三十六 g 以上,能够完整的跑下来二十六 b 混合专家模型,那么也许真的可以变为生产力。但是限阶段大多数人的设备都没有达到这个门槛。 本地部署不是不值得探索,但是要先看看自己的硬件设备有没有达到那个门槛,再决定要不要去折腾,不然的话结果可能会很打消你的积极性。 我是 ken, 专注用 ai 做可持续相关工作流的自动化。如果你对 ai 工具和自然语言编程感兴趣,请关注我,我们下期见。

你有没有见过这种操作,一家公司封杀了你,你不但没有怂,反而在四十八小时之内甩出一套王炸,把对方所有的业务全干。我们来把时间回到二零二六年的四月四号, astropic 深夜发布封杀令,切断了 opencloud 的 免费接口,曾经完全依赖 cloud 的 龙虾一夜之间被断奶了。 然而仅仅四十八小时之后, opencloud 的 龙虾一夜之间被断奶了。然而仅仅四十八小时之后, opencloud 的 龙虾一口气全上。 创始人在 x 上只回了三句话, astonopy 把我们封了。 gbt 五点四变强了,我们继续前进,二十四小时浏览量破一百三十万。今天我们就来聊一聊,这一场封杀是怎么逼出了一个最强的龙虾。首先要搞清楚的 就是, astropic 为什么要封杀裸虾?答案很简单,就是亏不济了。 cloud pro 和 max 订阅本来是按照人类正常的使用强度设计的,人聊累了会停,会关掉网页。但是 opencloud 这种第三方工具,直接让 ai 变成了一个永不停机的 ai, 员工 自己接任务,自己拆解,自己调模型,没有周末,没有下班,小米 mimo 大 模型的负责人罗福利曝光了一个细节,一个每月两百美元的 cloud max 用户,通过 opencloud 跑业务,实际消耗的算力成本高达五千美元。也就是说,一个用户 cloud 要倒贴四千八百美元, 这种薅羊毛的方式,平台根本是扛不住的。但致命的是技术层面的低效问题。罗夫利的分析指出, opencloud 的 上下文管理机制导致单次查询会触发多轮低价值工具调用,每次携带超过一百万透根的上下文 api, 请求次数是 cloudcode 的 原生框架的数倍, 真实成本是订阅价的几十倍,同时还破坏了 cloud 的 缓存机制,让平台不得不为每一次查询重复全量计算。所以 astropics 宣布四月四日起,订阅额度不再覆盖 opencloud 等第三方工具,想要继续用,必须走安量付费。 apf 这一条断供令啊, 直接断了薅羊毛的路。而面对断供, opencloud 的 操作堪称教科书级别的王炸反杀第一炸, 原声试听直接硬刚,以前龙虾只能聊天,接点简单的任务,现在他直接能够拍视频写歌,而且他还玩了个大的 叫海纳百川啊,什么 x a i、 阿里云、 google、 mini max, 千万,全球十一家顶级视频模型全都接了进来,让他写个脚本,他直接给你生成视频成品。这哪里还是之前的 ai 助手,这简直就已经是好莱坞的导演加音乐制作人了。 第二章叫做梦记忆,这个功能太吓人了,他让 ai 学会了睡觉,每天凌晨三点, ai 自动进入梦乡,整理白天的记忆,忘掉没有用的,记住重要的。 这个意味着 ai 终于有了长期人格,你不用每次对话都重复的解释你是谁,他会像一个老朋友一样懂你。记得 第三炸,彻底的去科罗的话,全面投奔 gbt 五,既然你断我的粮,那我就换东家。开发者们已经带着欧盟科罗全面转向了 gbt 五的怀抱。欧盟科罗用行动告诉世界,没有谁是不可替代的,而这场冲突的深层意义远超两家公司很远。 三十六课的一篇分析,标题很直接,就是 ai 的 订阅制已经被 agent 用崩了。订阅制的底层逻辑是,假设用户是人,人会累、会停、会分心, 但 agent 不 会。我们 call 这类工具让 ai 变成了永远在线的数字员工平台在重度 agent 用户身上是越卖越亏的。所以这件事情彻底捅破了一层窗户纸,就是 ai 行业已经到了必须重新设计商业模式的时候了。 与此同时,国内的厂商迅速响应,将 mini max 连夜发表声明,强调它的 token 服务机制自设计之初就支持跨平台调用,可以无缝接入欧文科 mini max 的 m 二点五跟 m 二点七版本, 此前已经连续占据 open roku 调用榜的榜首,此举被视为在 koala 的 服务终端窗口期积极拓展市场的重要布局。 koala 原本的团队生态也在经历洗牌,创始人 steinberg 已经加入了 openai, 但项目将继续开源并获得 openai 的 支持。这件事情对于我们普通人来说意味着什么呢?第一, ai 的 商业模式要变天了。 小米的罗浮丽说得很透彻,真正的出路不在于更便宜的 token, 而在于协同进化、更省 token 的 a 型框架 乘以更强大的模型,订阅制已经扛不住 a d 的 未来,可能转向安量付费或者是混合模式。第二, ai 正在从大脑变成了手和脚,融合到四点五,不再是一个会聊天的助手,而是一个能长期运行、能记住事、能产出内容、还能把过程讲清楚的个人 a d 的 平台。 你跟他聊的可能是一件事,他回给你的可能就已经是一个成品了,甚至整个内容生产链条都有可能自动完成, 这对于所有内容创作类的行业都将是一个很大的拐点。最后问一个问题,你觉得暗亮付费会成为未来 ai 的 主流模式吗?我是老林,关注我评论区聊聊。

嘿,各位 open cloud 的 玩家人注意了,一个超有料的新版本刚刚发布,今天呢,我们就来带你快速过一遍,看看 v 二零二六点三点二八到底藏了哪些好东西? 好,那咱们就直接切入正题,如果你正打算升级,那这一期你可得听仔细了,我们会把那些最关键、最需要你注意的变化拎出来讲,让你搞明白这次更新对你的日常使用到底有啥影响。 行,咱们先从最重要的开始说,也就是所谓的破坏性变更,听起来有点吓人哈,但别担心,其实就两个地方,需要你稍微动动手,搞定了就能顺利升级。 首先第一个就是跟通一千万有关的 qwin provider, 如果你再用它,那可得注记了,以前那个 qwin protof 的 认证方式,现在彻底拜拜了,你得换成用 model studio 的 api 密钥才行,这算是个硬性要求,必须得改。 第二个变化呢,是关于配置文件。简单来说, openclaw 现在对那些老掉牙的配置项变得更严格了,以前它可能还会帮你自动修正一下,现在可不了。 你看,以前系统可能会好心地帮你把旧配置改了,但现在不行了,只要发现有过时的写法,它就会直接报错,启动失败。这么做其实是为了你好,能保证你的配置是最新最准确的。 所以强烈建议啊,升级前线跑一下那个 open call doctor 命令,让他帮你检查一遍,省得到时候启动不了干着急。 好了,雷区咱们都排查完了。接下来就是这次更新真正让人兴奋的部分了,插件系统。我得说,这一次的插件系统简直是脱胎换骨,给了你更大的自由度和控制权。 你看啊,首先多了个安全审批的功能,这个待会细说。然后整个架构也更清晰了,连 cloud、 gemini 这些命令航空工具现在都变成了插件儿。最爽的是,很多插件现在都能自动加载,不用你手动去配置,文件里一行一行加了,省了不少事儿。 刚才提到的那个安全审批,我得重点讲讲这个 require approval 流程真的超酷! 打个比方,有个插件想删除你一个文件或者发一条重要的消息,以前可能就直接执勤了,但现在呢?他会先停下来问你一下,嘿,我准备这么干,你同意吗?你可以通过界面或者发个命令来批准,这样一来,系统的掌控权就牢牢在你手里了, 安全感爆棚!除了插件系统本身,这次更新还让 open call 和咱们平时用的更紧密更好用了。 比方说,如果你再用马斯克的 x a i groc, 那 就有福了。现在它的网页搜索和工具配置都是自动开启的,只要你在配置里写了,它就自己认了,根本不用你再去手动开什么插件,设置起来简单多了,是不是 还有 disco 的 用户?这个功能绝对是福音。想象一下,你们正在一个频道里聊项目,突然需要写点大码,现在一条命令下去,啪的一下,就在当前,这个频道里直接给你拉起一个 codex 工作区,不用再费劲去开什么新帖子新频道了,写作效率直接拉满! 喜欢玩儿 ai 画画的朋友们也别走开!这次迷你 max 的 集成也升级了,完全支持了新的 e m h 零一模型,这意味着不仅能生成图片,还能图升图,甚至还能控制图片的宽高比。这下你的创作灵感就能更精准地实现了。 这种对细节的打磨真的能看出开发团队的用心。就像这个,如果你用的是 matrix, 以前那个 t t s 语音回复可能就是个普通的 audio 文件,但现在呢,它会变成一个原声的语音气泡。哎,就是这个感觉,体验好太多了,完全融入了平台。 好了,说了这么多,咱们来快速总结一下,如果你准备升级到 v 二零二六点儿三二八,下面这几件事儿你可得记好了哦! 来,咱们过一下你的升级 checklist。 第一,马上把窥问 q 文的认证方式换成 model studio 杠 api key。 第二,动作之前一定记得跑一遍 openclaw doctor, 检查一下你的配置文件。第三,升级之后别忘了去试试那个新的 require approval 钩子,也看看哪些插件可以自动加载了。简化一下你的配置,这几步做完基本上就没问题啦。 总的来说啊, vito 二零二六点三点二八版本的 openclaw 可以 说变得更强更聪明,也和你用的各种工具连接得更顺滑了。那么现在舞台已经搭好工具也给你升级了,下一个你要用它来创造点什么好玩的呢?

想象一下,呃,你拥有一个完全运行在自己设备上的著属 ai 生态系统。嗯,这个听起来确实很梦幻,对吧?而且注意啊,我说的不是那种,就是 你每次打开网页都要重新自我介绍的那种啊,对,聊两句就会忘记前言后语的云端聊天器人。没错,绝不是那种。我说的是一个真正 啊,怎么说呢,真正活在你本地设备里的数字大脑,也就是完全属于你自己的。对, 他不仅能以极高的智商和你对话,还能同时就是分裂出多个完全独立的人格。哇,多重人格?是的,而且他会把你们之间所有的记忆啊,篇号啊, 甚至是潜意识整整齐齐的写在最简单的纯文本文件里。纯文本?这倒是很少见,对吧? 他甚至会呃在凌晨三点你熟睡的时候静悄悄的启动,帮你把那些繁杂的后台工作全都处理完。听起来非常像科幻电影里那个钢铁侠的贾维斯,对吧?没错,就是贾维斯。所以,欢迎大家来到今天的深度探讨。 今天我们的任务就是来拆解一份极其硬核但也呃极具启发性的技术资料,也就是 open call 智能体系统的底层加固文档。对的,我们要一起弄明白,在这个人人都把数据往云端大模型或者那种复杂的数据库里塞的时代, 这种坚持本地化,坚持纯文本驱动的系统,究竟藏着怎样惊人的力量?这份资料确实呃让人眼前一亮,当我们深入探究 openclaw 的 设计哲学的时候,你会发现他走了一条 怎么说呢,和主流商业 ai 完全相反的路。完全相反。对,你想现在的主流应用是不是都倾向于构建巨大的黑盒啊?是的,就是啥也看不见的那种。没错,他们把你产生的所有数据全都锁在他们自己复杂的云端数据库里。但是 opencloud 的 核心逻辑是绝对的控制权和透明度, 就是一切都在我自己手里。对,他把系统的神经中枢纽,呃,记忆、存储,甚至连智能体的行为逻辑全部以肉眼可读的方式交换给了你。哇,肉眼可读?不过这就让我产生了一个 呃,非常现实的疑问了。你说既然他强调一切都在本地,完全不依赖云端服务器,那他是怎么解决那个多设备同步的问题的? 嗯,这确实是个痛点。对啊,比如我平时用手机也用平板,还有 mac 电脑,他们是怎么协同工作的?难道我每个设备上都要跑一个独立的 ai, 然后他们在那互相打架吗?当然不是,那样就全乱套了。 为了解决这个问题呢, opencloud 引入了一个叫做 gateway, 也就是网关的架构。网关架构?对, 你可以把它理解为,呃,一个全天候运行的交通枢纽塔台。哦,机场塔台那种感觉。没错,在这个生态里, gateway 网关是一个长期在你主服务器或者你家里的电脑上运行的后台守护进程, 它是整个系统里唯一一个拥有实权的咽喉。咽喉?意思是所有东西都要过它这道关。是的,不管你的消息是来自我 app 还是 telegram 或者是系统内的其他渠道,只有这个 gui 才有资格打开并管理这些绘画。也就是说,我的手机或者平板,其实它们本身并不处理核心数据,一点都不处理,那它们就是个哎。显示器或者遥控器,这个比喻非常到位, 就是遥控器所有的客户端,不管是你电脑上那个极其精美的 mac os 原声应用,还是你在外面用的移动设备,全都是一样的, 甚至包括那些没有屏幕的后台服务器。对,那些所谓的无头节点,它们全都是通过 web socket, 也就是一种保持长连接的技术,实时地挂在到 giveway 网关上的等等。如果手机只是个遥控器,那假设我要查一下我的呃 token 消耗量, 或者我疯狂往上滑,想看一个月前的聊天记录。嗯哼,我的手机其实是在就是临时向这个 gayway 塔台要数据。没错,这就是系统架构里常说的单一事实来源,只有塔台说的才是真理。对的, gayway 后主上保存着所有的状态和绘画记录,而且这里有个极其聪明的细节。什么细节?它的历史记录全是以 jason l 格式保存的。 jason l 就是 一种每一行都是一个独立 jason 对 象的纯文本文件,也就是说,它不是一个巨大的,每次修改都要重新加载的复杂数据库。 哦,它是一行一行独立追加的。对,所以你在手机界面上看到的所有历史记录啊, tocan 统计啊,全都是向 getway 查询之后直接渲染出来的结果,手机本地绝不会去解析或者囤积这些原文件。 听到这里啊,我必须要扮演一下找茬的决策了,呵,来吧,这种一切依赖塔台的设计听起来是很完美, 但现实世界是有网络延迟和断线的呀,这是不可避免的。对啊,假设我今天出门儿,在地铁里用手机的 web app 跟 ai 聊了一路, 中间地铁过隧道,网络断断续续的。嗯,等我晚上回到家,打开 mac 电脑上的客户端,这两边的数据怎么可能不发生状态冲突?肯定会错乱吧。这恰恰是网关架构最精彩的博弈。 面对网络间隙, openclaw 采取了一种极其强硬而且极其克制的原则。什么原则?事件绝对不重放。怎么讲?不重放指的是什么意思?是说,当你的 mac 电脑或者手机在断网之后,重新连上 webshop 的 时候, gucci 绝对不会像倒带一样,把你错过的信息一条一条的塞给你。哇,那不塞给我,我怎么知道错过了什么?克古端,必须主动承认,哎,我掉线了,然后发起一次大局的刷新,寻求哦,主动去拉取最新的状态切片。没错, 因为整个宇宙里唯一的真理只存在于网关的日制文件里。只要网关收到了你在地铁里发出的消息,你回家打开任何设备,看到的永远是那份绝对一致的上下文。原来如此, 他通过这种强制的拉取机制,彻底消灭了多端状态冲突的可能。是的,用极其简单的规则解决极其腐残的问题。 绝了。那现在啊,我们有了一个绝背权威的调度中书。可问题是,这个中书到底在指挥谁呢?这就是下一个核心了。对啊,如果我所有的信息都涌入这个网关 啊,比如,一边是我老板发来的那种极其严厉的质问邮件,哼哼,压力很大。另一边呢,是我妈在家庭群里发的搞笑视频,难道都是同一个 ai 在 树里吗? 这 ai 不 精神分裂才怪啊,哈哈。这就是 open crawl 摆脱单调机器人标签的核心机制了,也就是多智能体路由 多智能体 multi agent。 对, 事实上 get 位内部是可以并行投放多个完全隔离的大脑的。这种隔离有多彻底? 是像我们平时用那个聊天软件那样,仅仅是新建一个对话窗口然后换一套提示词吗?远比那个深的多, 它是物理级别的全方位隔离。每一个智能体都有自己独立的工作区目录,独立的状态文件,甚至。呃,独立的认证配置,连认证配置都是独立的。对啊,打个比方,主智能体可能拥有高级的 api 权限, 甚至有执行系统代码的能力,但这个凭证绝不会泄露给其他的资质能体哦,所以安全级别完全不同。没错,当系统接收到你老板的消息时,动态路由规则会精确捕捉到这个特定的私信对等方。然后呢? 然后把消息丢给一个极其严谨的只能查找工作文档的智能体。而当你的家庭群组有消息时,路由规则会根据群组 id 把消息引导给另一个专门负责插客打混的智能体。呵呵, 他连执行本地代码的权限都没有对吧?对,他就是个受限的逗逼智能体。而且如果系统不主动牵线,这几个智能体根本不知道彼此的存在。这个应用场景太诱人了。 但我接着就想到了一个技术上的瓶颈啊。呃,头壳消耗。对,如果我们要让一个 ai 表现的极其专业或者极具个性, 我们通常会给他写非常非常长的系统提示词,对吧?告诉他你是谁,你的语气是什么?你要遵守什么规则?是的,这就是所谓的 prompt engineering。 如果系统里并行跑着好几个智能题, 每次对话都把这些长篇大论塞给大模型,那 tucker 的 消耗和显存占用绝对是个天文数字啊! 你的直觉非常灵敏,大模型的上下文框是非常昂贵的资源。为了解决这个问题呢, openclock 设计了一套叫做呃,工作区引导的动态组装机制。引导机制 boost? 对 的, 在每一个新绘画的拼一轮,系统会去读取几个关键的纯文本文件,比如定义操作指令的 agents 点 md 哦。 markdown 文件对,还有塑造人设和语气的 soul 点 md, 以及记录你个人偏好的 user, 点 md 哦,等等。 他把所有这些文件的内容全部塞进去,那不是反而更长了吗?这里的精妙之处就在于裁剪和模式切换。怎么裁剪?首先, 如果这些文件过长,系统会自动进行硬截断,决不让基础设定无限指令膨胀哦。物理截断?对, 但更重要的是,它区分了完整模式和极简模式。这两个模式有什么具体的差别呢?当你直接呼叫主智能体的时候,他使用完整模式,拥有全部的指令和上下文。嗯,火力全开。但如果系统为了完成某个特令的小任务,动态生成一个子智能体, 这个子智能体就会被迫进入极简模式。极简到什么程度?在这个模式下,所有多余的文档啊,更新指令啊,通通被提出, 系统提示词里只保留最核心的安全护栏、基础身份,还有几个必要的工具。哇,这种对上下文近乎苛刻的控制欲啊。没错, 正是这种克制,确保了系统能在极低的资源消耗下并行运转那么多个大脑。既然聊到了这个上下文控制,我们就必须面对所有 ai 用户最痛的一个痛点了, 失忆,哎,大模型的通病。对啊,如果我每天都在跟些智能体高频聊天,大模型的上下温孔总有一天会被塞满的吧?迟早的事儿。那一旦触发了清理机制, ai 会不会突然忘记我昨天刚告诉他的重要信息?这就是 open call, 最让我 怎么说呢,最让我拍案交绝的地方了。哦,怎么解决的?它的记忆系统完全建立在纯 markdown 文件上,它有一个用来存放核心事实的长期记忆库,还有按日期生成的日常笔记,比如今天是二零二六年四月六号的 m d 文件。嗯, 这个我能理解,就当成日记本嘛,但这些只是存储戒指啊。真正厉害的是聊完天自动总结一下吗?远比那个优雅。 系统里有一个机制,叫做压缩前刷新。压缩前刷新?对,当系统监测到当前的绘画即将触及上下文框狗的极限,也就是马上要触发自动压缩, 马上要清理掉。早期对话的时候,让我猜猜他会在清理之前先把所有东西读一遍。他会做的更隐蔽, 系统会在后台静默的插入一个用户根本看不见的智能体回合。看不见的回合?对, 在这个隐藏回盒里,系统会给模型发送一个带有 no reply, 也就是无需回复指令的强制提示词。这个提示词写的是什么?大意就是警告你的短期记忆马上就要被清空了, 现在立刻把你认为最重要的信息提取出来,写到此盘上的长期记忆文件里。天呐,这个画面感太强了,是不是非常有意思?这简直就像是一个特工 知道自己马上要被强制洗脑了,所以在失去意识前的最后一秒钟,疯狂的抓起笔,把最重要的密码写在自己的手心上。哈哈,这个比喻极其生动,而且真的揭示了背后的残酷现实。怎么说,不管模型多强大,短期的上下文永远是靠不住的。 好记性不如烂笔头吗?确实,写在手心上最靠谱,但是把信息写在手心上,也就是存入磁盘,这只是第一步,你还得能在需要的时候迅速找到它。 这就需要谈到 openclose 混合搜索机制了。混合搜索我大概听过,通常会提到向量搜索,也就是 vector search 对 吧?对,那是目前的标配了,就是那种能理解羽翼的高级搜索。是这样吗?没错,向量搜索很聪明,它能理解你的言外之意。 比如你几个月前在日记里存了一句运行 get 外的机器。嗯,今天你向 ai 提问啊,我的 max studio 网管虎基在哪? 即使字面上完全不同,向量搜索也能通过数学降维知道你指的是同一台设备。既然向量搜索这么聪明,连言外之域都能懂,那为什么还需要结合传统的 b m 二十五关键字全文搜索呢? 这不是技术倒退吗?这恰恰是很多纯向量搜索技术在实际应用中经常翻车的原因呢?嗯?怎么会翻车?向量搜索贯穿的是宏观的十亿, 但是当他在处理那种精确的没有明确四亿的离散符号的时候,他就是个彻头破尾的瞎子。 离算俗号,能举个例子吗?比如,你在排查一个代码问题,已需要搜索一个特定的原变量名,或者一个具体的报错代码,比如,呃, squiggle back unavailable。 懂了。 对于项链搜索来说,这段报错代码就像是一堆无意义的乱码,它根本找不到似意上的相近点,完全正确。这时候,反而是最老派最传统的 b m two five 全书搜索能发挥其效了, 因为它就是死磕儿,精确的 token 匹配哦,一个看大意,一个抠字眼儿。对, opencloak。 将这两者结合起来,一方面用 sql live 向量扩展加速,肆意召回。 另一方面用 b m two five 做精准锁定,它既懂你的言外之意,又能在茫茫大海里准确地捞出那根特定的针哇。再加上那个私信作祟的身份连接,比如,它能知道 telegram 上的 alex 和 whatsapp 上的阿狗其实是同一个物理人类。没错,这样一来,这就构建了一个毫无死角的记忆网络了。听到这里,我觉得这个系统已经有点令人敬畏了。它有完美调度的神经中抠, 有分裂的人格,还有永远不会妄设的记忆网络,确实非常强大,但现在呢?他依然只是一个困在聊天框里的大脑啊。如果我想让他帮我处理本地文件,或者去网上抓取数据,他是怎么长出双手的?这就要归功于他的模型提供商接入, 还有极其克制的 skills, 也就是技能系统了。技能系统,首先在大脑的选择上,它是绝对开放的,你可以随时无缝切换 open ai 啊、 cloud 啊,甚至是完全断网运行的本地大模型。而且底层的插件系统会自动帮你处理所有的脏活儿、累活儿,脏活儿、累活儿。 比如什么样的脏活?比如当你在大规模处理数据的时候,必然会遇到 a p i 限流,对吧?也就是常说的四二九错误哦,遇到这个传统应用,通常直接报错,直接罢工了。对啊,但在 opencloud 里,插件系统拦截了提供商层面的这种异常。 如果你的第一个 a p i 密钥被限流了,它会自动在后台轮换到下一个备用密钥,无缝重试,你根本连感觉都没有。哇,全自动的, 那赋予智能体手上去干活的 skills 系统呢?我比较好奇的是,假设我的系统里安装了五十种不同的技能,嗯, 比如写代码儿、查天气、发邮件等等。对,难道 ai 每次跟我说你好的时候,都要把这五十个技能的具体说明全部读一遍吗?那也太浪费算力太贵了吧。这正是我说它极其克制的原因。 在 openclaw 里,技能并不是写死在代码里的黑盒,它其实是一个个存放着 s k l 点 m d 文件的普通文件,又是 markdown 文件。对,最妙的是,在每一次对话的系统提示词里, 大模型根本看不到这些技能的具体执行细节,那他怎么知道自己能干什么?系统只会给大模型提供一个极其精简的技能,目录导引。目录导引里面有什么?里面只包含两样东西,第一,技能的简短描述。第二, 那个 markdown 文件在你硬盘上的具体路径。哦,我好像明白了。你的意思是说,如果我问他 今天天气怎么样,大模型看了看目录,发现有个叫查天气的技能路径。然后呢?然后大模型会主动调用系统内置的最基础的 read 工具, 也就是阅读工具,去读取那个特定路径下的 s k l 点 m d 文件,现学现卖啊。没错,直到那一刻,他才真正学会了如何查天气。 这就好比你给一个非常聪明的大学生看一个图书馆的目录,他遇到不懂的问题的时候,自己去书架上把那本说明书拿下来翻看。哇,这是一种真正的按需加载, 既让智能体的能力可以无限扩张,又保证了大脑的绝对轻盈。是的,及其优雅的设计。 这也太绝了。不过,到孟贤为止,我们所有的场景都是我主动找 ai 聊天,对吧?啊,是被动的响应。对,但一个真正的顶级私人助理,不应该只是个被动回答问题的百科全书啊, 他应该能在我不理他,甚至我在睡觉的时候自主地帮我把活干完。系统里有这种机制吗?有的,这是实现绝对自制的最后一块拼图了,也就是定时任务。 chrome jobs, oh, chrome jobs! 这些任务由 gateway 在 后台统一调度, 并且是持久化存储的,就算你的 server 断电重启了,你的任务也绝对不会丢。那执行逻辑上呢?它分为主绘画任务和格力任务两种,这俩有什么区别?我举个具体的场景,你看看对不对啊?好,你说。 假设我想设定一个任务,每天早上六点,在我醒来之前,让 ai 去把我的几个核心邮箱扫描一遍。嗯,抓取新闻?对, 把重要新闻抓取下来,总结成一份五百字的早报,然后直接发送到我的 telegram 上。一个专门叫做早报的特定话题里,我应该用哪种任务针对你?这个场景,你绝对应该使用格力任务。 为什么不是主绘画?因为如果你使用主绘画任务, ai 会直接在你平时的聊天窗口里开始自言自语的处理邮件。 哎呦,那会彻底打乱我昨晚跟他讨论私人话题的连贯上下文呢。对,而格力任务会在后台悄悄开启一个名为 chrome 冒号 drop id 的 专业隐形绘画。隐形绘画对它拥有全新的上下文, 做完复杂的总结之后,通过 delivery, 也就是投递功能,把结果精准推送到你的 telegram 里, 绝不污染你的日常聊天记录。完美就是我想要的干活,不留痕迹。不仅如此,格力任务还有一个杀手锏,他可以覆盖模型设定。 覆盖设定,意思是换个大脑。没错,我们在日常闲聊的时候,为了省钱也追求回复速度,通常会配置一个轻量级的模型。 嗯,比如一些开源小模型。但是像你刚才说的,扫描邮箱过滤噪音,还要转载深度早报 这种每天早上六点执行的重度脑力活,需要很强的推理能力。对,你可以在定时任务的配置里强行指定。这个任务,必须唤醒最昂贵、推理能力最强的模型,甚至把他的思考级别直接拉到最高。哇, 这招太聪明了!把便宜的算力留给白天的闲聊,把最烧脑最深度的推理任务安排在没人打扰的深夜去默默运算。没错,充分利用资源,最后在早晨把最干净、最具价值的结果呈现在我面前。这才是真正的 ai 助理啊!是的, 低廉值的日常交互加上高智商的后台批处理,在这个架构里达到了完美的平衡。确实如此, 那么让我们稍微深呼吸一下啊,回顾一下今天这场干货满满的旅车。好的, 我们看到了一个把一切调作权全部收归本地的 get 外塔台,见识了如何在不报险存的前提下,用极其克制的模式切换来维持多重人格的运转。嗯,还有那个非常独特的记忆系统,对,我们领略了那种像是写在手心上的 压缩前刷新记忆法,以及能在茫茫自海中捞出特定代码的混合搜索。最后呢,我们还探讨了他如何像查阅图书馆目录一样按需加载技能,甚至在深夜隔离出一个最高智商的大脑为你打黑工。哈哈,打黑工! 当你把这些模块全部拼合在一起的时候,呈现在你面前的就是一个高度自制、扩展无限, 却又把每一分数据主权都死死铆定在本地设备上的强大系统。没错,而这正是我在节目最后想留给正在收听的你去独自咀嚼的一个问题。嗯?什么问题? 纵观今天探讨的整个 openclo 设计,你会发现一个怎么说呢,极其震撼的矛盾感。矛盾感?对,你发现没有,无论是让他产生多重人格的。搜点 md, 或者是它用来抵抗遗忘的记忆文件,它竟然把目前人类能触及到的最高级、最复杂的 ai 行为全部铆钉在了最原始、最简单的纯文本 markdown 文件上。确实,这非常反常力。在当今科技界,大家都在拼命追求把算法做成黑盒, 沉迷于构建那种极其复杂的高维度向量数据库的今天, opencloud 的 做法简直就像是一记响亮的耳光。是的,它打破了行业的惯性, 他似乎在提醒我们,想要真正控制、塑造并且理解一个超级人工智能。最终的答案可能并不是制造更多的黑河,而是化繁为简。没错,而是回归到人类用肉眼就能直接读懂的最朴素的纯文本中去。 好了,感谢大家加入今天的深度探讨,希望这期内容能为你提供一个新的视角去审视未来的 ai 生态。感谢大家的收听,保持你的好奇心,我们下次深度探讨,再见!

今天我们来聊一下 opencloak 的 版本问题,那么 opencloak 的 更新速度是很快的,可能三天两天都在更新,那么我们通过那个 npm 来安装那个 opencloak 的 时候,默认安装的是最新版, 安装最新版以后可能会有各种的一些错误,那么有些版本可能是稳定的,有些版本的话可能就用不了,我们安装有问题的 openclaw 以后是不是就用不了 openclaw 了?那么这个不是的,我们可以通过在安装的时候就是我们指定版本,比如说现在他发布的最新版是那个二零二六点四点一,那么我们可以选择我们需要的版本, 比如说某一个版本比较稳定的话,我们就来安装那个版本,现在的话我们看一下。好,我们打开那个 power show。 好,这里是以那个管理员的身份打开的,那我们来看一下它的版本, openclo, openclo 跟 v。 好, 那我现在安装的这个版本是二零二六四点一,好了,配置一下那个 openclo, 看它有什么问题,那么这个是我安装的那个最新的一个版本 openclo on board。 好, 我们看一下上面这里,那么它这里已经报了错误了,那么这个的话就是我是正常安装以后,就是发现它已经报错了,那么我们往下面再试一下,这里的话,我们选择那个是好,敲回车 一样的,那么下面这里也是有报错的,那么这种的话就会影响我们使用。但是我们用 npm 安装的时候,它默认安装的就是最新版,那么其实我们在安装的时候是可以设定版本号的,我们来看一下怎么操作,我们先退出这一个设置。 好,我们退出来了,那么我们先把那个 open 给它卸载掉,就是我们通过那个官方的指令来把它卸载掉。 好,我们 在这边选择那个中文, 好,选择简体中文。好,我们点一下安装这里,然后再点一下卸载这里,然后我们看一下,就是我们用这种非交互式的,就是我们不用确认它里面的那些内容,我们把这个考过背过来。 好,我们先卸载一下,那么这一步的话就是卸载它的那些配置文件,还有核心的一些东西。好,那么卸载完了以后呢?它这里就把这些给删除掉了,那么接下来的话,我们还要卸载一下,就是那个通过 n p m 安装的那个 c l i n p m install 杠记,因为我们是前局安装的 openclo。 好, 已经卸载完成了。好,我们通过那个 npm 来安装,我们选择一下版本,好, npm i i 的 话就是那个 inshift 的 缩写,那么我们用缩写也行,不用缩写也行,那这里的话我就用那个 inshift。 好, 这里的话是那个杠记,接下来我们要安装那个 openclo。 openclo, 好,接下来这里就比较重要了,我把这个往上拖一点,之前的话我们是到这里就直接敲回去安装了,那么他默认安装的是最新版的那个 openclo, 但是最新版的 openclo 是 有问题的,那么这里的话我们要 就是跳过那个不安装最新版,我们要来安装那个之前我们有过的版本,就是比较稳定的版本,比如说这里的话,我就安装那个三月二十八号的那个版本。好,我们看一下怎么安装,加一个艾特符号,然后写上二零二六点三点二八, 这个是 oppo 的 版本号,它是通过日期来定义的,那么有些软件的话,它就可能是一点零一这种的一个格式,那么这里的话就是我们根据它自己的版本号来进行确定。好,这里的话,如果我敲回车的话,它默认安装的就是那个二零二六点三点二八的版本了,因为我们现在那个 最新版的话是有问题的,那么我们就安装那个没有问题的版本,那么到这里的话就是我们想安装哪个版本,就在那个就是 openclock 后面加上一个艾特符号,加上它的版本号就可以了,那么我们这么写的话就是安装指定的版本,到这里的话就是我们要注意, 比如说我们之前用的是那个某一个老版本,那么我们要到新版本或者是到其他版本的时候,那么我们就在后面指定版本就可以了。好,我们敲回车看一下。 好,我们的 openclaw 安装完成了,那么我们看一下我们安装的版本是哪一个 openclaw 更微。 好到这里的话,我们看到了那个 openclaw 的 版本,就是我们指定的这一个二零二六点三点二八这个版本,那么实际在用的时候,比如说我们 e 的 新版本有问题的时候,我们要切换到老版本的时候,那么我们就指定某一个版本来进行安装,有些时候可能就是你用的某一个版本,你又想换到其他版本的号,那么我们就通过在安装的时候,我们在那个 open color 后面加上艾特,加上版本号就可以了,那么这个是需要注意的一个地方。

阿里发布的悟空啊,没有测过。我没有测过,好像是今天的新闻吗?阿里面向企业端的 ai 原生工作,其实我觉得目前的这些互联网大厂创新是不够, 你去看前两天应该是腾讯龙虾的创始人,那个作者就不是就抨击腾讯,说他抄袭,把他的很多 skill 发布到腾讯的网站上面去。老外其实是比较不喜欢他们这种行为,抄袭本质上就是山寨,我觉得都差不多,没什么价值。阿里悟空都是差不多的一个东西,跟龙虾有点像, 只是换了个名词。现在我看昨天英伟达他们也发布了一个,也是跟龙虾有点关系的类似的一个东西。对啊,龙腾讯应该是花钱消灾对吧?他就给了他一笔钱,好像也不多。我听他们说也不是很多, 但这些大公司基本上都是我觉得已经很保守了,没有太多的创新,因为下面有创新的人,他的是个声音,不能让高层听到。他本质就是这样,他基本上层级太多,像马化腾这些人听不到,他基层人的有创意的这些声音听不到,所以他们 这些职场经理人也没办法,市场热什么他就做什么,他的目标反正就是围绕着我,怎么把我的托克卖掉,我怎么不要落后别人有的我也要有,本质都是在做这个事情,但我说过了,这个没什么价值,他们没什么价值。如果他成功的本质就是垄断,没什么价值的,没有创意,他也没有发明新的东西。

o pen 科二四月九日史诗级更新,十五项修复三项安全漏洞紧急修补!你的 ai 助手全面进化, 记忆系统大升级,新增 ram 回填通道,旧日记自动回放,梦境短期记忆自动升级,长期记忆再也不会遗忘重要信息。 三项安全漏洞修复,浏览器 s s r f 防护加强点, e n v 环境电量隔离,远程节点注入拦截,你的数据安全了。 升级前注意,配置文件可能不兼容,旧版记忆数据需要迁移。第三方插件可能冲突,建议先看这里再更新。 三步,平稳更新第一步,备份配置文件和记忆数据。第二步,运行 openclaw 更新命令第三步,用 doctor 命令验证。三步,搞定 ios 版本锁定更稳定。安卓配对终于修复, slack 图片附件恢复正常, matrix 不 再崩溃,全平台体验提升, 新增 q a 对 比测试插件环境变量共享提供商标名别名,开发者效率翻倍,自定义更灵活。完整更新教程正在制作中,包含详细迁移步骤和避坑指南。先关注,第一时间收到推送!

如果你不想用 open klo 了,或者想重装更换版本,一定要彻底卸载,不然会遗留一堆的系统垃圾和安全隐患。 今天这一集,我来教你如何最干净的卸载 open klo, 从进程文件到环境变量,一步一步的清空,不留残留,不占内存,跟着操作电脑瞬间就能恢复干净,还你一个干净清爽的系统。这里是目录,觉得这个视频有用的可以点赞收藏,防止后面找不到了。第一步,依据严谨的原则, 我们先要对 opencll 进行备份。 opencll 的 数据都会放在哪里呢?都会放在你的 c 盘用户,你的用户名,使用哪个用户安装的 opencll 就 在哪个用户的名里边。我们找点 opencll, 就是 这个目录,我们要把这个目录进行备份, 点击右键,我的习惯是直接打一个压缩包,这样我们就备份完了,如果以后需要可以把它恢复。第二步呢,我们要停止 open claw。 我 们先看一下 open claw 现在的状态,输入 open claw gateway status, 可以 看到 open claw 现在状态是在运行的,那我们就要把它停止。输入命令 open claw gateway stop 来停止它。 停止了之后,我们再来看一下状态, open claw get away stay test, 确认它已经完全停止了。这个时候我们就可以使用 open claw 的 官方卸载命令 来运行卸载,它提示我们已经删除了这些目录。 还有一个 c l i 还在安装着,需要使用 n p m 来卸载,那么我们就用 n p m as on install openclock 来卸载。这个时候我们再输入 openclock 杠 v 来试一下它的版本号,诶,返回了版本号,那证明还是没有卸载,那么我们添加一个参数, n p m on install 杠 g openclock 来卸载。 再来看一下 opencll 杠 v, 好, 这回 opencll 已经被彻底卸载了。用户, 用户里边有没有点 opencll? 点 opencll 的 文件夹已经被删除了。下一步我们要删除和 opencll 相关的 api 的 调用,比如说我们介绍的智普,我们找到智普的网站,点击 api k, 在 这里找到 opencll 调用的这一条, 点击删除提示,我们确认此操作将永久删除,是否继续点击,确定 open klo 调用的这个 api 就 删除了。我们下一步再来删除背书的跟 open klo 相关的次键应用,我们点击一个进去看这个连接 open klo 它的综合信息。这里 删除应用这一项是灰色的,禁用的,是因为我们现在的应用已经发布了,如果想要删除这个应用,我们首先要把这个应用停止。这个需要我们到另外一个飞书的管理后台,在飞书的管理后台里,我们找工作台, 这里有应用管理,这是我们默认已经安装的应用,在这里我们往后找, 这些是我们自建的曾经安装的应用,我们要停用它,需要在这里点配置,把已启动这里 点掉,提示我们是否停止应用,我们点击停用。这个时候我们再回到开放平台波哥公司产品,这里可以看到这里显示的是已停用,点进来之后这里删除应用就可以点击了。我们点击删除应用,删除应用之后将无法恢复。点击删除 可以看到我们刚才的那个应用就已经删除了,到这里 opencloud 删除工作就基本上完成了,还有什么不明白的,欢迎在评论区留言关注我,每期一个 ai 知识,谢谢兄弟们的观看,再见!

谷歌终于坐不住了,正式卷开源市场, jm 四的效果到底如何呢? jm 四的发布啊,真的有可能让我们实现头很自由。这期视频呢,老张给大家简要介绍一下 jm 四怎么安装到本地,以及如何搭配到我们的 open klo 大 龙虾上, 附带所有的安装步骤啊,大家可以一起来体验一下。后续呢,老张也会根据测评效果给大家接着发视频,这期是我们完整的部署流程,老张重点给大家简单聊一下,就是为什么 jm 四的发布啊,会让大家感觉谷歌真的开始卷起来了呢? 首先第一点,他和目前谷歌的 jimmy 三用的是相同的技术基座啊,所以说他的能力是毋庸置疑的。第二点就是商业自由,你直接部署下来做什么都是可以的,都是允许的。然后第三个就是支持多模态,无论是文本、图像甚至小规模的视频音频, 他都可以直接支持。第四点就是结合前段时间爆火的 open klo, 他 可以直接在本地对接 open klo 以及对接 klo 的 code, 实现本地的偷根无线化。这是老张给大家总结的四点,为什么詹姆斯的发布会让大家感觉,哎,可能真的要进入到一个新的纪元, 然后呢,他所发布的这四款模型呢?老张给大家做了一张图片啊,大家可以到时候把它截下来。第一个模型一二 b 的, 他本身是用于手机或者边缘设备八 g 显存, 然后最高端的三十一 b, 他 所对应的旗舰版本呢,是对应的是二十四 g 加,所以大家根据你的需求来进行对应的模型选择。老张这次视频呢给大家来看一下三十一 b 的 这款模型的安装, 然后关于本地的安装部署啊,其实非常简单,任何开源模型,其实我们只需要让他和欧拉玛就是那个小羊驼结合到一起就可以了,然后找到你符合要求的版本。安装成功之后啊,欧拉玛现在已经有了一个完整的应用端了,所以大家可以直接在这个位置和他进行对话交流。 那我们想要下载 jm 四到你本地的电脑上,我们可以使用它的官方指令,会告诉我们直接怎么样去进行 jm 四的对应安装,像老张想安这个三十一 b 的 对吧?我们就把它拿过来, 把它直接这有一个 c l i 命令行安装方式,把这个东西直接复制在你的开始菜单中,单机右键选择运行输入 cmd, 直接把刚才指令粘贴过来,这儿的时间会很长,因为它有二十个 g 的 大小,我们直接稍作等待 安装成功之后,我们也可以直接回到它的客户端中,在模型选项上找到我们安装好的詹姆斯冒号三十一币, 然后可以直接进行对话。老张他处理一个较为复杂的提示词,我们让他看一下当前显存的内存消耗, 咱们拿这个 ai 慢距的提示词来测试啊,这个提示词非常的长,我们看一下他读取提示词的能力,以及他的这个显卡的性能消耗,我们看一下啊,这个显存直接拉满的,达到了百分之九十四的占比, 而且这个响应速度还是非常快的,只需十一点七秒啊,就把整体的业务流程给我们直接补齐了,而且呢按照需求给我们进行了对应的提问,要什么样的慢距效果,所以说以目前的测试反应来看呢,他的这个响应速度起码要比之前的很多大模型要好的多, 所以接下来我们自己来尝试一下对话类的工具,可能大家都不是很需要的,我们能不能把它接入到我们的 open clone, 丢到我们的龙虾里,让它们俩来进行联动的。然后这期视频呢,老张顺便给大家提一下,就是最新版的 open clone 的 部署流程 啊,咱们可以快速的去过一下一些重点的细节,因为之前老张发过很多期的部署视频一块的呢,因为它本身啊, wsl 它是相当于在 windows 系统上安装一个 linux 的 独立系统, 这样的话呢,就直接相当于在你电脑上安装了一个独立的存储空间,它所谓叫做沙盒安全,而且运行起来呢是不会有任何的兼容性的对应问题的,因为 windows 中啊,它的权限呐,路径等经常会报错。所以说我们这 期视频重点教大家怎么用 wsl 进行 win opencl 的 部署安装,这样的话, windows 和 wsl 的 安装您都了解之后之后学起来就非常方便了。 然后接下来呢,老张给大家简单的介绍一下在 wsl 中如何安装我们的 openclaw, 因为之前呢,咱们介绍过太多次了,很多兄弟留言说老张就别介绍怎么安装了,然后我们就给大家简单说一下注意事 项。首先第一呢,你想在 wsl 上安装 openclaw 的 话,第一点你得先在你的 windows 系统下把 wsl 安装一下,当然很多电脑老张发现其实都是自带的, 怎么检查是否自带呢?咱们可以直接输入 wsl 空格杠杠威森,如果弹出定的版本号,证明 wsl 电脑已经安装了,如果没有弹出的话,使用安装指令 wsl 空格 insert 直接安装即可。然后紧接着按照老张给你提供的指令复制粘贴就可以了。先安装你的优班图, 安装之后进行一下更新。安装完优班图之后啊,在这选择这个倒三角,找到优班图系统,就可以直接进入到你的优班图系统当中。 在你安装过程中啊,它会让你设置一个用户名和密码,到时候可能需要做一步密码验证。在优班图系统中,注意是优班图系统中运行这些环境指令,分别安装 python 三,安装一个压缩包工具,方便安装一个 node 点 ps, 然后再安装一个 get 工具。 如果说为了检测每一步安装是否成功的话,你可以分别输入,比如 note 杠 v、 npm 杠 v, 包括 get 杠 v, 在 这检测我们对应的这个版本。如果都能弹出版本号,证明你三项安装都是成功的,这是配置 openclo 的 基本的内容要求。 然后紧接着我们把基本环境配置好的兄弟,你还需要在这个位置安装一下这个欧拉玛。 这老张要重点说一下,说老张我不在本地都已经下载好欧拉玛了吗?为什么在优班图里还需要再配置一下?其实我们优班图中是可以调用本地的欧拉玛的,但是很多兄弟在调用过程中分别给老张留言说说调用时无论是 ip 地址找不到,还是 ip 的 动态变化,导致每次都需要重新连接,重新配置。 所以说最简单的方式就是把欧拉玛在你的优班图系统中再次的安装一遍。其实安装非常简单,只需要把第一步的安装指令复制过去,直接在这个位置直接粘贴即可。安装成功的检测方式很简单,你就输入欧拉玛, 如果他不报错还给我们对应的选项,是咱们是进行对话呀,还是怎么样的证明你的安装就是成功的? ctrl c 直接退出。 所以说欧拉玛安装之后,紧接着就是把我们的模型在当前的优班图中跑起来。老张刚才给大家测试的是 jm 四三十一 b 模型,我们直接输入指令欧拉玛空格 run, 然后你的模型效果直接回车,第一次时他会直接进行对应的模型下载。如果说你现在只想用 open klo 来调用欧拉玛的这个占四的话,可以在我们的本地电脑上把之前咱们那个桌面端给他 删掉,如果说你不你想两端都使用的话,就可以直接在这个位置进行使用了,然后发一个你好看一下响应速度, 嗯,响应速度是非常快的,所以接下来我们把这个家伙欧拉玛的詹姆士直接部署给我们的 openclo, 在 这怎么中止对话,摁一下 ctrl c, 再摁一下 ctrl d 啊,就可以直接进行中止对话了啊,所以说大家可以直接的把它退出来, 退出来之后我们在这儿部署一下 openclo。 关于 openclo 的 安装呢,官网推荐是使用 c o r l 这种安装方法,但是老张发现很多兄弟在使用这种安装方式时呢, 出现了这个网络问题,导致下载出现卡顿,如果说 c u i l 的 方法报错的话,直接使用 n p m 安装也是完全可以的,安装完之后直接输入 open klo 空格杠 v 来输出最新的 open klo 的 对应版本啊,这就是老张跟大家说的一些建议啊,大家按照这个要求去做就行了。 然后接下来我们进入到配置,直接是直接输入它的配置指令回车,选择 yes, 然后选择快速开始就可以,我们直接配置一下模型, 然后选择更新,这选择谁呢?选择这个欧拉玛啊,然后选择默认的这个 ul, 选择本地模型,让他去给我找一下咱们本地有哪些模型,稍作等待 好,选择当前的这个模型,咱们四三十一币,然后配置我们的聊天软件啊,这个老张之前讲过太多太多次了,现在呢,他又支持了很多,包括 qq 之类的,大家有需要的话可以按照之前老张的教程再来一遍,我们先跳过 打开之后啊,就可以直接对话。但是如果说善于观察的兄弟们也发现了,老张呢把这个使用模型呢换成了这个一四 b 的 模型,不是那个三十一 b 的, 因为三十一 b 呢,老张在测试的时候也好,或者在一些使用时候也好,他有的时候会出现这个连接超时的问题,也是 oppo klo 更新到最新版本出现了一个能启动问题, 这个呢,老张现在还没有特别好的解决方案,所以说我先用一次必得给大家进行演示,发一个,你好,我们来测试一下他的响应速度啊,还是比较快的。 然后接下来呢,我们再把之前的那个慢句的提示词发送过来,我们来看一下他能不能更好的帮我们去进行慢句提示词的对应理解,以及对应的相关反馈。 嗯,其实我们看到啊,他反馈的这个结果呢,和三十一 b 相比啊,真的是有一定差距的,但是呢,确实也是另一方面实现了我们所谓的叫偷根自由。 大家呢也可以后续啊,去测试一下怎么让本地如果你的显卡够用的话,把这个大模型给它跑起来。然后老张呢也会及时给大家更新,无论是在评论区中还是视频中教大家如何使用。我是程学老张,定期分享 ai 好 用知识,希望大家多多关注。

大家好,欢迎回来,今天我们来聊一个大事啊, open cloud 刚刚发布了二零二六点四点五版本,这可不是个小更新啊,而是一个主版本,里面塞满各种让人兴奋的新功能和重要的改进。好,咱们话不多说,直接开始, 咱们先来设想一个场景,好吧,想象一下你手里的那个智能体,你的那个 but, 它不光是能跟你聊天,它还能自己去创作视频,谱写音乐, 而且它还能记住你们聊过什么,有了长期记忆,同时呢,整个运行环境还比以前任何时候都安全。听起来怎么样?这其实就是二零二六点四点五这个新版本想要带给我们的东西。 好的,咱们先从这次更新里最亮眼最酷的部分说起。 ai 创意套件儿,你可别以为这只是小打小闹,这简直是让 opencloud 的 智能体一下子就点亮了,艺术家的技能树是一次质的飞跃。 没错,你没听错,我也没说错,这次更新的头条新闻就是这个 opencloud 智能体,现在可以直接在对话里原声生成视频和音乐了。 哇,你想想看,这给自动化内容创作还有各种互动体验打开了一扇多大的心门啊!那么,这到底是怎么实践的呢?其实啊,是靠两个全新的内置工具,第一个叫 video generate, 顾名思义,就是让你的智能里能直接调用配置好的视频服务去生成视频。 第二个呢,叫 music generate, 它能生成音乐,而且现在已经支持像 google lyria 这种,就是谷歌搞的那个特别前沿的音乐模型。有了这两个工具,在, opencloud 的 生成多媒体内容就变得特别简单,特别无缝的 好。我们来看这张表,这张表真正有意思的地方是,它给我们展示了背后支撑这些新功能的整个生态系统。你看, openclaw, 这次增加了一大堆新的提供商支持媒体这边有 xai、 阿里 runway 这些大厂, 但最让我兴奋的是,它还集成了 comfy ui。 这意味着什么呢?这意味着你现在可以把你本地或者云端的那些复杂的图像、视频、工作流直接跟 openclo 连接起来。这一下子就把 openclo 的 能力边界给拓展了太多太多。 ok, 聊完了这些特别酷的创意工具,我们再来看看底下的东西。这次更新啊,不光是表面光鲜,它还深入到了 open cloud 的 核心,做了很多让整个平台变得更聪明、更高效的底层改进。咱们来看看这些幕后英雄吧! 来了来了,这个功能简直是太有开创性了,虽然还是实验性的,但他们管这个叫做梦。你怎么理解呢? 您可以把它想象成是 open shelf 智能体的潜意识,这个系统能自动把你跟他日常对话里的那些短期记忆进行提炼、巩固。最后呢,变成一个可以长期使用的知识库。说白了,这就意味着你的智能体真的开始能够学习和成长了。 而且啊,这个做梦的过程他不是瞎做的,而是被精心设计成了三个互相配合的阶段。第一阶段叫浅层,就是初步处理一下最近的对话。然后呢,进入深层阶段,把里面那些重要的概念固化成长期的真理。 最后是快速演动,也就是 r e m 阶段,给这些概念打上标签,准备好存到永久记忆里去。你看这个过程非常结构化,也让这个记忆系统变得更可靠了。 还有一个性能上的大体声,就是提示词还成,以前什么情况呢?就是你的提示词哪怕只是改了几个字,或者多了个空格,这种无关紧要的变化还成,可能就失效了,得重新算一遍。 但现在新系统会用一种更聪明的方式去识别这些相似的请求,所以环城的命中率大大提高了。那么这对咱们用户来说意味着什么?很简单,后续的查询响应更快了,而且因为能重复利用结果,所以也更省钱了。 好的,每次有大版本更新,咱们都得关注一下哪些必须知道的事。现在我们就来聊聊这次更新里唯一的一个重大变更,还有就是它带来的一大堆安全方面的加固。 官方的发布说明里清清楚楚的写了这次唯一的重大变更是什么,简单来说,就是他们把一些老的以前就说不推荐用的配置别名给删掉了,这么做的目的就是为了让整个配置文件的结构更清晰,更规范。 那这具体对你有什么影响呢?别担心,官方把这个过程弄得非常平滑。首先虽然老的别名没了,但系统在加载你现在的配置文件的时候还是能兼容的。 最关键的是,你只需要做一件事,就是运行一个特别简单的命令, open class 杠 fix 敲下回车,系统就会自动帮你把旧的配置迁移到新的规范路径上,就是这么简单直接一步搞定。 再说安全,这一次的安全投入可以说是全方位的,你看这张图就明白了,安禽修复覆盖了从插件和工具到最核心的网关和认证,再到平台集成和智能体本身, 这说明什么呢?说明开发团队是在系统性的加固整个平台,保证咱们在享受这些新功能的时候,我们的数据和操作也都是安安心心的。 我们都知道 opencloud 的 一个强大之处就是它能跟各种聊天平台无缝集成,这次更新呢,也针对这些平台做了很多改进,目的就一个,让咱们在任何地方用起来都感觉更顺滑。我们来看看几个亮点。 这个列表挺长的,我就不挨个念了,挑几个重点说,如果你用 telegram 那 模型选择期、话题回复这些问题都修好了, 用 discord 的 朋友呢,会发现代理支持和图片生成回复比以前好用多了。还有像 metrics、 slack、 微软 teams 和 whatsapp 也都有不少关键的修复,解决的都是咱们平时用得到的,比如私聊回复连接稳定性的问题。 能看出来他们确实很关注咱们在不同平台上的实际使用体验。好了,到这里我们已经聊了很多内容了,现在咱们花点时间把这次信息量超大的更新浓缩成几个最关键最核心的要点 哟。你时间紧,只能记住三件事,那就是这三件,第一,你的智能体现在是个艺术家了,能自己做视频和音乐。第二,智能体有了实验性的做梦功劳,长期记忆能力有了质的飞跃。 第三,升级过程很安全,也很简单,只有一个配置要改,而且一条命令就能帮你搞定。 总而言之啊,这次更新真的是给所有开发者和创造者提供了一大堆超级强大的新玩具,从会学习的智能体到能创造多媒体的机器人,未来的可能性真的是无限的。 所以最后我想留给大家一个问题,现在你手里有了这些强大的新能力,你第一个想要去构建的应用,或者说想要创造的体验会是什么呢?我非常期待看到社区里会出现哪些有创意的作品。好,今天就到这里,感谢收看!

红门六点零已经发布,就是 openclaw 这么热门,现在红门怎么去跟这个 openclaw 结合,而且会不会涉及到一些问题呢? openclaw 下载量已经超过 linux, 很 少有软件能达到这么大的体量呢, 也就是它会成为一个未来的标准,那我想红白鹭可能不得不正视这样一个东西,要把它加入进来,会不会涉及到一些制裁啊,或者是这方面的因素呢?那因为 open club 它也是开源的,它遵循那个开源协议和开源规则,那我们应该把 open club 呢?嗯,抓回来是吧?在 国产的可控的这个操作系统方面做各方各面的安全等等的。呃,处理了以后,然后呢?为整个的国产操作系统的发展和生态的发展助力。鸿蒙和 uemco 集合 已经有开发者也做了,而且我们看到社区里面的一些英雄啊和 pr 的 一些反馈,大家发现啊, open harmony 它和 open club 的 一个结合,其实也能解决一定的问题啊,包括这两天大家也看到了这个空心不发的那么 open club 的 一些安全性的一些问题。 但是因为大家也知道 oppo 哈曼它是一个很安全的这样一个操作系统,在隐私方面,安全方面都是得到了一个很好的一个认可。然后 oppo 哈曼和 oppo 可乐的结合,我觉得会天然的融为一体,然后能更好的去助力鸿蒙的这样的一个系统和 ai 的 一个融合, 这也是现在的一个操作系统呢,在努力的向 ai 靠近的方式之一。就我个人认为呢, oppo 可乐它更多的是代表着一种趋势,而不是它本身,因为, 呃,比如说可能因为我们看了 oppo、 可乐,它的这个发展历史,它其实也是一个人,然后在这个自己的这个经历当中,其实我们应该更多的鼓励谷谷类的类似这样的产品,甚至比它更有创造性的产品出来, 我觉得这一个是未来基于鸿蒙操作系统的一个大的一个趋势。那么呢 open colo 呢?它现在呃在电脑上,它在做浏览器等等,其实它是智能体的一个综合的一个表现。 那它不仅是我觉得在未来的几年里面,它不仅是体现在呃我们讲的这个电脑的操作上面,比如说在聚生智能, 在机器人这个方面它是一样的逻辑。那现在可能从自身智能和机器人的角度来讲,现在核心缺的是什么?核心缺的就是类似整个的操控系统软件这个体系,那 opencloud 的 这个思路它其实是完全可以借鉴到这个上面来的。 那我觉得呢,就是我们既要独立自主,要呃顽强的就是坚强的往前发展,同时呢也要开阔眼界,把世界上的精华的这个优秀的思想融进来啊。开源的话我感觉还是, 虽说有各种各样的制裁,各种问题,我们还是应该利用全球智慧,然后我们也应该给全球去做这样的一个贡献。 所以说除了我们贡献新的类似 open core 的 内容,但是他已经做的东西我们跟他不一样。那本身 open core 我 看现在国内很多企业也在参与,包括上次腾讯也做了捐赠者嘛, 对吧?很多企业在参与他的开发,估计国内应该也会有不断的有人去参与到,就大家去共建一个可能更大的一个这样的一个生态吧, 从一九年开始,对吧?到现在已经推了这么多商家,版本也迭代很多,而且我们有一个特性,就什么呢?就每一次版本迭代呢,都围绕一个主题,就是咱们说鸿蒙生态啊,一次开发多端部署啊,可蒙可贺,自由流转 完统一生态系统智能。其实从最后一个点呢,就是统一生态,那么咱们可以想象一下,对于鸿蒙来说呢,其实我们从哈曼六 s 和 oppo 哈曼林,对吧?包括哈曼六 s 和这个,呃,我们的第三方库啊,包括组建啊,包括各个产品啊相融合。 那现在呢,欧盟 cloud 呢?其实它也是作为一个三方的代表,只不过现在我们就非常火,那对于洪盟来说呢,我们也希望拥抱第三方框架,所以洪盟的主观角度来看呢,肯定还是喜欢把这种欧盟 cloud 融合进来。 而且呢像刚才咱们说到了啊,就腾讯也好,甚至呢就是我的一个朋友啊,因为前两天我们在那个做华为合作伙伴大会的时候,他给我演示一个产品,这个产品就是什么呢?就是基于 actys 来实现的这个 opencloud, 就是 他已经做好了,但是 opencloud 搭建的环境呢,就是基于本地, 看了他这个演示,那个作品,其实他整个界面的风格非常好啊,就是也是一种问答的形式,只不过呢他基于 opencloud 给他画了各个行业各个领域, 比如说有教育行业的,还有银行的、地产的,那每个行业里面呢,他都训练了一些相关的一些数据进去,就是说现在都流行养龙虾,对吧?通过养龙虾的方式呢,让我们问的问题呢,能更符合啊,我们自己想要的东西。 所以现在呢,对于洪猛来说呢,他现在做基于基于阿克拉斯来做,而且后台的服务器用的什么呢?其实用的是仓结啊,采用的是仓结语言来做的,就是我们可以看到一点,就无论从后台也好还是前台也好,其实更直观的给大家一种感受呢,就是要融入 ai, 一定就这个我这个系统或者我这个应用,要想能够符合这种市场的一个前景,那它一定要把 ai 的 元素融合进去,而且呢对于 oppo cola 来说,它可以做任何一个区域的可识化,甚至我问的问题呢,可以局限到不是说我一问一答的形式,是我一问百答的形式 啊,我觉得这是欧盟 cloud 做的比较好的地方,所以对于鸿蒙来说呢,那如果我真的想拥抱三方框架啊,然后让我的东西呢,能够结合这种 ai 实现真正的系统智能,那还是要把这个欧盟 cloud 的 这个元素融合进来,而且这是一个必然的趋势。 作为我们一个企业,我学了很多东西,目前的政府推动这个鸿蒙系统啊哈,作为我们企业,我们非常愿意参与进来,我们也是八十年代哈,搞计算机过来的人, 实际上呢,我们中国的话,在八十年代 pc 机,九十年代初啊, pc 机操作系统我们失去了机会,安卓系统、智能手机我们也失去了机会,但是 现在这一波人工智能的话哈,我们中国一定不会错失这个机会,这所以我们从这个角度认识了哈,这样推进这个鸿蒙系统和现在的哈这个聚生智能机器人也好、 融合也好,什么发展也好啊,是国家整个的一个战略决策,作为我们企业来说,我们积极响应,这是我想非常想说的一句话。