嘿,大家好,今天咱们来聊聊 openclaw 的 最新版本,二零二六点四点一,如果你最近感觉自己的 ai 助手好像突然开了窍,变得特别聪明,特别好用,那恭喜你,这真不是错觉, 没错,这次更新啊,简直就是给你的 ai 助手来了一次大大的升值!那么这位新进的得力干将到底都 get 了哪些新技能呢?咱们一起来深入看它 好!首先,这次升级最核心的一点就是解决了一个大痛点,以前啊,这个 agent 总像个黑盒子,他在背后干啥我们完全看不透。但现在不一样了,他不仅变得更强更可靠,而且最关键的是,他的所有动作咱们都能看得一清二楚了。 要说这次更新的明星功能,那绝对就是这个杠 tasks 命人了。你想象一下这个场景,以前你让 agent 去跑个任务就只能干等着,心里直犯嘀咕,它到底干嘛呢?现在呢,有了杠 tasks, 就 好像给 ai 装上了一个全透明的仪表盘, 他在后台的每一步操作都清清楚楚的展现在你面前。而且最最方便的是什么呢?是你根本不需要跳出聊天窗口,所有的监控查看任务细节,追踪进度全都在你跟他对话的这个界面里完成。 这种无缝衔接的体验,说实话,效率真的是直接拉满了。当然了,这么强大的功能,背后肯定有大神呐! 这里必须得大声感谢一下社区的 at vincent courts, 就是 他的贡献,才让我们能像开了天眼一样看清 agent 的 一举一动,真的必须给他点个大大的赞 好。既然我们能监控他了,那 agent 的 自身的抗压能力有没有提升呢?答案是肯定的。 这次更新啊,也重点解决了那个一直以来啊都特别让人头疼的问题,就是没错, api 接口不稳定。 这个改进对于跑那些长时间任务的人来说,简直就是救星啊。以前 a 件的可能会傻乎乎地对着一个已经挂掉的服务不停地撞墙重试, 现在他变聪明了,发现此路不通,马上就切换到备用方案。这意味着什么?意味着你的自动化流程中断的概率大大减低了。这里也要感谢 atforever 三 d 带来了这么关键的一个改进, ok, 现在我们的 agent 既透明又可靠,那下一步当然就是让他去更多的地方大显神手了,对吧?所以这次更新也大大拓展了 openclaw 的 朋友圈,给他增加了好多新的连接和渠道, 大家可以看看。这里面有注重隐私的搜索插件 sirx n g, 有 企业级的安全护栏, amazon bedrock guard rails, 还有最新的智普 ai 模型。 这些新的集成,可以说让 opencloud 的 农历边界又扩大了一圈。咱们手里的这个工具箱啊,内容是越来越丰富了。除了这些 bug 的 集成,还有很多针对具体平台的优化, 这些就更贴近咱们的日常工作了。比如说你在用 mac 的 时候,可以直接语音唤醒它,在非书里, agent 都能用 emoji 来回应你了。 就是这些小细节,能让你感觉到这次更新对用户体验的打磨真的很用心。好!聊完了这些让人兴奋的新功能,咱们接下来聊点更实在的,那就是修复 bug。 毕竟再酷炫的功能,如果系统不稳定,那也白搭。这次更新呢,就花了大力气,集中解决了一批社群里大家抱怨最多的问题。 这个场景我相信很多人都经历过吧。正聊着天呢, ai 突然给你甩过来一长串儿天书一样的错误代码儿,瞬间就蒙了。现在好了,这个问题解决了,要感谢 at lookf, 以后再出错了,你会看到一句非常友好的,请重试。别小看这个改动,对于不太懂技术的用户来说,体验简直是天壤之别。 还有一个就是启动时的那个卡顿,有没有人体验过?就是启动 open cloud 之后,它会莫名其妙的卡住大概一分钟,真的让人窒息。如果你也经历过,那我恭喜你,这个噩梦终于结束了。 add open perf 的 这个修复,让启动过程变得特别流畅,整个平台的可能性可以说是又上了一个大台阶。 这个修复对于那些在 slack 和 discord 上跑自动化流程的团队来说,绝对是个天大的好消息。以前那个审批流程动不动就卡死的问题真的太折磨人了,很多自动化都因此废掉了。 现在这个问题被彻底解决了,你的工作流终于可以安安心心地跑起来了。这得归功于 art schooled scuba 和 art vincent coke 的 努力。真的非常感谢他们。 那么聊了这么多新工人、新集成,还有 bug 修复,咱们把这些零零散散的拼图都放到一起,从一个更宏观的角度来看看二零二六点四点一这个版本到底意味着什么。首先我想说的是社区的力量, 你发现没有,我们刚才反复提到感谢谁谁谁,这背后都是一个个真实的开发者。这次更新有超过三十位贡献者参与其中, 这可不仅仅是一个数字,它代表的是一个非常有活力的,大家一起动手建设的生态系统。所以啊,这次更新的故事其实可以概括成八个字,先打地基,再起高楼。 他首先用大量的关键修复,把整个平台的地基打得前所未有的牢固,然后就在这个稳固的地基上才开始给你添砖加瓦,给了你像 gantask 这样的强大工具,扩展了整个生态,也让 agent 本身变得更聪明更能干。 所以你看,这次发布它其实不单单是一次软件升级,它更像是一封邀请函,或者说是一份挑战书。 他在告诉你,哎,平台我已经给你弄得又稳又强了,工具也给你准备好了,那么接下来就看你的了,你准备用它来创造点什么不一样的东西呢?
粉丝3410获赞1.0万

最近啊, mac mini m 四又火了,就是因为那个从 cloud bot 改名为 mod bot, 最终啊,又命名为 open cloud 的 ai 工具。现在很多人啊,都想搞一台全天二十四小时待命的个人贾维斯。 确实啊, mac mini m 四啊,本身就很强,但是如果你真想用它来搭建本地 ai, 有 几点啊,你真的要注意。首先啊,想跑 ai 模型的话,那些对话记忆 只是酷训练数据这些在使用的过程中啊,持续产生的数据,确实是个存储黑洞,两百五十六 g 啊,根本不够,五百一十二 g 啊,想跑训练久了可能也有点费劲,但如果直接上大内存的版本, 这个价格啊,都会再买几台 mac mini 啊。我的省钱方案是啊, mac mini 啊,就入手盖板就行了,之后直接外接个固态硬盘来扩容。另外,想要模型加载快,数据供给顺畅的话,外接硬盘的传输速度也很重要。 本地读写速度啊,也是 ai 本地推理训练效率的关键。这么看来啊,想要搭建一个真正的个人假维斯,光有 mac mini m 四还不够,你得给他配一个传输速度快,传 输空间大的硬盘盒,至少十 g 二十 g 起的传输速度,再加上几 tb 的 传输空间,才能真正发挥 mac mini m 四的实力。 前段时间啊,我按照这些需求啊,到处找了一圈,最后锁定了阿卡西丝的 m 零零二 pro。 前面说了,咱们搭建个人假维斯最怕什么,就是存不够,刚好他这里有两个硬盘位,可以塞两块最大八 tb 的 固态硬盘, 直接就是十六 tb。 十六 tb 放在那 ai 模型啊,随便装知识库呢,随便建训练数据啊,随便存空间啊,直接管够。然后是速度啊,这个才是我选它的核心原因,开个锐的零模式啊,直接飙到四十 g, 你 们想啊,跑 ai 的 时候 图形要加载,训练数据呢要读取,检查点呢要保存,这些操作全都要从硬盘里拿数据, gpu 的 算力再强啊,但硬盘速度太慢,性能啊,直接拉跨。有了四十 g 的 速度,训练数据读取嗖嗖的。最后是散热和防尘,这很多人啊,可能没注意到要二十四小时开机,跑 ai 这些啊,真的很关键。 m 零零二 pro 是 一比一开模的,铝合金设计,完美搭配苹果美学,这就像给 mac mini 啊穿上了一层散热机甲,一眼看过去啊,像不像 mac pro, 颜值和格调直接拉满,加上上下全开孔,热量直接散出去,我挂一整周啊,摸上去啊,也不怎么热。而且啊,不止是硬盘盒,前面三个 a 口啊,可以接移动硬盘和 u 盘, 后面两个 d p 口啊,支持双四 k 显示,顶部还有 s d 和 tf 卡槽,相机拍的素材啊,直接导一盒多用。总结一下, mac mini m 四啊,是个好东西,但想当真正的 ai 服务器,存储容量和传输速度啊是关键!正在搭建 ai, 想让 mac mini m 四啊存储和速度飞起的朋友阿卡西四的 m 零零二 pro 啊,赶紧试一试!

好多小伙伴说我们 openclaw 配置完了,那跟我们真实的科研生活有什么相关?所以这个视频就直接给大家展示一下我们怎么用 openclaw 来结合我们科研去做一些工作。 比如说这个是我飞书里的机器人,他连了我的 open cloud, 那 这个具体的对接方式在我第一个视频就是 open cloud 飞书千问怎么配置,那个视频里已经给大家解释过了,所以这边我们就不再说它的配置方式如何了。嗯,我们直接说是怎么应用的, 我直接问他说你能不能在飞书里建立一个分子生成的知识库,定期将最新研究写入到知识库中,可以看到他就直接的在我们的知识库里边生成了一个分子生成的知识库,并且把这三个文档自动建进去了, 知识点在这里边,三个文档也都在这里边,包括最新的一些研究动态、行业动态、更新日制。那这个定时的任务也不需要我们去配置这个机器人,他直接帮我们配置好了,我们也可以在我们的 crawl 里边查看,你可以看到这个就是它刚刚自动配置的一个定时任务, 包括一些 prompt。 然后这个是我给他的第二个任务,就是让他搜索净化相关的一些内容,也是定期的分享到我的知识库中。现在的更新是每周一上午十点 自动更新,它也写着下次的更新时间,它到底能不能自动触发添加内容,等下周一的时间我再给大家看, 目前看应该是没有问题的,所以如果大家也感兴趣,用一个这样自动化的工具去配合抓取你最近那些研究热点,并且让它自动的生成文件,就可以参考我第一个视频去进行一个配置,那个视频和文档我都已经提供出来了, 然后希望大家也有一个自动化的一个科研工作。以上就是今天分享的内容,感谢大家的收听,再见!

很多同学说这个 openco 从来在科研里边什么用处,甚至还有同学觉得他可能跟这些 deepsick 啊叉、 gbt 这些语言类的大模型没什么区别,今天我用我这个很弱的本地模型给大家示范一下下。那我刚刚发给他一张我想要用的这个实验的照片,然后让我他帮我自行命名, 我的手机连的可以不是局域网,可以在任何地方使用,流量就可以发,那么这个 opencloud 后台他就会显示他接收到了消息,然后同时调用这个 api 去处理。 那这个时候我的 lm studio 的后台就开始进行这个 prom 的预处理,现在是从零一直到了百分之七十二点八,在百分比生成好之后,他就会开始产生 tok, 之后他就会自动装载在我们的桌面上了,然后咱们双击打开一下, 这阵是咱们刚才发过来的图片,当然传一个图片这种只是 opencolo 最小的一个本领而已,他能够帮我们在本地电脑上面打开我们的 app, 比如让他现在直接打开这个麦克 w b 的麦克文件,然后它就自动给你弹出来了。如果你能够用上这个 a p i 的 token 的话,它还能够上网站自动帮你下载你想要的所有的文件,你只需要列一个表就足够了。那么我们设想一下,当这个 a 真的非常强大了之后,咱们有各种好用的 a p i 之后, 咱们可能成把优盘插在电脑上,然后接着你跟他说你帮我统计这个照片,所有照片的这个呃 wb 调带, 然后他叭叭叭的帮你点好,然后就帮你统计完列在 excel 表里边了,而到时候做到这一切,可能就只需要咱们拆一个优盘,然后再跟他描述一段 prompt。 所以说 opencolo 比起这些传统的差级,不提 deepsic 这些语言大模型,它区别就是它是一个 agent, 他可以帮助你完成很多事情,直接调用你本机的资源,他这是一个把你的设备变成智能设备的用处。

来了来了,他来了!想要二十四小时在线的 ai 助手,不用买 mac mini, 旧电脑装个飞牛 s 就 行。 openclaw 原声应用上线,一键安装,新手无压力。想用新的 openclaw, 第一步千万别忘了先进入系统设置,把飞牛 o s 升级到最新的一点二六版本,只有更新了系统,你才能在应用中心看到它。 非牛 openclaw, 赶紧安装它,安装完打开进行配置,然后打开应用中心就可以看到非牛 openclaw, 赶紧安装它,安装完后我们就可以打开它来进行配置了。 接下来配置,大脑进入模型设置,选择 mini max, 填入你的 api key, 内置本地云端模型能力配置很简单,重点来了,对接之前一定要先安装这个插件,不然是没法扫码绑定的。插件装好后 回到 open cloud 添加消息渠道选,这时候二维码就出来了,直接掏出手机扫码绑定,几秒钟搞定, 绑定成功,发个指令试试。注意看,他没有像拆开 p t 那 样一个个字往外蹦,而是卡了一会,直接甩出一大段话,为什么会这样?查了一下, 目前非牛版还是三点一三,而官方最新版已经更新到三点二五了,版本之后导致微信不能流失输出,但这依然是目前性价比最高的方案。关注我,版本更新了第一时间通知大家。当然,如果你想在一个 nars 上养好几个龙虾,那还是用 dawk 步数比较方便,具体请观看我上一集的内容。

普通人该如何选择 open club? 大家好,目前国产 open club 满天飞,到底该如何选择合适的版本?我花时间把几乎所有版本的 open club 都装了一遍,今天就来讲讲不同版本的区别,详细的对比资料评论区留言获取。我们先看看各版本战力对比。 一、智普 auto club open club 原版封装修改一键本地部署最省心,免费额度起步积分套餐二十九至四百九十九元, 支持企业微型飞书、钉钉、 qq, 内置 glm 杠五、蓬尼模型,可自定义多模型技能市场九十五个,支持 mcp 自定义网关几乎满血。 open club 新手首选二、猎豹 ez club 国内版 同样是原版封装,三端覆盖本地云端,安卓每天免费二百积分,付费四十至二百元每月,内置九大主流模型,技能市场超三万个,有专属龙虾商店,普通用户最易用。三、 当被茉莉功能对标 openclock 主打微信加 siri 远程控制,每日登录送三千积分,付费十九点九至一百三十九点九元每月,支持微信服务号 siri 调用,带权限管理,适合习惯用语音微信远程操控的用户。四、腾讯 work buddy 腾讯官方办公像 agent, 积分消耗极低,每月免费五百积分,专业版五十八元每月,内置多模型办公与代码能力强,插件生态丰富,本地部署稳定,职场办公首选五,网易劳普测 ai 免费使用,需自配模型接口,高度兼容国产模型,支持几乎所有国内大模型 i m 接入,全面带 m c p。 沙乡安全环境开源爱好者首选六,阿里 coco 阿里开源版本地加云端双部署, 支持钉钉、飞书、 imessage、 discord 等超多通道,纯开源可二次开发,适合即刻与企业自建。七子杰尔克勒 云端修改版深度绑定豆包与飞书 lite 版四十元每月, pro 一 百九十九元每月,限时限量,纯云端运行。七乘二十四,在线飞书用户首选八, mini max max claw mini max 专属云端版,模型单一但稳定,免费一千积分付费三十九至一百九十九元每月,开箱即用,适合不想折腾配置的普通用户。九月之艾面 kimi klo kimi 深度定制云端版常文本与代码墙套餐三十九至五百五十九元,按 kimi code 度倍数计费,仅在 kimi app 内使用 kimi 重度用户专属。 最后总结,追求完全自由,最强能力直接上 openclor 原版,新手一键开箱。推荐 autoclor, 普通用户三端方便选 easyclor 国内版,办公省钱稳定选 workbody 飞出豆包生态选 arkclor 微信 siri 远程选房没有力,即刻开源自建选 couple rob sir a r 好 了,除了 coco 需要邀请码之外,相信其他十款产品一定有一个是适合你的。以上就是本期的全部内容了,感谢您的观看,记得关注哦,我们下期见!

今天说十个国产平替版本的 openclaw, 我 已经汇总好,大家可以截图保存。第一个,腾讯 qcloud。 腾讯目前在做的是一个内测版本,支持本地一键部署,并且可以直接接入微信、 qq 等腾讯社交工具。很多人关注它的原因其实不是部署,而是腾讯生态。一 旦 ai 助理可以直接连接社交工具,很多日常沟通和信息整理的工作都有可能自动完成。第二个,网易 lobster ai, 网易的思路偏向自动化办公工具,它提供的是一个图形化工作流界面, 用户可以用可示化方式设置任务,比如定时执行、信息整理、内容生成等。同时系统支持常识记忆,并且运行在本地沙河环境中,重点强调的是安全性。第三个,智普 auto g l m agent。 智普做的是一个大模型 agent 平台,支持本地一键部署,同时内置几十种技能,比如文档处理、信息解锁、自动任务等。它还可以直接接入飞书等办公系统,所以很多开发者会用它做自动化办公实验。 第四个, minimax 的 qmi agent。 minimax 走的是云端 api 路线,它没有强调本地部署,而是提供 agent 能力接口,开发者可以直接调用 系统,支持飞书、钉钉等办公生态,适合做企业级应用。第五个字节 arc agent 字节的产品是典型的云端 sas 形态,用户通过网页就可以使用,不需要部署。 light 版本可以免费试用,而 pro 版本按照使用量付费,整体定位更偏向平台工具。 第六个,阿里扣炮。阿里的路线是本地和云端双部署模式,既可以在本地运行,也可以直接使用阿里云服务,基础版本是开源免费的,但如果企业需要定制方案,则会收费。第七个,小米 miklo 小 米的思路更偏向终端设备,它主打端侧运行,通过设备本地执行任务,再结合云端模型进行推理, 未来可能更多结合手机和 i o t 设备场景。第八个,华为小 e agent 模式,华为正在尝试把小 e 助手升级为 agent 形态,本地能力结合华为云算力,可以支持自动化任务。 基础功能是免费的企业级方案,会提供定制服务。第九个,腾讯 work buddy, 这是腾讯推出的企业办公助手,是一个云端 sas 产品,不需要本地部署,用户可以创建多个自动化机器人,免费版本最多支持五个。第十个,猎豹 easycore, 这是猎豹移动富盛团队做的一个简化版本,主打一键部署和快速上手,希望降低普通用户使用 ai 自动化工具的门槛。今天的内容到这里就结束了,你现在已经用了哪个呢?欢迎说说你认为好用的平台是哪个?

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

今天我们这里讲的介绍的是这个 purple banana, 它是一个科研作图的利器啊。这个地方它的一个整体的设计思想,就是用这个简数加这个 设计,再加这个样式美化,然后再加一个出图,然后再到一个这个比较,我觉得这个地方也比较关键,它就是一个循环的评判的不断修改,根据你的系列,然后最后再到一个出图, 就这他的一个整体的一个智能体、多智能体交互的一个设计流程,就是这个样子,然后可以看到我这里是随便找了一篇论文,是一个 style 的 那个 r l 就是 强化学习,做到这个地方可以看到他给的这个图像的风格,我觉得是非常 nice, 非常好看的, 又对于这种学术风格,然后他这个第一步这个就给的这个计划呢,他会又根据你的那个这个地方提供的描述,就是你论 文的 abstract, 还有 max 这些信息,然后这个地方是一个论文的标题,对吧?他给根据你这个信息,他会给出第一版的这个出图的一个样式,给到你就你的一个模型结构图,然后之后呢? 哦这个地方,然后之后呢他会用这个样式修改,就是样式美化,可以将这种比较古老啊,就这个地方因为他的配色有点那种陈旧, 还有这个地方陈旧,对吧?他直接可以美化的非常符合现在的那种风格,比较偏现代化,就这种很好看啊,就给了样式美化之后, 然后之后呢他这个 critical 他的一个作用就来了,他会根据你的这个就是说给到的一个建议,他再去做一次评判,对吧?他给评判给到一个描述,然后给到一个修改建议,然后模型呢就会根据这些给到建议呢,判断要不要去就修改,是不是就这样子, 你看这个地方他就觉得不用修改了,这个就已经很好了,他这地方就没有后续的一个过程,然后这里呢就是要进行修改,对吧?到这里他就会进行一些修改,然后这个地方也是他觉得,哎,这步修改之后就已经很不错了,他就没有再去走继续的那个第三轮, 对吧?然后他这里就非常的 nice 啊,最后给到一个结果就是这个样子,然后这里的参数就是我刚说的都可以调整这些, 然后非常的 nice, 我 觉得这个一个喷雾 banana 可以 加速,极大加速我们对那个模型结构的那个设计能力。

今天我们来聊一下 opencloak 的 版本问题,那么 opencloak 的 更新速度是很快的,可能三天两天都在更新,那么我们通过那个 npm 来安装那个 opencloak 的 时候,默认安装的是最新版, 安装最新版以后可能会有各种的一些错误,那么有些版本可能是稳定的,有些版本的话可能就用不了,我们安装有问题的 openclaw 以后是不是就用不了 openclaw 了?那么这个不是的,我们可以通过在安装的时候就是我们指定版本,比如说现在他发布的最新版是那个二零二六点四点一,那么我们可以选择我们需要的版本, 比如说某一个版本比较稳定的话,我们就来安装那个版本,现在的话我们看一下。好,我们打开那个 power show。 好,这里是以那个管理员的身份打开的,那我们来看一下它的版本, openclo, openclo 跟 v。 好, 那我现在安装的这个版本是二零二六四点一,好了,配置一下那个 openclo, 看它有什么问题,那么这个是我安装的那个最新的一个版本 openclo on board。 好, 我们看一下上面这里,那么它这里已经报了错误了,那么这个的话就是我是正常安装以后,就是发现它已经报错了,那么我们往下面再试一下,这里的话,我们选择那个是好,敲回车 一样的,那么下面这里也是有报错的,那么这种的话就会影响我们使用。但是我们用 npm 安装的时候,它默认安装的就是最新版,那么其实我们在安装的时候是可以设定版本号的,我们来看一下怎么操作,我们先退出这一个设置。 好,我们退出来了,那么我们先把那个 open 给它卸载掉,就是我们通过那个官方的指令来把它卸载掉。 好,我们 在这边选择那个中文, 好,选择简体中文。好,我们点一下安装这里,然后再点一下卸载这里,然后我们看一下,就是我们用这种非交互式的,就是我们不用确认它里面的那些内容,我们把这个考过背过来。 好,我们先卸载一下,那么这一步的话就是卸载它的那些配置文件,还有核心的一些东西。好,那么卸载完了以后呢?它这里就把这些给删除掉了,那么接下来的话,我们还要卸载一下,就是那个通过 n p m 安装的那个 c l i n p m install 杠记,因为我们是前局安装的 openclo。 好, 已经卸载完成了。好,我们通过那个 npm 来安装,我们选择一下版本,好, npm i i 的 话就是那个 inshift 的 缩写,那么我们用缩写也行,不用缩写也行,那这里的话我就用那个 inshift。 好, 这里的话是那个杠记,接下来我们要安装那个 openclo。 openclo, 好,接下来这里就比较重要了,我把这个往上拖一点,之前的话我们是到这里就直接敲回去安装了,那么他默认安装的是最新版的那个 openclo, 但是最新版的 openclo 是 有问题的,那么这里的话我们要 就是跳过那个不安装最新版,我们要来安装那个之前我们有过的版本,就是比较稳定的版本,比如说这里的话,我就安装那个三月二十八号的那个版本。好,我们看一下怎么安装,加一个艾特符号,然后写上二零二六点三点二八, 这个是 oppo 的 版本号,它是通过日期来定义的,那么有些软件的话,它就可能是一点零一这种的一个格式,那么这里的话就是我们根据它自己的版本号来进行确定。好,这里的话,如果我敲回车的话,它默认安装的就是那个二零二六点三点二八的版本了,因为我们现在那个 最新版的话是有问题的,那么我们就安装那个没有问题的版本,那么到这里的话就是我们想安装哪个版本,就在那个就是 openclock 后面加上一个艾特符号,加上它的版本号就可以了,那么我们这么写的话就是安装指定的版本,到这里的话就是我们要注意, 比如说我们之前用的是那个某一个老版本,那么我们要到新版本或者是到其他版本的时候,那么我们就在后面指定版本就可以了。好,我们敲回车看一下。 好,我们的 openclaw 安装完成了,那么我们看一下我们安装的版本是哪一个 openclaw 更微。 好到这里的话,我们看到了那个 openclaw 的 版本,就是我们指定的这一个二零二六点三点二八这个版本,那么实际在用的时候,比如说我们 e 的 新版本有问题的时候,我们要切换到老版本的时候,那么我们就指定某一个版本来进行安装,有些时候可能就是你用的某一个版本,你又想换到其他版本的号,那么我们就通过在安装的时候,我们在那个 open color 后面加上艾特,加上版本号就可以了,那么这个是需要注意的一个地方。

啊,今天给养小龙虾或者准备养小龙虾的小白说一下这个模型方面的选择啊。首先第一个就是 mini max 杠 m 二点七,这个模型最大的优点就是划算便宜,然后这个模型呢,可以当备胎用, 也适合做一些查询类的联网搜索查询这些工作,包括文文本搜索啊这些,它的识图能力是最弱的,然后它的思考啊,文本都一般般。 那第二个就是两个同样的,一个是 kimi 杠 k 二点五,一个是千万三点五杠 plus, 这两个都是多模态的,具备这个视觉识别能力,然后视觉理解呢是第一梯队。 然后 kimi 杠 k 二点五呢,文本能力要比这个千万三点五 plus 要强一点,但是它的任务执行效率比这个千万三点五杠 plus 要弱一点。 呃,你如果说做一些综合方面的工作,比如说图文处理啊这些包括决策方面的咨询建议,可以考虑用这个多模态的全能的就是三点五和 kimi 杠 k 二点五, 然后智普清颜的这个 glm 杠五,这个呢,写代码就是顶行,行到顶写代码基本上是国内第一梯队了,最强的没有之一。 然后第二个呢,就是它不适合做任务执行以及这个数据查询和文本生成,它就是写代码用的酷酷写代码。 然后第三个就是 deepstack v 三点二,这个呢,如果说你不处理图片类的啊,因为它是纯文本的,你不处理图片类的,它也是顶行, 他的任务执行能力是国内我自己试下来一个个用下来,任务执行能力成功率是最高最强的,这个非常非常的厉害,只唯一的缺点就是不具备视觉识识别能力。 然后再跟大家说一下这个模型的扣费选择,这个里面也是一个坑,你们要选模型的时候一定要看他这个扣费里面模型价格里面有没有带这个缓存命中。如果说带缓存命中的, 那他的这个托肯计算相对来说是比较小的,那同样我们选这个强哥家的啊, 强哥家的他就是没有缓存命中的,只有输入,输出价格看起来比这个要便宜点对不对?实际上他使用下来的价格只会更贵。为什么没有缓存命中的模型? 他每次计算托肯是把你所有的对话全部上传上去计算的,然后有这个缓存命中的,他是 把你一部分上传过去计算,一部分是通过这个缓存来计算,所以你的 token 包括你的消耗整体而言会比这种没有这个缓存命中的要划算很多, token 消耗也要小很多。

今天我刚把 openclaw 更新到最新版本,直接被整无语了, xs 命令彻底用不顺手,每次执行都弹授权窗口,反反复复点确认点到手抽筋,好好的自动化流程直接废掉。别慌,我亲自试出两种终极解法,一行命令或改个配置,就能永久关闭凡人的授权弹窗, ai 想干嘛就干嘛。问题根源 我仔细研究了一下,原来是最新版权限大升级了,官方为了加强安全防护,把 xs 命令改成了默认,每次执行必须手动授权。虽说安全是好事, 但对我们开发者搞自动化的人来说,这简直是噩梦,严重拖满工作节奏。方法一,终端命令最快我试过了, windows、 mac、 linux 全平台通用复制粘贴直接跑,不用额外折腾。我亲测搞定, 照着输完命令,从此 exact 无授权无阻拦,用起来丝滑太多。方法二,修改配置文件一劳永逸。要是有人找不到终端或者不想输命令,我建议直接改 opencloud, 加机身配置文件,一步到位,永不复发。我给大家整理好文件路径,照着复制就行,保存文件,重启 opencloud 永久生效。安全小提醒, security four 就是 完全开放权限,日常用起来效率最高最省事。要是有人特别看重安全,我建议用白名单模式,只放行指定命令更稳妥。我自己平时做个人开发,跑自动化, 直接开服务权限最爽,不用纠结。我身边不少同行升级后都被权限坑到了,兄弟们赶紧试这二招,经测试百分百有效, x x 瞬间丝滑自动化流程直接重回巅峰!

想搞科研,却被繁琐的软件配置和杂事缠身,超算互联网客户端大升级,你的科研专属龙虾 escore 来了!无需用户单独安装软件、繁琐配置环境,只需将超算互联网客户端升级至最新版本。打开客户端,点击左上角 escore 图标,即可一键部署,登录后便能直接使用。 此次上线的 s core 拥有三大核心能力,全方位提升科研工作效率。第一,对话即指令内置海量科学计算技能,查文献、写论文、设提醒,覆盖全科研场景,像装 app 一 样,简单一句话它就懂。 第二,深度打通办公协助平台,飞书、钉钉、企微全接入,在群里艾特他一下,任务立刻执行,再也不用反复切换窗口。第三,任务全托管,你下班 ai 值班、定时巡检、周期报告、学术推送, sglo 七成二十四小时替你守塔。 以科研专属龙虾 s 罗为起点,超算互联网超级科学计算智能体全景图正式落地起航!未来,超算互联网将持续迭代升级,不断完善智能体建设,让 ai 算力普惠更多科研工作者。

哈喽,我是严校长,之前几期视频去讲了这个本尼大模型吧,然后很多人就觉得这个本尼大模型在速度上肯定是非常的差的。然后这期视频主要给大家实战演练一下啊,只见我们用录屏的形式看一下。呃,我最近发现这个模型啊,就是刚出的千万三点五三十五 b a 三 b 这个模型, 你看我用的是这个八位的一个量化版本,但这个版本其实跟我们线上去使用的话,差别并不是很大,特别在高峰时期,他不会被压缩。 如果你用线上模型 open color 想省钱不用的话没有意义,你训练的东西没有用,然后你大量使用的话,你的这个开销,特别是多 a 镜头的这种场景,你的成本是相对比较高的。所以说如果你有重度的 open color 依赖的话,可以尝试一下和我一样用麦克斯丢丢 去做本地模型的部署,可以看到我这台机器是二百五十六 gb 的 版本,这个机器目前跑这个东西都是小儿科啊,你看就占用了六十。然后我们来看一下这个本地模型到底速度怎么样, 我们先做个简单的测试啊,比如说你可以做什么?大家重点是关注他这个回复的这个速度,以及这一块他思考的这个时间啊,可以看到这个速度基本上是秒出的呀,可能现在赛文比较小啊,可以看现在能跑到四十七啊,可以跑到四十七 啊,然后这个是八位的啊,这个八位如果我换到四位,我们常用的这个版本的话,可能速能跑到五十多啊。比如说我们来点复杂的,比如说 天气怎么样?因为这个涉及到要一个联网搜搜索嘛,他会在网上去搜啊,他的步骤可能你看现在已经操作了两步了,第三步了啊, ok, 把他读到了我当前地址啊,然后天气都带出来了啊。比如说我再问一下别的地区, 因为这个就要考虑到一次两次的上下文的连连接,而不是简单的常用的这种。呃,人工智能进行一个单次对话,你看他联想到了我后面发的这个深圳的话,他能联想到这个天气的信息。然后我们接着来去 啊,问一个复杂啊,比如说推荐一下二零二五年的高分韩剧啊,这个其实是有点难度的啊,首先他要在网上去扒资源啊,找到有用的信息,然后进行整理。 这个步骤对于本尼达模型其实压力算是很大的,你看一下我们这个目前新出的纤维三点五,在这个本尼达模型上的效果怎么样?可以看到这个速度 其实有很多人应该用过线上的版本,你们又不觉得我这个速度并没有很慢是不是?而且我这个是没有弄虚作假了,这些片子可以看到都是都是新出的,而且刚刚的思考过程都是看得见的。 然后我们来反过来推一下,你看现在上下文是有一定下降的啊,跑到四十五,但是四十五点七 t 肯啊,这个叫 t g 头肯,就是吐字的,这个速度其实是已经很合理了,我们再继续给他一点有难度的啊,比如说这个片子啊,我直接跟他说嘛, 这个具体讲什么?好看吗?啊?你继续进行二次追问这样一个测试方法是很容易测出一个模型以及对于 open klo 的 适应能力,可以看到速度依然可以很快的出来。 然后我们再继续增加难度,比如说这个片子一出来,我觉得你看他,他甚至给我一个建议啊,就是他可以帮我搜磁力链接,这个就很强啊。我说,呃,找找四 k 的 吧 啊,其实这个又又叠加个难度,首先上下文的长度变长了,哎,再加上他对互联网解锁的这种能力就更强了。因为我们用的是巴巴比特这个电话版本吗?如果试比特可能会弱一点,但是他只影响他试错的这种 几率吧。可以看到这种他已经不断的在尝试了,如果你是精度比较低的,他可能试错的次数会多一点,但是基本上都能出结果,而且可以看到我现在的这个显存。 嗯,这点三条文基本上不会有开销。比如说你预算有限的话,你可以入 m 三要求的这个九十六 gb 现存的这个版本,如果你呃预算 大概在两万左右的话,也可以买六十四 gb 的 m 二要求的话,你跑四 b 的 量化体也不会差很多 啊。你看这个,这个他现在就是遇到了问题啊,你看,呃,就说在某个网站上没有找到这个资源 啊,这就是现在本地模型,我目前来测试就是很容易出问题的一个点,但是这个问题我觉得是可以解决的,因为通过你去优化它的 skill, 它可以解决更精准的一些,因为我现在是完全让它呃重新尝试,相当于没有没有教学的部分啊,让它自己去尝试, 那后期你就可以完全用自然语言去沟通,然后他会更了解你的习惯,写出更合适的 skill 啊。这些视频主要是给大家讲,就是关于本地大模型啊,以及这些使用体验上的速率以及性能的问题,可以看到一些正常使用都没问题。 我们再做点哪一点呢?比如说打开浏览器,进入小红书,搜索 back 丢丢,其实这个是有点难度的啊,就哪怕很多线上模型,我们去跑浏览器的自动化,其实都呃不是那么容易成功的。而加加我们现在已经有一些上下文的堆积了,然后我在中间突然插入了一个和上下文完全没关系的 啊,内容其实对他来说是有一定的难度的,可以看到他第一次试错了,他第一次直接用这个,呃,直接去抓了呀,他就是很简单,他打不开浏览器,但是他用了一个其他的方式帮我推出来了这个目前我想找到的东西,也就说他又找了一个别的解决方案啊,但是千万三点五,这个本身是一个小模型啊, 如果我们后期去切到这个 mini max, 你 看它这个,嗯,空间都占用一百三十八,实际跑起来大概占一百八十 gb 的 现存。比如说如果你预算更高一点,大概五万的预算的话,你完全可以入这个二,像我一样二百五十六 gb 的 这个 m 三要求啊,就跑这个 mini max, 像这些什么浏览器啊,以及呃下电影啊这种小科的问题吧,但是它的速度可能就跑不到五十头克,每秒大概有三十头克,但是日常使用完全够了。 ok, 那 下期视频我们会继续分享如何?呃,更高效地使用本地这个大模型,来去跑一些 open klo 的 一些复杂任务。

这个国产操作系统又更新了,你们看这次更新了什么,竟然预装了这个 open cloud 啊,你可以想象一下,如果让这个微软啊,或者是 windows 或者是 mac 啊,能够在系统级别预装这个 open cloud 的 话,几乎是件不可能的事情。但是 啊,我们的国产操作系统啊,不光呢在做国产化啊,也在追赶这些非常时髦的这些 ai 的 应用啊。现在呢,这个我已经给它下载下来了啊,这个 opencloud 的 这个版本啊,我一会呢就安装一下,给大家体验一下,不好用呢,就等我下期视频吧,记得点关注啊。但是呢,这个积极的态度啊,真的是值得点赞。

ai 时代,为什么科研人一定要养自己的? openclo 不是 工具哦,是你的第二大脑。然后很多人就留言问我,老师,这听起来很厉害啊,但是我完全不会技术,我能不能也搭一个呢?今天呢,我就给你一个特别简单,听完就能做的一个版本,不用代码,不用服务器,不用折腾,三天三夜,只做三步。 第一步就是先建四个文件夹。很多人一听到第二大脑,马上开始研究知识图谱, ai agent, 自动化的系统 workflow。 结果三天过去了,系统没搭好,人先焦虑了。其实真正的 openclaw 一 点零,只需要四个文件夹就够了。第一个问题库,不是去存论文,是存问题。就比如说 ai 如何改变医学诊断,现役数字治理为什么效率差异这么大?为什么有些教育干预长期有效?因为 科研最重要的资产不是论文,是问题意识。第二个证据库,这里放你的论文数据,案例实验记录,政策材料。但是有个原则,所有的材料你都要挂到某个问题下面,否则你只是在囤资料。第三个失败库, 这个特别重要,因为科研人有一个特别奇怪的习惯,就是成功写论文,失败直接忘。但是很多时候,真正值钱的不是成功,而是 这条路为什么走不通。把你过去的失败记下来,你未来会感谢你自己。第四个输出库,所有的论文草稿,基金材料报告图标代码都按照研究主线规的,而不是按日期啊。第二步呢,让 ai 呢,固定干三件事情,不要每天随便问 ai, 给他三个固定的 工作岗位。第一,资料管理员,每周让 ai 帮你整理这周新增的论文数据笔记,挂到哪个研究问题下?第二, 研究复盘官每周问 ai 一个问题,我这一周真正推进的研究问题是什么?如果 ai 找不到答案,说明你这周 可能只是忙,不是在推进科研。第三个机会,提醒员让 ai 定期的帮你去看哪些材料已经构写论文了,哪些想法其实是可以变成 基金的题目的。很多科研机会不是没出现,是你没看到。第三步呢?每周一次 open cloud 喂养 ai, 它不会自动变聪明,你要去养它,就像养宠物一样的。每周花二十分钟 做一件事情,就把这一周的想法笔记啊,失败新问题会给你的 open claw, 然后问他四个问题,第一个,我现在最重要的研究主线是什么?第二个,哪个问题才值得下周继续追?第三个,哪些材料已经足够写论文?第四,那条路其实可以放弃,你坚持两周,你就会发现啊,你的 ai 开始真的越来越懂你了。最后,我们说很多的科研人觉得 ai 时代最重要的是会指令词啊,会工具啊,会写代码啊。但是我越来越相信一件事情,未来科研差距不是比谁会用 ai, 而是 谁最先拥有自己的认知系统。 open clone 呢?它不是一个软件,是一种习惯,是一种把 碎片知识变成长期认知资本的能力。那关于 ai 如何提高科研效率的方法和底层逻辑以及好用的工具呢?我们已经系统整理放在了知识星球,有需要的老师呢,也可以自行查看我们下期的分享,再见!

open club, 呃,我,我不太确定是不是我设置的问题啊,所以说我拍这个视频大家来一起看一下,就是说,呃,我在使用国产的这个模型和呃国外的这些模型之间,它的使用上面体感的一些 啊,非常明显的一个差距,他到底在哪里?就是我刚才做了一个什么操作,就是我去啊,我去升级了我的 open cloud 版本,从二月十二号的这个版本迭代到了二月十七号这个版本,那么我在升级过程当中呢,我看到了有一个 vcom 的 这个插件的报错, 嗯,我给大家来看一下,就是说遇到了什么什么问题?就是说这个插件他报了这个错误,就是说啊可能存在一些风险的代码,对吧?那么 这个插件的话呢,是之前我在测试 wacom 接入 openclaw 这样子的一个项目里边,我去做测试用的,那么测试完成以后呢?这个这个插件其实是用不到的,呃,所以,呃,我看到有这样子的一个风险提示,我想把这个插件从我的啊这个 plugins 里边去移除掉, 所以我就问了一个这这样子的一个问题啊,就是说,呃,你自己去搜一下有没有 wacom 的 这个插件,那么你看一下它是如何回复的?就是说 他其实现在的这个回复的话呢,已经有点脱离我的问题了,就是说这些是 crm 自己生成的,不是我主动发的,对吧?然后需要我查什么东西呢? ok, 到这里没有没有没有太大的这个问题,我就主动的耐心的解释一下嘛,就是说我遇到了这个,我收到了这个, 然后呢,你看他是他是怎么样子去去回答我的,就是说他从头到尾他一直都是说这个东西不赖我,你不要去找我,就类似像这样子的一些公司老油条的这样子的一些,呃,考虑问题的逻辑啊,就就很匪夷所思知道吗?这不是我主动发的消息, 也不是让你搜索 wecom 插件的,就是这样子,那么我就问了嘛,就是说啊,你既然这个东西的话,你既然是 chrome 报的,那你告诉我是哪一个 chrome 对 吧? 他回答的其实都是都是不是我想要的东西。然后呢,我从这个上面去切换到了啊,这个 切换到了这个 jimmy 三 jimmy 三 flash。 然后呢,我就让他去查一下嘛,就是我把上面的这些问过的问题全部都丢到同一个问题里边去啊, 你看一下,让我们检查一下 wecom 的 这个插件的配置,然后他就去搜,搜完了之后呢给到我这个一个报告, 就是我不太确定到底是我配置的问题,因为我只是切换了一下模型而已,其他的变量我都没有变, 但是执行的效果结果大家都是可以有目共睹的,就是就是他可能会出现这样的问题,所以我不太确定是不是我自己配置的问题啊。如果说,呃, 你知道有什么解决方案的话呢?也欢迎在评论区里面留言去告诉我。呃,至少我遇到这个问题,他自从我开始呃使用这个 mini max 开始就一直存在了这个问题啊,大家如果说有这个经验的话呢,大家可以分享一下到底我该怎么办?

嘿,各位 open cloud 的 玩家人注意了,一个超有料的新版本刚刚发布,今天呢,我们就来带你快速过一遍,看看 v 二零二六点三点二八到底藏了哪些好东西? 好,那咱们就直接切入正题,如果你正打算升级,那这一期你可得听仔细了,我们会把那些最关键、最需要你注意的变化拎出来讲,让你搞明白这次更新对你的日常使用到底有啥影响。 行,咱们先从最重要的开始说,也就是所谓的破坏性变更,听起来有点吓人哈,但别担心,其实就两个地方,需要你稍微动动手,搞定了就能顺利升级。 首先第一个就是跟通一千万有关的 qwin provider, 如果你再用它,那可得注记了,以前那个 qwin protof 的 认证方式,现在彻底拜拜了,你得换成用 model studio 的 api 密钥才行,这算是个硬性要求,必须得改。 第二个变化呢,是关于配置文件。简单来说, openclaw 现在对那些老掉牙的配置项变得更严格了,以前它可能还会帮你自动修正一下,现在可不了。 你看,以前系统可能会好心地帮你把旧配置改了,但现在不行了,只要发现有过时的写法,它就会直接报错,启动失败。这么做其实是为了你好,能保证你的配置是最新最准确的。 所以强烈建议啊,升级前线跑一下那个 open call doctor 命令,让他帮你检查一遍,省得到时候启动不了干着急。 好了,雷区咱们都排查完了。接下来就是这次更新真正让人兴奋的部分了,插件系统。我得说,这一次的插件系统简直是脱胎换骨,给了你更大的自由度和控制权。 你看啊,首先多了个安全审批的功能,这个待会细说。然后整个架构也更清晰了,连 cloud、 gemini 这些命令航空工具现在都变成了插件儿。最爽的是,很多插件现在都能自动加载,不用你手动去配置,文件里一行一行加了,省了不少事儿。 刚才提到的那个安全审批,我得重点讲讲这个 require approval 流程真的超酷! 打个比方,有个插件想删除你一个文件或者发一条重要的消息,以前可能就直接执勤了,但现在呢?他会先停下来问你一下,嘿,我准备这么干,你同意吗?你可以通过界面或者发个命令来批准,这样一来,系统的掌控权就牢牢在你手里了, 安全感爆棚!除了插件系统本身,这次更新还让 open call 和咱们平时用的更紧密更好用了。 比方说,如果你再用马斯克的 x a i groc, 那 就有福了。现在它的网页搜索和工具配置都是自动开启的,只要你在配置里写了,它就自己认了,根本不用你再去手动开什么插件,设置起来简单多了,是不是 还有 disco 的 用户?这个功能绝对是福音。想象一下,你们正在一个频道里聊项目,突然需要写点大码,现在一条命令下去,啪的一下,就在当前,这个频道里直接给你拉起一个 codex 工作区,不用再费劲去开什么新帖子新频道了,写作效率直接拉满! 喜欢玩儿 ai 画画的朋友们也别走开!这次迷你 max 的 集成也升级了,完全支持了新的 e m h 零一模型,这意味着不仅能生成图片,还能图升图,甚至还能控制图片的宽高比。这下你的创作灵感就能更精准地实现了。 这种对细节的打磨真的能看出开发团队的用心。就像这个,如果你用的是 matrix, 以前那个 t t s 语音回复可能就是个普通的 audio 文件,但现在呢,它会变成一个原声的语音气泡。哎,就是这个感觉,体验好太多了,完全融入了平台。 好了,说了这么多,咱们来快速总结一下,如果你准备升级到 v 二零二六点儿三二八,下面这几件事儿你可得记好了哦! 来,咱们过一下你的升级 checklist。 第一,马上把窥问 q 文的认证方式换成 model studio 杠 api key。 第二,动作之前一定记得跑一遍 openclaw doctor, 检查一下你的配置文件。第三,升级之后别忘了去试试那个新的 require approval 钩子,也看看哪些插件可以自动加载了。简化一下你的配置,这几步做完基本上就没问题啦。 总的来说啊, vito 二零二六点三点二八版本的 openclaw 可以 说变得更强更聪明,也和你用的各种工具连接得更顺滑了。那么现在舞台已经搭好工具也给你升级了,下一个你要用它来创造点什么好玩的呢?

如果你现在还在纠结 opencloud 到底是装 windows 还是 mac mini, 这条视频直接给你答案。先说一下我的真实经验,我今天尝试用 windows 安装龙虾,花了四个小时才搞定权限问题、环境配置、 load 版本,是一路报错一路调整。我是程序员出身,尚且如此,如果说你是新手, 你真的会被劝退。所以结论很简单,想稳定省时间一次搞定的,直接选 mac mini 就 ok 了。想省钱,手上还有 windows 电脑, 你还想折腾的再选 windows。 但是我要强调一下,咱们要选 windows, 加上 wsl 二,这个不懂 wsl 的 可以去百度搜一下。为什么推荐 macmini 啊,是真的省心,一行命令直接跑起来,不用折腾环境,不用修各种奇怪的报酬, 半个小时部署完成,新手都可以搞定。关键是 mac mini 功耗低,几乎没有噪音,七乘二十四个小时开着当服务器,完全没有压力。再看 windows, 坑是真的多,权限依赖、版本、杀毒、软件干扰,每一步都可能卡住你。所以我推荐 mac mini, 咱们点赞收藏,下期手把手教你 mac mini 怎么装 open cloud。