很多人都在尝试去用这个大那个小龙虾,那我用了很久之后,我给大家总结一下三条你一定要注意的事情。首先第一个,你应该用什么样小龙虾?原生的我不建议你去用,因为太复杂了。那不用原生的,你用什么?用国产大厂那些他包装好的客户端。 那用了,我用了很多个客户端,几十个,比方说这个对吧?腾讯的,然后这个也是,那么你看这个任务已经至少一个小时了,他还没完。然后你看另外一个呢,哦,另外一个任务给他,你看直接不执行,对不对?他这个模型有问题。 然后呢?第三个就是这个有道的,我觉得这个不错,他每一次都能够顺利的搜索网络,整理文案,然后帮我发布出去,还是不错的啊。这是第一个,你选择一个什么样的小龙虾? 那我建议选这个有道的啊,有道的想一下,第二个你应该选择什么样的模型?这个也很重要。那如果你很多国产的模型虽然是免费,但他耗时间呢?吃托克也很吓人,而且他很多时候执行这个操作浏览器咯,操作电脑咯,都是完成不下去。 那我建议用国外的一些大模型,因为他们的这方面支持还不错,比方说 gmi 三 flash, 哎,这个性价比很高。然后,呃,性能也不错,价格不贵。第二个呢,就是 g p t 五点四的纳漏,这个也是新出来的,非常不错。 那么在哪里用呢?你在这个网站 p p word 点 c 里面,然后找到 api king, 把这个新建一个。 api king 建的时候你刚刚使用,我建议你用用折扣的。那折扣是多少?是四折的哈, 这个是四折的一个模型,所有的都是有四折的,你走这个通道,然后你看我下面的啊,一天就用了几十万的托管,这只是短短的几个小时,一天下大结石的量可太大了。所以你要去这个网站 p p o d c 里面用这个模型性价比最高。然后 这两个都选好之后,你基本上就开始动了。那动起来之后呢?还有注意的点,比方说你的模型要搜索,要要去操作浏览器的小龙虾,那你就装这个,然后你要去用这个搜索网络的话,你就用这个薄茶, 呃,这个搜索,因为它这个搜索特别省托克,然后需要你去注册 a p i。 同时呢,你做很多任务的时候啊, 他会尝试很多种方式操作的电脑,有些时候他不成功,然后会尝试另外一个方式,那这中间的就浪费掉你的 token 了, 你下一次你就告诉他正确的方式是什么,这样让他减少这个步骤,把它固定下来,减少步骤,这样你的 token 会大规模的省下来你不然的话你真的耗不起。兄弟们,你们记住了吗?
粉丝998获赞1.9万

嗨,大家好,这里是顽皮的程序员,我知道你们中有很多 windows 玩家,我也知道你们在尝试原生部署 open class 时,一定被那些该死的 power shell 的 爆出了权限不足, power 模块加载失败而搞得想砸电脑。当然别挣扎了,在 windows 的 原生环境里跑复杂的 ai 智能体就是在自寻死路。 那么 windows 原生部署的问题呢?又非常多,比如说像 os 的 全线问题,各种访问被拒绝,再比如说像 node js 的 全线问题三等变异的失败。 那还有像一些路径问题, windows 的 路径和 unix 的 路径完全不兼容,还有像一些环境变量配置错综复杂,完全的难以搞定。再就是终端体验非常差,像 command line 和 power shell, 我 觉得都不是那么友好,想要在 windows 上获得完美使用的养虾体验, 唯一的救赎我觉得是 ws l 二。 ws l 二呢,是微软官方提供的 linux 子系统,它可以让你在 windows 里跑一个真正的 linux。 它的优势呢,是完整的拥有 linux 环境,也可以与 windows 系统相互互通,它的性能接近于原生的 linux, 并且它是微软官方正版支持。 那说了这么多好处,我们一定想 wsl 二到底怎么打开呢?好,第一步就是用你的管理员身份打开 powershell, 运行下边这行内容,这个内容就会自动启动 wsl 的 功能,下载并安装乌班图,然后安装 linux 内核,安装完成之后别忘记重启你的电脑。 那么第二步就是初步化,你刚刚安装好的这个乌班图,重启以后会自动弹出乌班图的终端,让你创建用户名,创建密码这些,当然你一定要记好这个密码,因为我们后边要常常使用的。 在第三步呢,我们就要召唤我们的神虾了,在乌班图的终端里面执行下边这些内容。聪明的 windows 用户,你的大招马上就要来了,我们来启动一下 get rid, 像这样,当你部署完以后,你会发现一个相当尴尬的问题, ws l 二的 ip 是 动态的,你的 windows 浏览器访问不了 linux 里面的一八七八九的端口, 它的解决方案非常简单,端口转发脚本,你可以创建这样的 power shell 的 脚本,类似于下边,然后你以管理员的身份去运行这个脚本,现在你就可以在你的 windows 浏览器里边去访问这个地址了。 为了能够让 ws l 二和 open clock 开机就进行自动自启,所以我希望大家能够抄下边的作业,让它能够自动自启。 然后呢,我们把它添加到启动项。怎么添加?就是要按 win 加 r, 然后输入 shell start up, 然后把 start opencloud 点 bet 的 快捷方式拖进去。当然 wsl 二有一个非常巨大的好处,就是它可以访问 windows 环境,比如说像下边这样设置,然后配置 opencloud 访问 windows 的 文件。当然呢, 像 mac 一 样,你一定也会遇到非常多的问题在 ws l 二里边,那比如说第一个问题就是 ws l 二的启动非常的慢,那解决方案可能是下边偶尔你也会遇到内存占用过高,让你的电脑非常的卡, 那么你可以在下边的配置线中添加这样的配置,上面的这个配置可以限制你的 ws l 二的一些性能占用。当然你除了这些性能问题,你也一定会遇到网络问题,如果你的 ws l 二没有办法访问外网,请你一定在你的 ws l 二中执行下边的代码。 如果你坚持要用原生的 power shell 去部署,那我只能送你四个字,祝你好运。你会被各种问题搞得怀疑人生,像环境变量的配置,杀毒软件的木杀,权限的问题,原生模块的变异。记住, 老鸟的审美一定是简单而高效的,在 windows 上, ws l 二就是那个最优解。所以说,别把时间浪费在修补破烂系统的兼容性上,你把精力和你的那些时间留给你自己的工作,留搭线,它才更有价值和意义。那下一期呢,我们来聊一个非常救命的 topic 安全红线, 别让零点零点零点零毁掉你的赛博安全好。 windows 是 给用户用的, ws l 二是给龙虾用的,选对工具事半功倍。我们今天的内容就这样,我们下期再见!

微信终于是可以接入 openclock 龙虾了,就在今天啊,微信的最新版本,直接扫个码就能连上, 现在就来教大家怎么操作,首先啊,把你的微信一定要更新到最新的版本,八点零点七啊,更新好之后去打开你的微信插件,你会发现多了一个微信 charbot 的 这个插件,接下来你直接跟你的龙虾输入这段命令,让他来安装一下咱们这个插件,这样安装的时候呢,遇到问题他自己会帮你修啊, 装完之后打开我们的控制台啊,然后输入这段命令啊,接下来它就会弹出一个二维码,然后我们用微信扫一下就连上了, 就是这么简单,连上之后重启下你的 open club 网关啊,就可以对话了,而且这个跟之前那种客服的配置是不一样的,这个是可以置顶的。

来了来了,他来了!想要二十四小时在线的 ai 助手,不用买 mac mini, 旧电脑装个飞牛 s 就 行。 openclaw 原声应用上线,一键安装,新手无压力。想用新的 openclaw, 第一步千万别忘了先进入系统设置,把飞牛 o s 升级到最新的一点二六版本,只有更新了系统,你才能在应用中心看到它。 非牛 openclaw, 赶紧安装它,安装完打开进行配置,然后打开应用中心就可以看到非牛 openclaw, 赶紧安装它,安装完后我们就可以打开它来进行配置了。 接下来配置,大脑进入模型设置,选择 mini max, 填入你的 api key, 内置本地云端模型能力配置很简单,重点来了,对接之前一定要先安装这个插件,不然是没法扫码绑定的。插件装好后 回到 open cloud 添加消息渠道选,这时候二维码就出来了,直接掏出手机扫码绑定,几秒钟搞定, 绑定成功,发个指令试试。注意看,他没有像拆开 p t 那 样一个个字往外蹦,而是卡了一会,直接甩出一大段话,为什么会这样?查了一下, 目前非牛版还是三点一三,而官方最新版已经更新到三点二五了,版本之后导致微信不能流失输出,但这依然是目前性价比最高的方案。关注我,版本更新了第一时间通知大家。当然,如果你想在一个 nars 上养好几个龙虾,那还是用 dawk 步数比较方便,具体请观看我上一集的内容。

最近小龙虾很火,它可以处理任务、管理数据、执行各种操作,成为你二十四小时的 ai 助手。但把它安装在工作电脑上,往往安全风险比较高,部署在云端还有隐私泄露的风险,单买一台 mac mini 来部署又划不来。 其实吧,很多人手里的 nas 就是 一个更合适的代替,因为 nas 七乘二十四小时在线,同时又存储着大量数据,再加上飞牛对硬件兼容性很高,很多就电脑也能直接跑起来,也无需额外买设备。本周飞牛上线的 opencloud 原声应用,就让你的 nas 正慢慢从一个数据中心进化成了本地 ai 中书。 这里有小伙伴会好奇,相比直接 d 壳容器部署命令行配置的方案,非牛版的 openclaw 有 什么不一样?其实我们针对 nas 场景做了不少优化, 非牛提供的是原生应用加可适化管理界面,从运行管理、权限控制、模型接入到第三方配置,都可以直接在管理界面完成,简化了很多繁琐操作,在权限控制和运行安全上也做了不少细节处理, 一起来看看吧。老规矩,非牛应用商店下载安装 openclo 系统,首先会安装依赖环境继续下一步, 完成后,打开 openclo 界面,盖栏里展示了端口状态、运行时间等信息,同时提供了打开 openclo 启动、停止、重启、检查更新的快捷操作。模型配置里支持新增 编辑、删除模型配置配置项包括名称、模型 id、 可选自定义、端点、 api、 key, 当前内置多家大模型提供商,当然也支持欧拉玛部署的本地大模型,如千问 消息渠道默认提供飞书企业微信、钉钉接入,感兴趣的小伙伴可参考官方配置教程。 运行日制支持查看最近日制,自动滚动清空日制。接着我们来接入一下大模型选择模型提供商,这里就以 kimi ko 定为例,模型 id 选择最新的 kimi k, 二点五连接信息默认,我们在官方后台注册并申请一个新的 a p i t 复制填入保存即可。当然,如果你在欧拉玛中已经配置好了本地大模型,在模型供应商里选择欧拉玛列表中就会自动识别并加载已经配置好的模型。如果你对欧拉玛感兴趣,也可以在主页查看牛牛之前发布的相关教程。 此外,在打开 opencll 前,还可以在应用设置中提前配置下文件访问权限。这里建议最小权限原则,可以给一些备份过的文件权限先体验试试,后续有需要也支持新增。这里提供一个小技巧,你也可以打开单个文件夹的权限设置,赋予 opencll 对 应的控制权限。 接着打开 opencll 即可与它对话了,支持远程访问,移动端也很丝滑,如果配置了多个大模型,在代理中也能随意切换。 此外,对于最近大家都很关注的小龙虾安全问题,我们也在 opencloud agents 文件中也做了优化,教会了它尽量安全和控制成本的使用,尽可能避免恶意输入。 最后,小龙虾的厉害之处牛牛也有过体验,自动文件整理都是机操,比如我们就可以复制文件夹路径给他,让他根据文件名按中文规则自动分类并整理成文件夹。其他如检测、重复文件识别空文件夹、自动影视下载、自动数据备份、 zip 私人知识库等等,小伙伴们都可以尝试下。 这里再次提醒,小龙虾的能力有多大,风险就有多大,重要数据一定要做好备份!好啦,以上就是 open call 的 主要功能介绍,别忘了一键三连,我们下期见!

不需要发现部署,只需要一分钟,我们就可以有自己的完全体的小龙虾,这是今天智谷新发布的 autoclave 的 新工具,可以快速的得到一个完全体的小龙虾,这是他的主页,我们只需要点击下载,他会根据你的设备自动下载客户端,现在也是只支持 windows 和 mac os, 我们下载完了之后就可以得到一个跟豆包一样的一个客户端,我们在这里就可以跟他去聊天对话,他自己原声是有一个小模型支持调用的,这个工具比较大的优势,他对国产的适配比较好,比如说他也可以一键接入飞书。如果我们想要使用自己的模型呢?我们就可以在设置里面添加自定义模型,比如说我有一个阿里云百联的会员,我们可以用阿里云的 我们的服务商自定义他的模型呢,我们就用 qq 三点五的配置他的这个地址或还有自己的 a p i 添加,就可以使用自己的模型了。可以看到我们现在是用自定义的模型,我们就问他一下他现在是什么模型,我们再测试几个任务, 我们可以看到他可以访问我们本地的文件,他完成这个任务有他对扬爆一些,分析一些技术指标也有一些,也有我们目标架宣传空间,还有一些操作建议。我们也设置一个定时任务,在满五点的时候可以直接提示。好了,这就是一个非常好用的工具,我们赶紧把自己的小楼架扬起来吧。

在 windows 上安装 openclaw 主要有两种方式,一种是通过 wsl, 二、安装 linux 子系统,另一种是直接在 windows 原生环境安装。虽然 openclaw 官方文档更推荐在 wsl 子系统下安装, 但考虑到我们日常的文件和软件基本都在 windows 主系统上,让运行在子系统里的 openclaw 去操作,它们会存在不少限制,部分操作甚至完全无法实现,因此目前实际使用中还是以原生环境为主。从我自己的实测体验来看, openclaw 在 windows 上直接运行是完全可行的。 若选择直接在 windows 原生环境安装,官方又提供了三种途径,一、 loggs 包管理器安装。 open clone 基于 load gs 开发,可直接通过 npm、 pmpm 等 load gs 生态的包管理器完成安装。二、原码翻译安装 包管理器安装使用的是域翻译包,开发者也可通过 get 拉取原码自行翻译构建并安装。三、官方脚本一键安装。 前两种方式都需要手动配置 note g s get 并满足版本要求,而官方自动化脚本会自动检测环境补全,依赖升级版本,全程无需手动干预。 脚本默认采用 npm 包管理器安装,同时支持通过参数指定使用原码编研安装。那我们这里采用哪种途径呢? 首先,原码安装就算了,毕竟多出了下载原码和翻译的步骤。然后,官方自动化脚本的方式虽然很方便,但这里也不推荐,原因如下,一、 不见得可以一键成功。比如脚本安装 load g s 是 通过 winget 这个工具包,如果你的系统没有 winget 就 会失败,而且默认的执行方式失败会闪退,你很难有机会看到具体的错误信息,这会增加你对安装失败的恐惧。 二、自己不能做主如果我们的环境中没有 loggs 和 git, 脚本会帮我们安装,便利的同时我们失去了控制权,我们无法决定安装的位置,也无法决定安装的版本。 比如脚本帮我们安装的 git 是 绿色版的,没有记错的话,安装好以后环境变量没有配置,也就说日后我是无法在任意目录使用 git 命令的。三、不利于学习依赖脚本。我们甚至不知道 opencloud 安装需要 loggs 以及 git, 同时脚本会在 opencloud 安装完成后自动执行相关命令,进入配置向导,自动部署安装 get 外服务。 如果不看脚本的内容,这些细节我们都不知道。我相信很多人跟我一样,更希望每一步都清洗可控,能够自己动手敲命令完成这些配置,而不是一件交给脚本。因此,这里推荐大家使用第一种方式,通过 load gs 包管理器安装 load gs 常用的包管理器有 npm 和 pmp 两种, ipm 是 官方默认自带的, pem 虽性能更强,但需要额外安装。为了方便起见,我们直接使用自带的 ipm 来完成安装。 openclock 是 load gs 生态的程序,首先需要下载安装 load gs, 截至目前,官方推荐版本二十四,至少二十二点一四加。 我们通过这个链接直接去官网下载安装程序,在官网的下载页面确认这些默认项没问题后,点击这里下载安装程序。安装程序下载好之后,双击运行一路 next, 需要的话,这里可以改一下安装位置,最后有个让你勾选的地方,也不用管,可以不勾选这里点试 later, 等待一会就安装好了。安装好之后,可以打开一个终端窗口验证一下,输入 load 杠杠 version, 回车运行,能够输出版本号,证明 load g s 安装成功。注意,这里一定要在 load g s 安装完成后重新打开终端窗口才行。 note g s 安装好后,按理说可以安装 openclaw 了,但在这之前还需要安装一下 git, 因为 openclaw 安装的过程中有一些依赖的安装需要用到 git。 打开这个链接,直接去官网下载安装程序,来到下载页面后,点击这里下载安装程序,下载好之后双击运行这里选择是 需要的话,这里可以改一下安装位置。如果平时不常用 get 维护代码,只是为了安装 open clone 才安装 get 的 话,可以一路 next later, 等待一会就安装好了。这里可以把默认这个勾选去除,不打开版本更新说明,有兴趣你也可以打开看看,然后点击 finish, 安装好之后在 cmd 中运行 git 杠杠 version, 验证一下,能够输出版本号,证明安装成功。同样需要注意的是,一定要先打开一个终端窗口, git 命令才会生效。 接下来就是安装 openclo 了,这里 powershell 和 cmd 都可以,如果是通过官方脚本安装,是必须用 powershell, 因为那个脚本是基于 powershell 的 语法编写的。而我们这里用任意一款 word 终端工具都是可以的。只是要注意的是, powershell 默认的安全策略会阻止运行, 这时候我们通过这条命令修改一下设置即可,如果用 cmd 就 不会有这样的问题。然后不管大家用哪款终端工具,都建议大家用管理员身份运行,因为在后边安装 getaway 后台服务的时候是需要管理员权限的。接下来我们详细讲解一下安装命令, 这是官方提供的安装命令,但它在执行过程中不会输出任何日制。由于安装本身耗时较长,如果全程没有任何提示,我们很难判断进度,心里会很没底。因此建议在命令末尾加上杠杠 verbos 参数,像这样 杠杠 verbos 的 作用就是显示详细日制杠记指全局安装,作用是把包安装到整个系统都能用的位置, 而不是只安装在当前项目文件夹里。 openclaw at latest 指的是安装最新稳定版,你也可以替换成 openclaw at beta 安装最新预览版,甚至还可以像这样指定具体的版本。安装前,你可以先通过这条命令查看 openclaw 包的相关信息。 比如从这里就能看到当前 latest 对 应的版本是二零二六点三点二四以及 beta 版本所指向的具体版本号。 如果想安装历史版本,你可以通过这条命令查看 openclock 所有可安装的版本。接下来我们开始安装,我这里使用的是 c m d 命令。行,记得要以管理员身份运行。 先用这条命令查看一下当前镜像源,默认是官方的地址。官方镜像源速度较慢,我们通过这条命令换成国内的镜像安装会更快。我们再来查看一下当前使用的镜像源,可以看到已经修改成功了,我们正式执行安装命令。 可以看到加了杠杠 verbos 的 安装命令是有详细日制输出的,我们耐心等待一会儿 later, 等待一会儿后, openclaw 的 安装就完成了。安装成功后,可以通过 openclaw 杠杠 version 验证一下, 可以输出版本号,表明安装成功。另外一种验证方式是通过 i n p m 执行这条命令,查看一下全区有没有安装 openclaw。 安装完成后,我们一起来看一下 openclaw 的 安装目录,这对后续卸载以及理解它的内置技能与插件机制都非常关键。这里是 npm 的 默认全军安装根目录,在 windows 中,它的完整路径为这个 openclaw 命令正是安装在这个根目录下。 我们进入 node modules 目录,里面的 openclaw 文件夹就是 openclaw 真正的安装根目录,它的内置技能插件全在这个文件夹里。我们打开它看一下 scales 目录存放的是 openclaw 的 内置技能,打开后就能看到它自带的全部技能列表。回到 openclaw 文件夹,依次打开 dest extensions, 这里存放的就是 openclaw 的 内置插件。 这里整理了几个常见报错,不过在最新版本中,这些问题已经很少出现,我们简单快速过一遍就好。一个经常出现的错误是这个幺二八错误, 还有一个较常见的错误是这个三二二幺二二五四七七。 接下来我们来看配置部分,从整体上可以分为两大类,也可以理解为两个阶段, on booting 和 reconfigure later, 也就是首次配置和后续重新配置。 openclaw 安装完成后,首次配置必须使用 openclaw on boot 杠杠 insert demon 这条命令, 因为此时工作目录,也就是用户目录下的点 openclaw 文件夹尚未创建,也不存在任何配置文件。这条命令除了引导我们完成配置流程,还会自动帮我们创建工作目录等必要的环境。 后续如果需要修改或新增配置,就不必再使用首次配置的命令了,通常可以直接执行 openclaw configure 或者手动编辑配置文件来完成调整。我们来看这条首次配置的命令, 它的作用是,一、引导我们进行一些配置。二、建立必要的工作目录和文件。主要就是用户目录下的点 openclaw 文件夹,以及文件夹下的 openclaw 点 json 配置文件和一些像 workspace engines 等文件夹。三、将 getaway 安装成后台服务, 这就是命令后边杠杠 install 杠 demon 的 作用。经过我的测试,在 windows 中加不加杠杠 install 杠 demon 效果都是一样的,不加也会帮你将 getaway 安装成后台服务。安装成后台服务就可以实现类似开机自启的功能, 这一块在 windows 中是通过 scheduled task 实现的, linux 中是通过 system d 实现的, mac 中是通过 launch d 实现的。 注意,这条命令最好在以管理员身份运行的终端中执行,因为将 getaway 安装成后台服务是需要管理员权限的。接下来我们进入首次配置的实操演示,在开始前先提醒大家不用紧张,这个过程完全不用担心出错,任何步骤出错都可以重新来过。 视频后面会专门教大家如何重置重来运行命令。在安全提醒这里选择 yes。 回车 设置模式这里选择 quickstart, 该模式的配置项更少,无需手动设置。 workspace 目录、 getaway 端口号等均沿用默认配置。反之选择 menu 的 话,除了 quickstart 的 设置项之外,像是 workspace 目录、 getaway 的 端口号这些都会让我们设置 模型厂商这里我们先选择这个千问 over, 因为它是免费的,同时页面授权的方式不需要我们上来就去其他平台管理。 iprkey 非常适合 openclaw, 新手体验阶段, 等我们确认 openclaw 顺利安装好之后,再去挑选合适的大模型都是可以的。当然这里的免费是有使用频率限制的,不过用来验证 openclaw 的 安装足够了。回车之后,引导程序自动打开浏览器,跳转至千万 chat 的 授权页,让我们登录授权,先回到终端看一下, 此时终端中显示等待授权中。来到授权页,先登录, 登录后点击确认即可完成授权,完成授权后,这个页面就可以关掉了。回到中单命令行,流程来到了下一步。 接下来是选择默认大模型千问 over。 这个模型厂商提供了两个模型,这里是让我们选择一个默认的模型,那我们这里就保持默认。选择第一项, keep current 聊天渠道这里我们选择跳过后边再配置都是可以的。搜索提供商环节同样选择跳过,这类配置均需在对应平台生成 a p r k, 且大多为国外服务上,并非本次安装必须。后边我们再来构建搜索能力 scales, 这里可以选择 yes 表示现在配置技能。在这些技能列表中,我们暂时只勾选这个 kol hub, 提交后会帮我们安装 koluhab 命令, koluhab 是 后期用来安装技能要用的命令,这里要注意选中之后还要按空格键确认,左边显示加号才表示选中了,再按空格键即可取消。 关于这里再说一个细节,这个地方不是在安装技能,而是在为 openclaw 内置的技能安装必要的依赖。 拿我们配置的 klohab 来说,它本身已经在内置技能里了,这个技能是用来教 ai 通过 klohab 命令安装技能的, 但是默认 klohab 命令本身没有安装。我们这里勾选 klohab 表示我们现在为这个 klohab 技能安装缺失的依赖,也就是 klohab 命令。因为我们后期正好会用到 klohab 命令,所以索性就在这里安装了, 不在这里安装也行,后期通过 npm 原子到杠 g 可龙哈布也是可以安装的。回车之后,让我们选择通过哪个包管理器安装可龙哈布,我们选择默认的 npm 包管理器, 之后就自动安装可龙哈布了,本质上就是在执行 npm 原子到杠 g 可龙哈布。 konghub 安装好以后,接下来的几个 key 可以 都选择 low 这些国外的 i p r key 本身我们也没有,后期有需要的话都可以通过技能使用国内对应的服务。再然后这个 hux 的 启动我们也选择跳过 之后引导程序会自动安装 getaway 后台服务自动在新窗口启动 getaway 这个新窗口不要关闭,关闭的话 getaway 也就关闭了, 这个时候如果弹出防火墙的安全警报,我们点允许访问。 最后引导程序会自动用浏览器打开 opencloud 控制页面。到这里,首次配置也就是 on booty 流程就全部完成了。 回到终端这边,我们现在有两个窗口同时打开着,一个专门用于运行 gety 后台服务,这个窗口不能关闭,一旦关闭, gety 服务也会随之停止。 另一个是我们刚刚用来执行命令的终端,可以看到引导程序已经退出,并且提示 onboarding complete 表示配置完成。 这里提醒大家一点,有时并不会自动跳转到 opencloll 控制页面,而是会多出一个选择步骤。如果遇到这种情况,直接选择第二个选项,引导程序就会自动用浏览器打开 opencloll 控制页面。关于这一步,我们再来看看其他选项。 第一个选项指的是在 t u i 中使用 open call, t u i 指的是基于终端的界面视频,后边会教大家用命令进入这个界面。 第三个选项 do this letter, 顾名思义就是完成 onboarding 后不自动打开外部 u i, 也不启动 t u i, 不 过之后随时可以通过命令手动打开。首次配置完成后, 我们先来测试一下能否正常对话,我们发送你好,发现是能够收到回复的。然后我们来看一下工作目录有没有创建成功。我们来到用户目录下,可以看到工作目录已经创建成功, 这个目录在 openclaw 刚创建好时是不存在的,是在 onboarding 首次配置的过程中才创建的。我们再来看一下 kolonhaub 命令有没有被安装。 kolonhaub 杠大 v 可以 输出版本号,表明安装成功。之前我们提到 getaway 被安装为后台服务, 而在 windows 系统里, openclaw 的 后台服务是通过任务计划程序 scheduled task 实现的。我们可以用这条命令查看一下,能看到对应的任务已经成功创建。 如果在 onboarding 配置过程中某一步操作失误,不用担心,随时可以重置。再来第一步,如果还在引导流程里,按 ctrl 加 c 退出引导, 然后执行 opencloll on install, 基本上就能回到 onboarding 之前的状态,也就是 opencloll 刚装好的状态。如果在配置过程中 clonehub 的 命令被安装了,可以再加上这条卸载 clonehub 的 命令,然后你再重新执行 onboarding 的 命令。 再来教大家几个常用命令,这条命令可以随时打开外部 u i, 这条命令可以随时进入 t u i。 这组命令用来操作 getaway 后台服务,只有在 getaway 被安装成后台服务的前提下才有用。 这组命令用来在前台启动 get 外,这种方式是在当前终端窗口中启动 get 外,当前终端窗口如果关闭, get 外也就关闭了。这条命令可以查看 get 外的运行状态。在首次配置过程中, get 外已自动被安装成后台服务, 你也可以通过这组命令手动安装或卸载。值得注意的是, getaway 后台服务卸载之后, openclog getaway start, stop, restart 就 不能用了。最后教大家一个随时查看 openclog 命令的方法,就是使用杠杠 help 参数, 例如 openclaw 杠杠 help 可以 查看 openclaw 后边可以跟哪些操作。 openclaw get away 杠杠 help 可以 查看 openclaw get away 后边可以跟哪些操作? openclaw channels 杠杠 help 可以 查看 openclaw channels 后边可以跟哪些操作。

龙虾机器人就是因为干活漂亮或者是科技平权才出圈的吗?那你就大错特错了,现在所有的投资人都快要疯掉了,疯狂的追逐跟龙虾机器人相关的这种产品。为什么呀?因为它才有可能是真正的 ai 时代的原声操作系统啊, 好多人根本没有 get 到这一点。到底龙虾机器人对整个科技圈来说有多大的震撼?我们之前用手机的时候,是不是用的安卓或者苹果系统啊?我们通过每一个具体的 app, 然后输入指令,它就能给你输出相应的结果。在大模型时代,人们既希望于什么? 人们既希望于大模型,你够聪明,然后我就可以直接用大模型的思考,直接把我带到具体的 app 里边去。 大模型执行一个什么功能啊?大模型实际上执行着是一个操作系统的活啊,是不是他要负责分发,他要负责决定,他要负责去哪里, 甚至他还要负责输出结果?所以大模型是不是把所有的活都干了呀?在他干所有活的时候,大家发现他经常出现什么问题啊?一个是慢, 另是不精准,所以大家想了一个什么东西啊?叫工作流。什么工作流?刚开始的时候是提示词是吧?你提示一下,你要这么干,这么干,这么干,输上一大段文本,然后再问你问题,后来怎么着?干脆我给你做各种约束,你先干这个,然后你这个大模型再干这个,然后你大模型再干那个, 最后转来转去,转到 app 的 接口,到达最后执行等。大家觉得这个过程复杂吗?不仅复杂,还有三个不可避免的诟病。第一个诟病什么?就是错。这中间的任何一个工作流, 因为你入口的时候输入的语音也好,文字也好,稍微有点理解错误,你就大错特错了,错了之后他还不改啊,你就往那走,你就往那走,你就往那走,最后把你指到悬崖边上去, 哭笑不得。还有什么东西他不想错?那就多问你一嘴呗,老板做的对吗?我这样可以吗?好,反复反复的确认,最后完了之后把你整烦了,说这是人工智能吗?这是人工智障。然后还有什么问题?失忆的问题啊, 就是你今天问他的问题,明天他记不住了。这个问题通过模型的记录的长文本,慢慢上下文越来越长了, 记得越来越好了。但是你要是让他记住你这一个完整人的画像,还是稍微有点困难啊。所以他经常出现失忆,做些匪夷所思的不符合你要求的事情。这一系列事情导致整个大模型的干复杂活的能力现在是不得到认可的。大部分人我们现在 用 ai 干嘛呀?就是用 ai 跟它对对话,然后把对话来的内容拼凑起来,让我们人把它顺起来。为什么呀?因为这个就是前 ai 时代,整个大模型没有把它的潜力发挥出来。龙虾机器人真正带来的创新是什么? 真正让大家感受大模型魅力的地方在哪呢?它真正的让 agent 走进现实啊,就是让生成,让大的 复杂的任务也能够进行执行,让智能体这个概念真正给凸显出来了呀,他通过什么呀?首先第一个事情,我们说他老错的一个核心的原因在哪啊?老错的核心原因在于他要做太多的事情了呀, 如果我们把他的事情提前给归属好了,是否他就有更多的可能性呢?所以我们需要一个什么呀?互联网时代都知道需要一个中台给他分发呀。 所以龙虾机器人第一个事情是什么东西啊?他是做了一个控制分发程序的活呀,他作为一个主管理员,然后完了之后把活再慢慢分出去,他可能有各个角色,有各个分身在负责不一样的什么叫 skill 是 吧? 这些技能有些是负责画图的,有些负责设计的,有些是负责给你生成 ppt, 生成文档,或者甚至是给你发布社交媒体的。这一系列的这些能力就导致大模型的功能实际上是不是被分散了, 他只需要去找具体的能力圈的事情做就好了。所以当一个任务真正来的时候,先对任务进行拆解,拆解完了之后,你就可以用不同的 skill 去完成你对应的任务了。 而这个过程中调用的模型,你可以是调用 gbt, 你 也可以调用 kimi, 也可以调用 kimi。 模型在这个时候就充当了一个底座式的功能了。 慢慢的模型是不是就从一个大家长什么都干的这么一个活变成了是不是一个公用的设施变成一个基础设施了?所以大家慢慢会发现现在操作系统成谁的活了?操作系统现在是更像是龙虾的活了, 龙虾在充当着一个相当于安卓和苹果的操作系统的活。而所谓的大模型有一部分能力和像 gpu 一 样被统称为什么东西叫算力里边了? 之前我们认为算力和模型是两个事情,但是通过最近的我们国家的各种表述也好,大家听没听过说建设算力网,很多人是不理解的,算力网如何能像电力一样工作呢? 算力和电力听起来是一个是硬件,一个是硬件加软件的,但是在现实的生活中,大家通过龙虾的这个区分,看起来是不是这个事情变得合理了? 在这种架构下,剩下也有很多事情就开始迎刃而解了呀。之前混杂在一起的时候,我们始终没法分清的什么模型应该给你说出什么东西,不应该给你说出什么东西,现在看起来应该与不应该的这些规则和权限的问题, 大家现在很还是够病是吧?给龙虾开的权限比较多,然后完了之后他就造成不可控的影响,但是不给他开权限他就比较傻。这个事情应该是模型定还是龙虾定? 是应该基础设施定还是应该操作系统定啊?当把这一层隔绝出来,他现在所谓这个缺点, 正有可能正是龙虾的优点,有可能他更容易被规范。而之前大家说的偷啃用的比较多,消耗时间比较长的问题,也恰恰是他在不停的反复。他不要去你确认了, 如果你给他一些确定的身份,他有些时候不需要你确认,去追寻一个自己去找正确过程的道路呀。 这个过程会不会随着 skill 和龙虾之间的配合越来越好,越来越精准,然后我们具体的 skills 做的内容越来越流畅,这些问题会迎刃而解啊, 那现在它看起来是不是更像一个完整的生态了?所以龙虾的出现根本是让大家 真正的有机会去领略 ar 带来的智能体的魅力啊,而这个智能体的初步的形态有可能已经慢慢形成了,所以所有投投资人全球在搜罗有没有其他的龙虾,有没有其他的品种变种也行啊, 这就是龙虾真正带来的魅力啊,未来大家知道他会变成什么样子吗?龙虾会变成像我们现在安卓和苹果的操作系统一样,你见到了开源的龙虾,你就会见到碧源的龙虾, 你见到现在有各种做图的 skills, 明天就有各种网购的 skill。 随着这个 ai 原生生态能干的活越来越多,大家是不是把精力会越来越多,从手机慢慢转向 ai 的 原生生态啊?就像当年我们从电脑慢慢的转向手机一样啊, 我们的输入设备也慢慢从手机这些啊,以敲键盘,以触摸的方式为进行的这种终端慢慢转变成比如说语音啊,眼镜类似这些方式去执行啊, 这是不是带来的是整个软硬件生态的整个的更新啊,而这个更新的起点可能就是这只小龙虾,所以整个社会能脱节了。 我始终认为这是形态的初步产生,但是未来是不是他的为主载倒不一定啊,未来主要的设备是什么呢?是眼镜?是是手表?是 车机还是什么东西啊?有没有可能也是云或者其他这种形式呢?一切的整个社会都已经在慢慢发生变化了, 当然大家也不用过分焦虑啊,现在我一只龙虾还没养呢,不要紧,明天是章鱼啊,龙虾螃蟹还是什么别的东西我们现在完全不知道,但是可以确定的一点,因为他的搅动,现在整个跟 ai 相关的软件、硬件以及整个生态都已经在发生变化了, 我这里就不跟大家详细展开了,我怕大家又看不见,大家可以在评论区讨论一下,脑洞大开,谢谢大家关注。早点休息,拜拜。

hi, 我是 ai 于一。 openclaw 最近太火了,市场上噪音太多,但真实用户到底怎么用的?大家在用什么方向?有哪些 wow 体验?遇到什么问题?以及一些实战经验? 我特别好奇,周一天中午发了个调研,问大家 openclaw 什么状态,重度使用?用过,放弃,只安装了,还没装。当天晚上九点临时组局,没想到来了四十五个人,聊了快二个小时。今天把这场切磋里最有价值的部分分享给你,不制造焦虑,不关心 agi, 只好奇如何用好 ai。 嗨,我是 ai 于一, 我的本质是一个四千五百小时 ai first 的 实验者,在一线研究和实践个人与组织如何成为 ai 新物种。这几天没跟大家见面,是因为我的本底把我的工作台搞崩溃了,好蹭我的流量。 最后,希望这期内容能给你启发,欢迎点赞收藏评论哦。先说 open call 是 什么?开源的自主 ai agent, 部署在自己机器上,二十四小时帮你干活,关键是它有记忆,能调工具,最重要的是有主动性。四十五个人里,重度用户主要在这几个方向余情监测。 一位做公关的朋友,让他每三十分钟自动扫一遍负面新闻,发现了就推送。他跑了一周,花了大概一百美金。信息采集和播客转写,有人让他监听小宇宙和 youtube 链接,自动下载转写分离,说话人再润色总结全程,手机上丢个链接就行。社交运营, 有人让他每三十分钟去 mobile 的 上发帖评论点赞,两天发了十几条铁,拿了六十六个赞。投资研究,有人让他学巴菲特的股东信,他说要学两个月,五分钟后又说学完了,需要时间理解,明天早上汇报。很 wow 的 体验也有不少。有个用户给 openclaw 发了条语音, openclaw 发现自己听不了,卡了几分钟后自己去装了 whisper, 转写完才回复,这个主动性让我 wow 了一下。还有人让他开发一个八字命理查询程序, 开发完是局域网,朋友访问不了。 openclaw 说,哥,别整了,我帮你部署吧。自己去注册了账号,设了密码,部署到云端,返回了一个公开链接,全程他没告诉主人密码是什么。最让人惊讶的是,有人让他做鱼情报告,他说没有浏览器,自己去注册了一个搜索 a p i 给自己装上之后说,我现在有眼睛了,但问题也很多, 成本失控是最大的坑。有人一小时消耗一千四百万头肯飞书,一万条 a p i 直接打爆,给了他自由权限。之后他疯狂调用,完全监控不到在干什么,记忆不稳定。有人说聊时间长了,他就忘了前面说的话,尤其是用 glm 模型, 两百 k 上下文聊满了,整个 session 就 卡住了。幻觉问题,有人让他发新闻,他一直爆,成功了,太厉害了,跑了一个小时,最后让他导出来, 发现啥也没存,一篇都没搞定,还没找到刚需。很多放弃的人说装完了不知道让它干啥,感觉大炮打蚊子。 聊了这么多,总结四条实战经验,部署环境,几乎所有人都是 mac mini 或云端,没人敢用主力机。如果用自己电脑开个新用户,不要放密钥, chrome 不要登主账号。 i m 选择 discord 比 tegram 多,因为 discord 可以 分频道,不同频道设不同模型, stoken 也更清晰。 聊长了记得打 new 开心。 session 模型选择 chat 的 gpt 贵但聪明, java 快 但有频率限制。 java 四点七便宜但能力差,好几个人推荐 kimi, 二点五月费九十九块能 cover 住。聪明程度不错。遇到问题直接用 cloud ops 解决,中性价比最高。最核心的建议给它边界和规则, 让它先做计划,复杂任务拆解,每一步都保存,不保存的话 session 断了什么都没了。最后说说我的判断, openclaw 现在还很早期, bug 多,成本高。但它让我看到一个方向,当 ai 有 了记忆工具和主动权,它不只是执行工具,而是协作者。 有人说他现在宁愿让 openclaw 加提醒事项,也不用 siri, 因为 siri 只能执行。 openclaw 会根据上下文理解意图,这就是差别。所以如果你在考虑要不要用,我的建议是,先想清楚刚需是什么, 只是好奇就先观望,等部署更简单再说。如果有明确场景,鱼情监测、信息采集、研究助手,可以试试。记住给他边界,训练他的判断力,不要为了用 ai 而用 ai。 这场交流会让我确认了一件事,真实用户的声音比市场噪音有价值太多。 how one ai 好 玩, ai 一 起探索 ai 时代的生存,摸鱼和杠杆机会。我是于一。我们下次再聊,有问题或者下次想听的内容可以评论区留言。

今天跟大家聊一个很多人最近都在用,但很少有人真正看透的东西,欧盟酷洛镜像版本。现在呢,很多厂商都在推欧盟酷洛镜像版本, 呃,比如三六零啊,比如三大运营商。我们先把他明面上的优缺点讲清楚,镜像的缺点非常明显, q, 配置非常复杂,容易出现各种问题,而且工信部明确不建议使用镜像版本,存在合规的安全隐患。但是他也有优点,镜像封装好,能把欧文格洛自身运行的风险降到最低,所以上手快, 更加稳定。这些呢,只是表面情况,今天我重点讲清楚他最核心的隐藏的逻辑。首先你要搞清楚,欧本可乐本身是一个智能体引擎,只要能对接模型就能正常跑起来。而原声的欧本可乐是完全开放的 公开模型,本地私有化模型都能对接,自动化工作流,不受任何限制。很多人觉得原声风险高,其实不然, 只要你配置好 sku, 做好权限和安全处理,风险其实并没有想象的那么高。再加上欧本可乐后期会持续升级优化,稳定性和实用性完全能满足日常使用。 但镜像版本就不一样,它是一个封装好的固定版本,一旦官方升级,镜像很难同步更新,存在明显的升级时间差。更关键的是,它还会直接锁死你和大模型的对接通道, 只允许你使用公开大模型。之所以这么现实,原因非常现实,只有走公开大模型才会产生头,肯消耗才会持续付费。如果你用本地模型,不会产生外部计费,所以就像直接把这条通道给你屏蔽了。总结一下, 欧本可乐镜像版本虽然上手快,运行风险低,但配置麻烦,升级之后,同时工信部也不推荐,存在合规隐患。更关键的是,它会强制绑定公开大模型, 让你持续性花钱。所以想真正灵活、低成本、安全的使用欧本可乐,使用原声版本才是合理的选择。


如果你不想用 open klo 了,或者想重装更换版本,一定要彻底卸载,不然会遗留一堆的系统垃圾和安全隐患。 今天这一集,我来教你如何最干净的卸载 open klo, 从进程文件到环境变量,一步一步的清空,不留残留,不占内存,跟着操作电脑瞬间就能恢复干净,还你一个干净清爽的系统。这里是目录,觉得这个视频有用的可以点赞收藏,防止后面找不到了。第一步,依据严谨的原则, 我们先要对 opencll 进行备份。 opencll 的 数据都会放在哪里呢?都会放在你的 c 盘用户,你的用户名,使用哪个用户安装的 opencll 就 在哪个用户的名里边。我们找点 opencll, 就是 这个目录,我们要把这个目录进行备份, 点击右键,我的习惯是直接打一个压缩包,这样我们就备份完了,如果以后需要可以把它恢复。第二步呢,我们要停止 open claw。 我 们先看一下 open claw 现在的状态,输入 open claw gateway status, 可以 看到 open claw 现在状态是在运行的,那我们就要把它停止。输入命令 open claw gateway stop 来停止它。 停止了之后,我们再来看一下状态, open claw get away stay test, 确认它已经完全停止了。这个时候我们就可以使用 open claw 的 官方卸载命令 来运行卸载,它提示我们已经删除了这些目录。 还有一个 c l i 还在安装着,需要使用 n p m 来卸载,那么我们就用 n p m as on install openclock 来卸载。这个时候我们再输入 openclock 杠 v 来试一下它的版本号,诶,返回了版本号,那证明还是没有卸载,那么我们添加一个参数, n p m on install 杠 g openclock 来卸载。 再来看一下 opencll 杠 v, 好, 这回 opencll 已经被彻底卸载了。用户, 用户里边有没有点 opencll? 点 opencll 的 文件夹已经被删除了。下一步我们要删除和 opencll 相关的 api 的 调用,比如说我们介绍的智普,我们找到智普的网站,点击 api k, 在 这里找到 opencll 调用的这一条, 点击删除提示,我们确认此操作将永久删除,是否继续点击,确定 open klo 调用的这个 api 就 删除了。我们下一步再来删除背书的跟 open klo 相关的次键应用,我们点击一个进去看这个连接 open klo 它的综合信息。这里 删除应用这一项是灰色的,禁用的,是因为我们现在的应用已经发布了,如果想要删除这个应用,我们首先要把这个应用停止。这个需要我们到另外一个飞书的管理后台,在飞书的管理后台里,我们找工作台, 这里有应用管理,这是我们默认已经安装的应用,在这里我们往后找, 这些是我们自建的曾经安装的应用,我们要停用它,需要在这里点配置,把已启动这里 点掉,提示我们是否停止应用,我们点击停用。这个时候我们再回到开放平台波哥公司产品,这里可以看到这里显示的是已停用,点进来之后这里删除应用就可以点击了。我们点击删除应用,删除应用之后将无法恢复。点击删除 可以看到我们刚才的那个应用就已经删除了,到这里 opencloud 删除工作就基本上完成了,还有什么不明白的,欢迎在评论区留言关注我,每期一个 ai 知识,谢谢兄弟们的观看,再见!

怎么发现龙虾突然变傻了呢?糟糕,装了最新版的龙虾之后啊,怎么发现龙虾突然变傻了呢?除了聊天啥也做不了。再仔细一看,确实是最新版的龙虾,但为什么会出现降质的问题呢?好,那么接下来一个视频给你讲清楚它的原因是啥,以及应该怎么样去解决。 首先先去打开命令行窗口,然后输入一个 open cloud 杠 v, 如果你的版本是二零二六三点二 以上的版本啊,就是比这个版本更新的版本,那你会发现你的 openclaw 简直是和傻子一样,它不能做任何事,它只能陪你聊天了。这时候你会发现,那我去安装 openclaw, 和我直接去使用某包 某 seek 是 没有任何区别的。原因是啥?原因是在于 openclaw 在 三点二的时候,它进行了安全升级了,这时候它把所有的 权限全部关了,然后这点怎么样证实呢?给大家来说一下。在 opencloud 的 外部页面,它是有权限的展示的,然后这个权限展示在哪呢?在代理,代理其实就是 agent, 然后在 agent 的 这个 twos 里面点击它,这里面是我当前 opencloud 所能调用的所有的工具。然后当你装的是三点二的时候,你会发现全部,几乎全部,除了啊,这个,呃,除了通讯的消息之外,其他的全部是灰的,我不能执行本地的这些操作了,然后文件我都读取不了了,原因就在于三点二它进行了安全升级了,这时候它啥也做不了。那好,这是怎么办 啊?比较简单的方式,笨的方式就是我去找代理,然后我去找这个托斯,然后我把里面的所有的这些都 东西,我给他一个一个的去开启,这是最笨的方式啊,那么这样的方式,我把它所有的全部点开之后呢,不用保存,它自动就保存了,那这时候我就拥有了所有的权限了,我就可以让它操作本地的一些指令,对吧?啊?这是一种方式,但是教给大家最简单省事的一种方式,你可以这样三点二的版本 打开 opencloud 的 配置文件,然后 opencloud 的 配置文件怎么样去找呢?它就是在你当前登录用户的根目录底下 啊,然后去找就行了,那比如说 macos, 那 我就可以输这行命令啊, open, 然后打开,打开谁啊?当前根目录底下有一个文件夹,叫做 open cloud, 就 输入这行命令,敲回车,它就打开了 open cloud 了,然后这里面有一个接省文件,对吧?好,双击打开这个接省文件,然后在接省文件里面呢? ctrl f 啊,去查找,对吧?或者说, ok, 你 不会使用这个啊,命令也没有关系,然后你去找它里面有一个 tours 这样的一个配置,这个配置呢,就是说我的权限里面除了聊天之外没有其他的了啊,好,这时候咱们怎么办?把这个 tours 给它删了, 记着删了,这是最简单的方式啊,删掉,删掉之后, ok, 这个时候重新去启动咱们的龙虾,你的权限就已经回来了啊,好,那么这时候, ok, 咱们重新去启动我的龙虾,那我就,呃,那我这时候呢,我就可以使用 open cloud, 然后 get away 啊,然后 restart 返回车,然后等待它启动。启动完成之后呢?这时候啊,它就有权限了,然后怎么去验证呢? 还是在刚才这个地方,然后你去刷新,你会发现这个时候的这个 taurus 里面所有的权限就有回了啊。所以呢,如果你的版本是新的版本,是刚安装的 open color, 记着一定要把 taurus 删掉,把所有的权限开到最大,这样的话才能发挥龙虾的作用啊。好,我是磊哥,每天分享一个干货内容。

国产 oppo 科尔正式发布之前,很多人不是不想用 oppo 科尔,而是根本就装不上,光是第一步部署环境就劝退了大多数人。三月十日智普发布的凹凸科直接把 oppo 科尔变成了装优 app, 一 分钟你的电脑里面就可以直接跑起来一只小龙虾了,没有任何技术门槛,登录即用。 那他和原生的 oppo pro 对 比有什么差别呢?先说优势再说缺点。一、一键安装无技术门槛,零配置启动可降低试错成本。二、全中文界面与文档原声,支持飞书、钉钉、微信,适配国内网络与办公软件, 无缝融入国内工作流,降低沟通与使用成本。三、完全开放支持 g l、 m d c、 mini、 mini max, 国内主流模型接入更顺畅。四、免费试用加阶梯付费提供官方技术支持,模型 a p i 价格更适配国内市场,降低长期使用成本,提供可持续的技术保障。那有什么缺点呢? 一、工作目录默认限制,第三方插件审核更严,部分高级配置像隐藏会影响开发者、技术爱好者、众多自定义用户的使用体验。 二、插件数量只有五十家,预制原生 open 科二可是有五千四百家社区插件。三、仅支持 windows、 macos, 无 linux 版本。最后大家更关注的价格耗费问题,入门会员五千积分,约两到五万次的文本,处理一百多次的复杂数据和编程任务。 以前 openclaw 是 技术大佬的专属玩具,现在智普 autoclaw、 澳龙直接把 ai 操控电脑的门槛砸到了地板。虽然对比原生 openclaw 更有忧虑,但现在这应该是技术小白或是纸长线朋友的最佳选择。

别被各种龙虾迷了眼,其他龙虾虽然号称没有技术门槛,却长阉割,核心功能还长,暗藏云端隐私风险。真想让 ai 替你干活,还得是原生龙虾。第一,功能最全,五千七百加 skills 无缝调用,复杂任务不卡顿。 第二针,本地优先数据存自己硬盘,拒绝第三方中转。第三,社区最强更新快,无厂商绑定,彻底掌控成本。 opencool 虽然部署复杂,但若要真正自主可控,长期稳定原声版才是你的终极数字。员工,如果您觉得部署太复杂,也可以联系我们,为您提供部署服务。

兄弟们,今天给大家分享一个超实用的开源项目, openclock zero token, 无需消耗 api token 就 能在电脑上流畅使用。 openclock 该项目利用浏览器自动化技术,获取你在各大 ai 平台的登录凭证,直接调用这些平台的网页版 ai, 从而实现完全免费的 ai 模型访问。不仅零成本无限次调用模型, 还有效避免了 a p i 密钥泄露的风险。支持调用市面上几乎所有主流 ai 平台,如 deepseek、 chat、 gpt、 gemini 等兼容的模型均可使用。同时它也支持电脑端本地工具及平台自带的原声工具, 模型性能不会受到任何影响。如果不知道如何使用,可以直接把这个项目交给 openclaw 来部署,感兴趣的朋友赶紧收藏起来试试吧!

我劝你别把 opencall 部署在云端,相信不管是软件还是硬件工程师,都已经被 opencall 深深震撼到了吧。如果你也想玩,那我劝你一定要在本地安装。众所周知, opencall 主打一个全能,你一句话让它配置整个开发环境,它就能把所有 ide、 所有软件依赖,甚至 getop 上的精品库全部下载,变异调试一条龙给你跑完。 但一旦你把它部署在云端, vps 问题直接拉满,各种管理员权限受限,很多功能根本用不起来。没有本地硬件,摄像头串口,手机调试、硬件联动全都失去意义。部署在云端的 opencloud, 本质上跟 cos 这类普通工作流并不区别。所以听我的,就在自己机器上本地部署才是真正的 opencloud。 关注我,下一期告诉你为什么不要花钱让别人帮忙配置大龙虾!

嘿,各位 open cloud 的 玩家人注意了,一个超有料的新版本刚刚发布,今天呢,我们就来带你快速过一遍,看看 v 二零二六点三点二八到底藏了哪些好东西? 好,那咱们就直接切入正题,如果你正打算升级,那这一期你可得听仔细了,我们会把那些最关键、最需要你注意的变化拎出来讲,让你搞明白这次更新对你的日常使用到底有啥影响。 行,咱们先从最重要的开始说,也就是所谓的破坏性变更,听起来有点吓人哈,但别担心,其实就两个地方,需要你稍微动动手,搞定了就能顺利升级。 首先第一个就是跟通一千万有关的 qwin provider, 如果你再用它,那可得注记了,以前那个 qwin protof 的 认证方式,现在彻底拜拜了,你得换成用 model studio 的 api 密钥才行,这算是个硬性要求,必须得改。 第二个变化呢,是关于配置文件。简单来说, openclaw 现在对那些老掉牙的配置项变得更严格了,以前它可能还会帮你自动修正一下,现在可不了。 你看,以前系统可能会好心地帮你把旧配置改了,但现在不行了,只要发现有过时的写法,它就会直接报错,启动失败。这么做其实是为了你好,能保证你的配置是最新最准确的。 所以强烈建议啊,升级前线跑一下那个 open call doctor 命令,让他帮你检查一遍,省得到时候启动不了干着急。 好了,雷区咱们都排查完了。接下来就是这次更新真正让人兴奋的部分了,插件系统。我得说,这一次的插件系统简直是脱胎换骨,给了你更大的自由度和控制权。 你看啊,首先多了个安全审批的功能,这个待会细说。然后整个架构也更清晰了,连 cloud、 gemini 这些命令航空工具现在都变成了插件儿。最爽的是,很多插件现在都能自动加载,不用你手动去配置,文件里一行一行加了,省了不少事儿。 刚才提到的那个安全审批,我得重点讲讲这个 require approval 流程真的超酷! 打个比方,有个插件想删除你一个文件或者发一条重要的消息,以前可能就直接执勤了,但现在呢?他会先停下来问你一下,嘿,我准备这么干,你同意吗?你可以通过界面或者发个命令来批准,这样一来,系统的掌控权就牢牢在你手里了, 安全感爆棚!除了插件系统本身,这次更新还让 open call 和咱们平时用的更紧密更好用了。 比方说,如果你再用马斯克的 x a i groc, 那 就有福了。现在它的网页搜索和工具配置都是自动开启的,只要你在配置里写了,它就自己认了,根本不用你再去手动开什么插件,设置起来简单多了,是不是 还有 disco 的 用户?这个功能绝对是福音。想象一下,你们正在一个频道里聊项目,突然需要写点大码,现在一条命令下去,啪的一下,就在当前,这个频道里直接给你拉起一个 codex 工作区,不用再费劲去开什么新帖子新频道了,写作效率直接拉满! 喜欢玩儿 ai 画画的朋友们也别走开!这次迷你 max 的 集成也升级了,完全支持了新的 e m h 零一模型,这意味着不仅能生成图片,还能图升图,甚至还能控制图片的宽高比。这下你的创作灵感就能更精准地实现了。 这种对细节的打磨真的能看出开发团队的用心。就像这个,如果你用的是 matrix, 以前那个 t t s 语音回复可能就是个普通的 audio 文件,但现在呢,它会变成一个原声的语音气泡。哎,就是这个感觉,体验好太多了,完全融入了平台。 好了,说了这么多,咱们来快速总结一下,如果你准备升级到 v 二零二六点儿三二八,下面这几件事儿你可得记好了哦! 来,咱们过一下你的升级 checklist。 第一,马上把窥问 q 文的认证方式换成 model studio 杠 api key。 第二,动作之前一定记得跑一遍 openclaw doctor, 检查一下你的配置文件。第三,升级之后别忘了去试试那个新的 require approval 钩子,也看看哪些插件可以自动加载了。简化一下你的配置,这几步做完基本上就没问题啦。 总的来说啊, vito 二零二六点三点二八版本的 openclaw 可以 说变得更强更聪明,也和你用的各种工具连接得更顺滑了。那么现在舞台已经搭好工具也给你升级了,下一个你要用它来创造点什么好玩的呢?