龙虾 openclaw 听起来高端大气上档次,说白了就是给 ai 模型装上了手脚,让它能像人一样操作你的电脑。多少人看完视频热血沸腾,觉得自己马上就要财务自由了?醒醒吧, 你以为你在养电子龙虾,其实你在供祖宗。今天我不跟你聊他有多强,我只跟你聊聊,为了养这只虾,你到底要交多少智商税。首先 咱们算算账,那些博主告诉你,部署免费那是最大的谎言。电脑设备哪些就不说了,如果你敢拿自己的主机去玩,当我没说。要想让这个瞎干活,普通的几 k 走不掉,一、 api 消耗费? 普通聊天 ai 是 一问一答,但 opencloud 这种 a 阵是想一步看一眼动一下。他为了帮你回一条微信,可能要截图十次,分析二十次, 这一来一回, token 消耗是普通聊天的十五倍以上。你接个 clogs, 三点五试试,一个下午能烧掉你两杯星巴克的钱。它一旦陷入逻辑死循环,一个下午就能刷到你半个月的工资。二、 网络与服务器想要二十四小时在线云服务器得租吧?想要网速够快不掉线专线加速得买吧。这还没算你为了跑本地大模型咬牙升级的。那块的 rtx 五零九零显卡,算下来,哪怕你是个技术宅, 一个月没个几百上千块,这只虾根本养不活,对钱还是小事,最可怕的是时间成本。 open 可傲现在的成熟度,连半成品都算不上。网页改个按钮位置,他瞎了,系统弹个更新窗,他傻了,网络稍微波动一下,他直接罢工。你以为他在帮你打工?不是,你成了他的全职保姆, 你每天下班后的生活就是在那修环境、调提示词、改代码。这种伪自动化带来的情绪价值,还不如你自己手动点两下鼠标来的爽。所谓的解放双手,其实是把你困在了电脑面前, 所有人都在避而不谈的安全性。你要养 openkey, 就 意味着要把你电脑的最高权限,甚至你的屏幕监控权交给一个开源脚本。虽然代码是开源的,但你接的第三方 api 插件呢? 你找人带装的后门的,万一哪天模型幻觉了,把你银行卡的支付密码发给了机器人,或者把你的私密文档同步到了云端,你哭都没地方哭。 在 ai 面前,你没有隐私,只有待宰的羔羊。技术本身没有错,错的是那些为了卖客,为了流量把它神话的人。现在的 openclaw 更像是一个昂贵的理科生玩具,而不是生产力工具。如果你有钱有闲且懂技术,随便折腾。但如果你只是个想省事的小白,听我一句劝, 离这只电子龙虾远点,守好你的钱包,也守好你的隐私。评论区告诉我,你是不是已经被那些自动化广告给洗脑了?别忘了点赞关注,带你认清更多科技真相!
粉丝3054获赞3.4万

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

哎,今晚又是大半夜给你们录视频,那就在刚刚十九号凌晨,小米官方终于发文承认了前几天在大模型领域引起巨大讨论的两个匿名模型 heller alpha 和 hunter alpha, 都属于小米的字眼大模型 miimo v 二, 那这两个模型有多厉害呢?那 hunter alpha 上线第三天,就在 open claw, 也就是小龙虾的全球模型调研中直接登顶, 紫色的就是 hunter alpha 模型的调用,而红色的则是 hero alpha。 要知道养龙虾可不是靠嘴巴喊领先,喊吊打或者去喊爱国,在网上找几个六八零大脑智慧老灯去造谣就会产生改变的东西, 它呢,是全世界的用户在不同大模型之中亲自去使用,对比最后选择的能力强大而且好用的大模型。要知道在几天前,大家看着这两个如此强大的模型,还在猜测是不是 deepsea 的 v 四大模型匿名发布了, 那目前看来,大模型赛道如此的安静,主要原因就这个赛道的竞争是讲科学的,是讲事实的,你很难通过造谣抹黑去产生效果。 那 hunter alpha, 也就是 miimo v 二 pro, 它是一个旗舰的基座模型,核心的技术突破在于万亿参数规模的混合注意力架构的高效落地, 它的总参数量突破了一个 t, 也就是 one trillion, 激活参数四十二 b, 也就是四百二十一,通过优化的 hybrid attention, 也就是混合注意力机制将混合比例提升至七比一,这参数量相对于它的前代,也就是米某 vr flash 扩大了三倍的同时,维持了高效的推理能力, 并且它支持百万级别的超长上下文窗口,这使得它在复杂的长线层任务规划和多工具场景中具有先天的优势。那么它在小龙虾的框架测评中, vr pro 在 pinchbench, cloud, evaluation 等等榜单上都处在全球顶尖的水平。 实际它的体感已经超越了 cloud 的 索尼四点六,它逼近了 opus 四点六,但是它的 api 定价只有后者的五分之一, 它极大程度降低了 agent 的 应用的落地成本。那从匿名测试的数据来看,它的早期版本 hunter 阿尔法在 open root 的 平台上线后直接就登顶了日榜,它的调用量突破了一 t tokens, 直接验证了它在真实场景下的可用性。并且它还同步上线了 wps、 灵犀、 michael、 小 虾米和小米浏览器,用户可以直接使用小米的字眼大模型来替代外国模型,完成几乎所有的日常工作。 而小米的另一个命名模型则是 hunter r 法,也就是 miimo vr omni。 它的重点是一个全模态模型,也就是我们现在理解的很多国内顶级公司正在做的全能大模型。 而小米这个模型的特点就是在感知行动闭环上作出了突破,它打破了传统多模态模型重理解、轻执行的局限性。在感知端,它的音频理解能力超越了 german 三 pro, 支持十个小时以上的连续长音频深度分析,那你们开会的时候的一些音频就很好搞定了。 图像理解能力则 b german 三 pro 在 复杂图标分析和多学科视觉推理上,它的表现非常突出。 视频理解则实现了原声音频联合输入的情景感知和未来推理。那么在执行端,这个模型在 opencloud 的 框架下,可以完成浏览器的全流程操控,从商品选购、砍价、下单到短视频的制作发布,它实现了完整的端到端的任务交付。 并且它已经和金山办公生态进行了深度的集成测试,能够直接生成高质量的 word、 结构化的 excel 拍板、规范的 pdf 与完整的 ppt。 那为什么我又在熬夜做这个视频呢?答案很简单,小米这两个模型的出现,已经充分证明了小米这家公司在核心技术领域的研发成果已经开始了快速的落地,同时他也等同于揭开了大量国内公司拿开源模型包装一下骗钱的骗局。 那过去一个星期,因为小米这两个模型都是匿名的,没有人知道他其实是小米的,所以在网上你甚至看不见黑稿。 那现在的黑稿主要集中在攻击小米超强刚获得的奖项,他不是国家科学进步奖这种顶级奖项, 他去讽刺攻击这个我国工信部管理的社团是小的、假的不权威的东西。但是你仔细看就会注意到,他们没有一个人敢说这个材料的强度是假的, 也没有一个人敢提这个钢材强度相对比他们吹捧的品牌哪个更高,因为他们很清楚,从产品那省下的钱才是他们的工资和军费,那千万不可以进行比较,这反而会让他们的粉丝醒悟过来,原来有的人他不在乎他们的生命安全。 现在小米公开认领了这两个匿名的模型,那我相信大模型的黑港没多久就要上线了,我把预言放在这,我们拭目以待。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

最近有个龙虾爆火了,原深圳的大爷大妈疯狂的安装,到底是什么东西有这么大的魔力?和之前的 deepsea 豆包又有什么不一样呢?这个视频跟你讲清楚, 所谓的龙虾,其实它的真名叫做 open call, 因为它的吉祥物是一个龙虾,所以国内把用 open call 的 这个行为叫做养虾。 而你只要用过 deepsea, 你 就知道,原来这些 ai 的 app, 它本质上其实只是一个问答工具,你提出问题,它给出答案。但是龙虾会把 ai 从跟你聊天,帮你出主意的人,变成了能自动帮你干活的员工,你只要提出合理的要求,它是真的能帮你做一堆事儿,这个区别还是很大的。这也是为什么它突然这么出圈, 那为什么他能够帮你,真的能帮你干活呢?核心有三点,一个是因为他接入了大模型,大模型就像是一个聪明的大脑,比如你告诉他帮我去定一张去北京的机票,那这个大脑他能够听懂你说的话,并且立刻写出详细的步骤。比如说 打开订票网站,选择日期,填写信息,点击支付,那这些步骤就是电脑能够理解的代码指令,但是到这个程度还不够,因为其实以前的 ai app 也能够给出这些答案。那不同的就是龙虾它还有一个叫 get 位网关的东西,可以来调度程序,简单点说就是当它在接收到 大脑写好的步骤之后,就 get 位网关,就像一个调度员,他负责把这些指令分发给对应的小帮手,比如说浏览器、鼠标、键盘程序等等,让他们去执行啊。调度员会指挥浏览器,打开网页,指挥鼠标移动到对应的按钮上去,点击下单。 那么第三点就是也是最重要的,就你作为一个使用者,需要知道怎么样去给他指派任务,因为虽然你的这个虚拟员工非常聪明,但是你还是需要把任务说清楚, 你不能只说我,我要出现在北京,而是要告诉他我下周二要从上海去北京。那么通过这样子下指令,大脑理解并生成步骤,再让调度员去安排工具执行,你的整个任务就完成了。 那怎么安装呢啊?龙虾的安装方式主要有三种,本地部署,封装好的以及云端部署。 本地部署适合略微懂技术的人,好处在于你的数据完全存在你的电脑上,不会有隐私泄露,但是安装配置比较复杂,可能会花一些时间,那么为了简化安装的流程,就有些公司会去提供封装好的龙虾。这个就像你下载 app 一 样,人家都帮你打包好了,可以直接使用啊,比如说 kimi 的 kimi call, 那 么最后一种是在阿里云之类的平台去购买实地。 虽然龙虾非常强大,但他其实也只是一个推出了十几天的工,几十天的工具,没有那么成熟,会有很多问题。比如说他虽然有一个聪明的大脑,但是他毕竟不是人,他有可能会误解你的指令,搞不好就把你重要的合同照片或者工作文件当成垃圾给删了。所以使用的时候大家还是要注意风险。

腾讯深圳总部排队免费装 openclo, 深圳龙岗发布龙虾十条,黄仁勋盛赞 openclo 是 有史以来最重要的软件发布,就连马化腾也转发 openclo, 并表示没想到会这么火。 最近 openclo 爆火全网从两岁小孩到六十岁老人,都想试一试它到底有多牛,但真要上手了,第一个问题就是到底哪个模型才最适合 openclo? 知道你急,所以就在刚刚, openclub 创始人 peter stamburger 亲自分享了这个叫 pinch bench 的 龙虾大模型排行榜。 pinch bench 的 评分特别实在,有的题看代码能不能跑通,有的题看写得好不好,还有的是两者结合, 而且所有题目和答案都公开在 github 上,谁都能去查去验证,一点不掺水。 pinch bench 是 一次性测试了三十二款全球主流大模型,从成功率、速度、价格三个维度来评估哪个模型最适合养龙虾。话不多说,我们直接来看结果。 先来看最重磅的成功率排行榜,不出意料,谷歌的 gemini flash preview 以百分之九十五点一的成功率夺冠,第二名就是咱们的国产模型 mini max m 二点一,成功率是百分之九十三点六, 紧接着就是 kimi k 二点五、 cloudsonnet 四点五和 gemini 七 pro。 有 意思的是,三十二个模型的成功率差别非常大,最高的能到百分之九十五点一,但最低的只有百分之三十五点二。还有就是大模型,不一的谷歌模型就是小模型。 接下来我们来看看模型的速度,我们可以看到速度最快的是国产模型 minimax m 二点五,以一百零五点九六秒的成绩拿下速度冠军,完成全部测试任务,比第二名谷歌的 gemini 二点零 flash 快 零点零九秒。再往下看,其实前八名差距都不大,基本都在同一梯队。 比较有意思的就是 cloudsonnet 四用了一百三十七点六六秒,比第一梯队慢了三十秒。 johnny 三 pro 用了两百三十九点五五秒。 g p t 五点四更夸张,用了九百七十四点七四秒。不过这也说明了一个规律,就是轻量级模型普遍更快。如果你做的是快速圆形开发,需要频繁迭代,选轻量模型准没错, 成功率和速度看完了,最后就是我们最关心的价格问题,毕竟有些模型的 token 很 贵,精打细算很重要。成本上, g p t 五 nano 以零点零三美元的成本成为全场最便宜的选择。 虽然它的成功率只有百分之八十五点八,但这个价格就已经很香了。 gamin 二点五 flashlight 排第二,只要零点零五美元, 成功率是百分之八十三点二。国产模型 minimax time 二点一排第五,成本零点一四美元,但是它的成功率有百分之九十三点六,性价比非常高。再看高端模型的成本,就不是我们能承受的了。 ios 四点六完成测试要花五点八九美元,是 gpt 五 nano 的 将近两百倍, mini max m 二点一的四十二倍,但它的成功率比 mini max m 二点一还要低百分之三。 看完这三个维度的榜单,你知道怎么选模型了吗?其实非常简单,就四点一,如果你追求成功率,无脑选 gemnine 三、 flash 二,如果你追求速度,选 mini max m 二点五或 gemmi 二点零 flash 三如果你追求性价比,选 gemini 二点五 flashlight 四如果你想少折腾支持国产,就选 minimax m 二点一或 kimi k 二点五。当然没有最好的建议,按照自己的需求选择就行。还有就是这里要给大家提个醒,就是养龙虾虽然很香,但养龙虾消耗的 token 肯定是要比你充的模型会员要贵的。 现在有人每个月花一千到两千美元在 token 上,还有大佬每天烧十亿个 token, 没有足够预算真的扛不住。所以尝鲜可以,但别盲目跟风。

刚刚,智普发布了全球首个专为龙虾场景深度优化的大模型, g l m 五 turbo。 这个模型可是二零二五年以来智普首个必然模型,专门强化了工具调用、常练录执行这些龙虾场景刚需能力 评测。数据呢,也是硬气啊,用端到端的 z club 半指一测,在 open club 场景里比老款 glm 五强了不少,关键任务呢,还压过了多家主流模型。不过最让人关注的是,这个模型刚发布就涨价了, api 价格呢,直接上调百分之二十。要知道,这已经是智普近期的第二次涨价了, 二月呢,刚推出 glm 五时就涨过一波,现在 glm 五 turbo 在 那些基础上呢?再涨百分之二十,算下来呢,可能要比最早的 glm 四点七贵百分之八十三。 二零二六年一季度,智普 a p i 价格快翻倍了,但是市场反应倒是挺积极的,股价呢也在涨。为了让用户用得起啊,智普还推出了龙虾套餐,个人用户三十九元就能买三千五百万 tokens 的 体验月卡,企业用户九十九呢,就能够拿到一亿 tokens 的 进阶月卡。 另外,安全这一块呢,也没落下,专门搞了一套企业级的安全管理体系,给用模型的企业上了多重的保险。现在这个模型呢,已经在 openroot、 美团这些平台上线了,连机械革命的龙虾盒子也要全球开售。涨价还是能卖爆,本质呢,是市场认效果, 现在大模型不是能用就行,得实实在在能替人干活。 g m l 五 turbo 在 龙虾场景的能力提升,用户愿意为销量买单, 而龙虾套餐更聪明,用用低门槛,把个人用户和企业呀都圈进来,既赚流量呢,又赚口碑。安全体系在布局中呢,也戳中了企业的痛点,大模型越好用,数据安全呢,越敏感。这一步啊,算是提前给合作方吃了一颗定心丸。从之前的编程套餐到现在的龙虾套餐,似乎明摆着是要从卖模型转向卖数字劳动力。 毕竟啊,以后衡量 ai 价值的不是多少人在用,是他替人干了多少活。那么,大模型的价格战是不是要翻篇了呢?因为能够解决具体问题,有实力的模型,以后的定价权啊,只会更稳啊。

龙虾 openclo 其实就是 rpi 与大模型的融合。最近龙虾 openclo 热火朝天,在我看来,它不就是一个智能体平台吗? 只不过咱们国内的扣子、天宫是云端的平台,这个是私有化的。但是扣子和天宫也是支持私有化部署的呀。它只能解决控制电脑,而且是有限的授权控制 给他授权了,他就能控制,不授权他怎么控制?而且控制了电脑又能做哪些事呢?要他控制电脑,难道不怕他出事吗?要知道按压的思考是有准确率的, 也就是说他有一定的几率是错误的。那我就想问,那重要的事情谁敢让他做, 反而控制电脑?我们用 rpi 可以 解决问题, rpi 的 执行流程是百分之百准确的, 我们可以完全放心。 open cloud 只能提供有限的技能,大多数的业务技能它是没有的, 简单的像 o c r 识别、 pdf 转 word 这些涉及到具体的业务软件,它又怎么可以包含呢?复杂点的业务包括生产过程的调度、生产排程, 他又怎么可以做到呢?再到安全管理方面的,比如说双重预防机制,风险预测,他还是做不到。在我看来, open cloud 只不过是一个 rpi 的 工具, 提供了少量的文档处理功能,接入一些模型,生成数据,保存数据到本地 电脑端进行有效的操作,仅此而已。它甚至不能解决某一具体的业务问题。 解读解决某一问题业务场景的问题,还是需要使用能体平台开发一个实实在在的智能体 i r 的 发展方向,我认为限阶段还是要具体行业和业务场景的智能体的应用, 这个智能体不光是只有大脑,还要有手和脚,它还可以使用工具结合各种传感器识别、输入、输出、操控等。

我已经用了一亿的免费 tokyo 来养龙虾,可以看到这是一点五九亿的 tokyo, 然后四千四到用零元。我用的是这个新送的三点五 flash 的 模型,是用的 open rota 的 平台。对,前几天那个给大家分享免费养龙虾视频火了,然后今天做一个具体的视频之上,很多朋友在后台私信我。 呃,那首先呢,其实是我们去呃搜索这个今日星辰的三点五模型,找到这个 free 有 免费版。呃,进去之后可以看到它这里有个模型 id, 这就是它的模型 id, 我 们要复制下来。呃,其实要给弄一下。呃,可以看到就是它现在在 opcode 的, 就是调用排名非常高。呃,看到就是。呃, 昨天是第一名。对,昨天是第一名,今天是第二名,前几天也拿过。可以看到这排名非常高,前几天也拿过很多第一。然后我们回来之后呢,其实是在自己的这个。呃。 api k 这里。呃,进入到 api k, 嗯,去新建一个 api k, 你 可以填银行卡,然后再去填这一个信用额度,可以填一个零点一美金。 看到我,哎,我这里填了一个零点一美金项链,一旦有付费的行为,那就最后花七毛钱,这个 api 就 断掉了。嗯,对,然后再过一期时间去设置一下。然后呢,这个 api 呢,是一次性只能复制的,相当于这个也要给到龙虾,然后把 openroot 的 这个地址,就是直接把网站扔给他,然后再把魔仙 ak 扔给他,再把你 app apk 扔给他。对, 假如你当前有那个本地 l m 驱动的话,就是把这个配置上,它自己会去连接上新的模型。那然后你再去那个龙虾里面去调用这个对话的话,就可以看到自己的一些调用数据了,对,有某一天的用量特别大,都是免费。

最近全网都在养虾,就是这个 openclo, 也叫龙虾大模型,火到让程序员都去腾讯大厦排队。但很多人养了几天,发现这哪是养虾呀,这是在养吞金兽!为什么烧钱?其实 ai 不 直接花人民币,它花一种叫 talking 的 东西, 你就把滔凯想象成 ai 世界的数字汽油。以前我们用的聊天 ai, 那 是自行车,踩几下不费油。但现在,这个龙虾是个超级跑车,它能自己满世界跑,帮你砍价、做报表、写邮件。问题来了,这车一旦发动,只要你思考一下,或者多看几页你的文件,那油表就嗖嗖往下掉, 甚至出现过干活六小时烧掉上千块的恐怖账单。所以你看,以后咱们不仅要关心油价,还得关心草根价。每一个看似智能的 ai 助理,背后,都是肉眼可见的算力钞票在燃烧!关注我,每天学习一点点!

不管你是要打算养龙虾还是正在养龙虾的人,我都强烈推荐你们看一看这个软件啊,这个软件叫 clone x。 为什么推荐这个软件呢?是因为它把所有 open clone 网关的功能全部集中在了一个软件上,包括像什么,呃,什么这个模型的 a p i 的 配置啊,还有这个多 agent 啊,还有包括像微信的小插件,它也是做到了这个软件里,这就特别的方便你添加添加一个什么账号,你只需要生成一个二维码啊就可以了, 就这么简单。甚至其他的像什么飞书啊这些全部都支持,而且技能也可以在这里面安装和开关。呃,对话,包括网关的和微信的,全部都可以在这里面看,可以避免很多很多安装时候的坑,也不用出去花钱去 找什么九十九啊,部署的或者买什么 u 盘的,就这一个软件,全部都解决了。

hello, 大家好,我是和你们白话 ai 的 朋友扣肉眼下超级智能企 offen claw 炙手可热,龙虾爆火的背后是大模型的博弈,而养虾特别费 token 的 话题更是被外界津津乐道,从而最近的热词 token 就 这样从幕后走向了前台。 能让大模型的博弈焦点落到这样一个词身上,那这个 token 到底是个啥?今天我就来为你说明白。 在 ai 的 世界里啊, token 其实就是字节。别理解错,此字节不是我们耳熟能详的那家知名公司,而是真正意义上的字节,也就是逻辑概念层面的字体的意思。 这是人工智能处理信息生成内容的最小计量单位,用于统一衡量不同文字之间的字体数量转换。因为每个国家呢,都有自己的语言,文字并不完全相通。那么最公平最公开的一个方式啊,就是把文字转换成 token。 我们以英文单词或者是中文的汉字来进行简单举例,一个 token 大 概等于零点七五个英文单词,或者约等于一点三五个中文汉字, 你和 ai 说的每一句话,他给你的每一句回答都会转换成 token 来进行计算。比如你问 ai 今天天气怎么样? ai 回答你今天天气很好,挺风和日丽的。这么简单的一问一答,实际每个文字都转换成了 token, 也就是消耗掉了若干个 token。 ai 时代, toon 为王, toon 的 消耗量反映了 ai 应用的活跃度。作为计算机领域的数字标识符, toon 既是算力的最小计量单位,也是衡量人工智能推理能力的关键指标。在应用 ai 的 时候,会消耗大量的 toon, 特别是 openclaw 走红出圈之后, 人们发现 toon 的 消耗出现了指数型的增长,一天的消耗就能达到上亿级,人均使用量翻了整整百倍,这也对算力提出了更高要求。 如果说 token 的 处理取决于算力,算力又取决于什么呢?是靠电力的支撑。狂烧 token 的 背后,实际是在大量耗电,也 就是意味着在大量烧钱。简单总结, token 就是 ai 世界中用于大模型计量的最小支付单位,也是用来算账的计费单位。在实际使用 ai 的 场景中,按照运行 token 的 支付数收钱,收的是什么钱呢?大部分是电钱,你所在区域的电费成本越低,那结算 token 的 价格就越便宜。 电力决定算力,算力决定 token, 这是一串价格链条。那么与之相关,小龙虾的爆火,带火的另一个热词, token 出海又到底是个啥呢?下次继续说明白,记得点赞关注哦!

哈喽,大家好,我是龙虾差不多两个多月了,这期视频我想简单的介绍一下我如何为龙虾选择一个最适配的模型。今天我会按照计费方式、 token 刷新机制、价格和性能这四个维度来横向给对目前最流行的五个模型提供商。首先要确定的就是你到底是一个轻度用户还是一个硬核用户。 原因很简单,因为龙虾跑一个任务,它的后台实际上会有几十次的模型调用,你以为你只发送一条消息,实际上会刷量你二三十次额度,复杂任务甚至可能达到五十次以上。这就是为什么大部分人会吐槽龙虾吃偷坑的原因。 因此我一直在强调,大家尽量去选择 coing plan, 而不是按量计费。原因很简单, coing plan 是 一种包月套餐,它是一种兜里机制,因此它不会出现那种如果你选择按量计费,一不留神,一晚上就烧掉一座房的情况。 所以说大家首先要判断一下自己到底是哪一类的用户,然后再去选择对应的套餐。第二点就是 token 计算的猫腻,其实这里面有非常玄乎的东西,为什么呢?我会给大家揭秘一下, 每一个 coin plus 实际上都会带有五小时刷新。刷新这个词听起来不错,但是这东西有一些秘密没有人告诉你。比如说百炼火山和 g r m, 虽然都有五小时刷新,但实际上它们有个月度总量上限,也就意味着,你如果密集的跑几天,把你的整月额度全部用完之后,你会发生什么呢? 剩下二十多天,你只能不断地碰到 api rate limit 这个错误提示,就是说你的用量已经用完了,那么 kimi 实际上它是一周刷一次,所以说你会出现一种情况,可能你周一周二刷的比较狠,那你后面以前也用不了了。 所以说这里面唯一个就是真正的所谓五小时刷新,实际上只有 mini max, 就是 mini max 是 没有所谓月度总量这一概念,它就是按照每 老老实实按照五小时刷新一个机制,你只要五小时内用,虽然你五小时内用完了,但是你五五个小时之后你又获得了全新的头壳用料。所以从这个角度,那么五小时刷新这个概念下,还是 mini max 最划算。价格我为什么放在后面?因为很简单, 我认为你既然选择了使用龙虾,那肯定是为了提高工作效率。不论是你用来工作、学习还是处理日常事物,我相信你更看重的是它的能力,而不是价格。但是我们依旧要讨论一下。 这里其实百炼有一个 light 和 pro 版本,一个是四十,一个是两百,它的优点就是它的模型比较全,但是就像我刚才说它是按照调用次数来扣额度的, 那么龙虾重度用户每个月能实际跑的人数会比你想象中的少。另外一个火山方舟,它目前有个所谓的首月九块九套餐,这个是比较划算的,但是它下一个月它的续费 它就比较贵了,所以我大推荐大家去官网上看一下。还有一个就是 kimi, kimi 其实它分的比较细,它有四档,从四十九到六九九, 我说的就是它的七天刷新。我真的比较想吐槽,因为我最早其实用的是 kimi, 但后面不选择用的主要原因就是因为它的七天刷新,真的我有点遭不住,因为可能我用的比较快,我前两天就用完了,我要等一周才能等到它刷新。接下来就是 mini max, 它是 档位分的最多最细,并且它是最不含糊的,它有从二十九,它甚至到八九九都有,它有 入门的二十九 uplus 四十九,额度会翻二点五倍,还有个 max 一 百一十九,再翻三倍。还有极速版,你可以用它的 high speed mode, 这个模型其实是非常适配这个龙虾的,因为它速度执行速度非常快, 从这个价格的角度,我认为 mini max 是 最最不含糊,就是最靠谱的,所以大家可以自己去调研一下,去官网。接下来是性能, 实际上模型的性能直接影响了你的龙虾使用体验,那么我认为又快又好是对一个模型的最好褒奖。那么有没有一个模型同时可以满足快和好呢?有的就是 mini max。 首先二点五的上下文窗口是一百万头克,也就意味着龙虾执行起来的上下文问题, mini max 可以 很好的解决,那么快你可以走极速版,也就是它的 high speed 的 模型,就算是高峰期也不降速任务,不卡壳。实际上在我漫长的使用过程中, mini max 是 唯一一个在一天的表现都非常非常好的一个模型。那么综上来看呢?实际上上下文够长,速度够快,额度机制最适合的也就是 mini max 这一家了。那么最最关键的是,我需要给大家亮出来一张图,请看这张截图。 mini max 是 龙虾创始人 peter 的 官配模型,所以我更理由有理由选择 mini max。 那 么综上所述呢, 给出一个我自己的结论,就是我中间切换了不少国内外的模型,那么综合来看,无论是性价比、能力,响应速度各方面,我认为 mini max 在 使用过程中是最适合弄瞎的。 当然你有也有可能有不同的看法,那么我也欢迎你在视频下方留言,我们来一起讨论。 ok, 今天视频就到这里,谢谢大家。

以前 ai 动嘴,现在的 ai 动手,这只全球都在养的龙虾到底是个啥?能让深圳鹅厂门口排起长龙,有人更靠上门安装赚的盆满钵满?小龙虾 open club 本质上来说是一个开源的 ai 智能体框架,它不生产内容,只执行,因此需要接入 deepsea、 gbt 等大模型作为思考核心。接着借关你的鼠标、键盘和浏览器, 只要你下一道指令,它能自动打开网页领券,在本地文件夹里找到文档总结,登录你的邮件发送周报。它的出现对于普通人来说有什么用呢?据调查,职场人平均每天花费二点五小时在重复性数字任务上, 上班族要复制 excel 数据填报表、发邮件、整理文件。学生党要手动整理文件、下载资料、填写客系统,还有打卡签到等等。这些事本身不复杂,但就是占用精力,消耗耐心,一旦任务量变大,就容易出错、焦虑甚至加班。而这只虾的出现,就是帮你把双手从这些重复中解放出来,把这只龙虾养好。往小了说,是拥有一个七乘二十四小时无休的秘书。 往远了说,可以实现一个只有老板的公司加 n 个七乘二十四小时无休的龙虾们。但一代人有一代人的鸡蛋要领。对于没有代码基础的 小白,如果想加入这场养虾革命,还需要租用虚拟服务器,并且它可以直接控制电脑,有更大安全隐患,一旦执行错误,后果往往无法撤回。因此,目前对于绝大多数普通用户来说,龙虾仍然是一种技术实验,而不是日常工具。长线的同时,还是要警惕安全风险,等待产品真正成熟再使用。

展示一下,就是我在我这台 macbook 部署了本地龙虾,并且在这一个 lm studio 的 这一个框架里面去运行大模型,随便运行的一个本地的模型,就是一个 英伟达的 nano 四 b 的 模型,非常的有意思,因为它很小,在我电脑上面运行的话没有太大的负担。 这个 lm studio 开了本地模式,应该是这里看设置这个位置,开发者开了这一个 llm 服务,就是已经对接好了,我电脑也装了龙虾了,就是 openclore 已经部署好了, 在这里面也可以跟龙虾交流。我想展示的是在这哎,已经也不输在苹果端的微信了,就是已经绑定了微信的 clawbot, 你 来一段自我介绍好吗? 就直接发给他,之后就直接在这里面可以看到他运行的过程,是可以显示的,就这个位置,就这里他就在跑, 只不过回复的有点慢,可以看到发了这么久,哎,现在来了。那就说作为 opencloud 的 平台什么助手。那你帮我拼一下百度吧,看看能不能拼通。 很明显这个识别不准,对方正在输入, 太慢了,还是得对接那种 a p i 接口才会快, 那样可能也和我这个电脑是有关系,百度点 com 看看他会不会。其实部署本地话也只是拿来玩一下,毕竟硬件的水平有限, 体验比较差,只是玩一下就是这样子。这是可以回复,但是可能是这个模型太差了,只有四 b 的 这个模型 运行的话都不怎么烫。我之前运行的是阿里的三点五九 b 的 模型,也可以用它大概有六 g 多就聪明多了,但是非常的发烫,就这个位置, 现在呢,我就运行了这一个比较简单的四 b 的 模型,它占用的内存不高,但是呢它的能力也有限, 回复的非常的慢,有兴趣的话可以去大件,就是基于 lm studio 来部署本地模型。然后呢,又部署龙虾,如果能用 macdong, macdong 它是统一内存版本的,它可以内存可以当显出来用,正常的话 用 mac, 我 觉得优化是比较好的,比 windows 运行这些模型的话,比 windows 体验真的好很多,而且也比较省心一点,比较容易就可以达到一个比较理想的效果。好了,那本期视频就到这里了,我们下期再见, see you guys。

呃,兄弟们,然后接下来我们讲这个模型的选择,这个 open 壳啊,这个 open 壳啊,你如果选模型的话,我只推荐你们一个啊,兄弟们。呃,选 coding plane 这个套餐里面啊,这里面 我很多都开了会员啊,我就这么说吧,里边唯一且能用的只有一个啊,就是这个摆件 coding plane 啊,兄弟们 啊,首先啊,这个百炼 callin play 这个套餐里面,它自带 jamie 五跟 kimi 二点五啊,我不知道它那个跟那个,这两个跟它那个官网的那个 callin play 还有什么区别啊,我只能说很傻,兄弟们, 就不是完全一个层面的,就导致我感觉 千万把林俊阳踢掉有点像。嗯,项羽把兵仙韩信给飞掉了,你知道吗? 我为什么这么感觉呢?因为这个,我觉得百,我觉得团队出现分歧了,我,我大概能知道林雪阳做的大概是什么东西,他做的相当于是个机模,你知道吗?基础模型,就我感觉未来,如果说,哪怕说未来两到三年,如果说 ai 应用出现大爆发的话,需要一个基础模型,我觉得唯一有可能的就是这个百炼千问, 别的都不行,只有千问,但是他把林俊阳踢掉之后,我觉得可能百炼千问要掉队了。好吧,这个千问给你说,强到什么离谱啊, 就你像这个迷你 max 啊,豆包,豆豆包逗你笑,行啊,他干活真不行啊,兄弟们啊,包括这个,呃, kimi 二点五啊,还有智普啊,我都用了啊, 跟百炼差的不是一星半点啊,我为什么这么说,给大家举两个例子啊,你比方说我们欧风壳奥,你安装系统是三点一三, 如果说你要进行更新的话,因为你更新这个系统相当于把整个系统都覆盖掉,重新改写配置,别的模型啊,全军覆没,只有百炼 他可以准确的精准的配置你的底层文件啊。这还不是最夸张的,最夸张的是我用微信连接多 agent 的 平台的时候,如果说你用词不太精准的话, 可能会出现各种 bug, 就 那些模型会瞎改配置,就他们有点傻,但是只有千万做到了。

养龙虾人全体注意,小米大模型是现在最适合龙虾的大脑。为什么这么说?因为大模型的选择影响着 opencloud 的 逻辑推理能力和工具调用能力。而在 pinchbench 评测里,小米大模型的这两项能力排到了全球第二,这能让小龙虾脑子转得很快。再加上百万字的上下文记忆, 龙虾的记忆水平远超其他大模型,不会再出现转头就忘的尴尬情况。有人要问了,那我为什么不用排名第一的 cloud 呢?这就要提小米的第二张王炸了!超低的 took 价格,对于龙虾这种多任务并行的复杂智能体来说,算力的消耗量是传统对话式 ai 的 几十倍。 而小米大模型的百万 took 输入只要一美元,综合成本只有 klo 的 六分之一。既然有了最强大脑,那龙虾也少不了一句优秀的躯体重量。仅八百克,预装 open klo 的 龙虾炼丹炉就 完美的龙虾壳子,把强劲性能和深度优化的龙虾浓缩在这一台巴掌大小的机器里,随时随地指挥数字员工。大脑够聪明,躯体够敏捷,口粮还便宜,这组龙虾套餐才是每一个开发者实现算力自由的终极形态。

新手必看龙虾 openclaw 大 模型配置保姆级教程零基础配置 openclaw 手把手教你完成 basel a p i t 与 model 配置。在配置大模型时,你一定会反复遇到三个关键词, basel、 a p i t 和 model。 你可以把调用大模型想象成像。一位博学多才的专家写信请教问题。 bash, 也就是基础地址,是大模型服务商提供的 api 接口地址,各大模型平台都会提供,相当于专家的收件地址,没有这个地址,你的问题就无法送达。 a p i p 也就是密钥, 是服务商分配给你的一串唯一字,服用于验证身份和计费,相当于你的专属通行证。专家凭此确认是你发来的请求, 并从你的账户扣除相应费用。请务必妥善保管,切勿泄露给他人。 model age, 也就是模型名称或 id。 同一家服务商旗下通常提供多个不同版本的大模型,你需要明确指定使用哪一个 个服务商平台的模型,列表中均会详细列出相当于你要请教的具体哪一位专家的名字。上面三个参数不仅支持各大服务商 的配置,以上三个参数支持各大服务商接口 中转。 a p i 级本地部署大模型,你可以根据选择的模型平台在对应控制台中获取 a p i t。 同时平台会提供固定的 base or 可选的 model。 opencloud 的 核心设置保存在本地的 excel 文件中,根据你的系统环境,它通常位于用户目录下的隐藏文件夹内。 windows 系统配置文件路径 通常为以上。内容处系统配置文件路径通常为以上。找到该文件后,用记事本 d s q 等文本编辑器打开即可编辑。如果目录下不存在 open call, 可在命令窗口输入 open call setup 进行初步化。在修改任何配置文件之前,请先将原来的 open call 设置一份作为备份, 以便改错后随时恢复。这是一个良好的操作习惯,可以有效避免因误操作导致配置损坏而无法恢复。打开配置文件,将其内容完全替换为官方模板,然后根据你实际的大模型参数进行修改。需要修改四个参数,大模型的纸杯 sir、 大 模型密奥 apikey、 大 模型名称域以及工作空间路径。 windows 和 linux micros 填写不同的路径格式。在配置文件中找到 agents models model primary, 确保其值为你刚才配置的模型路径格式为 custom 零零幺模型 id, 这表示 open core 启动后将默认调用该模行为你服务。如果你目前只需要使用基础对话功能,可以暂时忽略 tools 和 skills 中的 s k x x x x x 占位符。 待日后需要启动图片生成 web 搜索等高级功能时,再前往对应服务商申请密钥并填入即可保存修改后的 open call 送文件,然后关闭并重新启动 open call 程序。完成以上步骤后,你的 open call 二便已成功接入云端大模型,可以正常开始对话。

上线不到六十天,全球开源代码托管平台星标量突破十二万,国内腾讯、百度、阿里字节、华为等十三家头部科技厂商密集官宣接入全网相关话题 播放量破五十亿。原本只在即刻圈流传的 open club, 靠着一只红色龙虾的图标,成了全网都在讨论的 ai 爆款。但是绝大多数跟风讨论的人都没有真正搞懂,这只龙虾根本不是又一个用来聊天的大模型,它要做的事,是彻底打破过去几年 ai 行业一直走不出来的死局。 从二零二二年底 chad g b t 爆火开始,全球大模型行业已经发展了近四年,参数规模从百亿级涨到了万亿级,对话能力越来越流畅,能写文案、能做方案,能解数学题,甚至能写代码,但始终没有跳出一个核心的局限, 就是只说不做。绝大多数时候,大模型只是一个高级的聊天框,或者用来查资料、写出稿的辅助工具。 opencloud 的 核心突破,就是给所有大模型装上了一套数字手脚。简单来说,过去你要对着大模型说,教我怎么做这件事,现在你 你只需要对着他说,帮我把这件事做完。而国内十三家头部科技厂商接连官宣接入,很多人觉得是大厂在蹭热点,但本质上他们抢的不是 openclaw 这个工具本身,而是下一代 ai 的 核心入口。过去几年, ai 行业的竞争核心是大模型的聊天框,谁的大模型用户多,谁就能掌控 ai 的 流量入口。但随着 opencloud 的 出现, ai 行业的竞争逻辑已经发生了变化,未来的用户不会再为了不同的需求来回切换十几个大模型的聊天框,而是会需要一个 能帮自己完成所有操作的直行入口,用户只需要在这里下达一次指令,就能完成跨软件、跨平台、跨系统的全流程操作,这个直行入口 才是下一代 ai 的 核心流量入口。而 openclo 现在已经占住了这个入口的先发位置,目前腾讯已经把它接入了微信生态,阿里将它适配到了淘宝商家,后台自介把它和飞叔、豆包做了深度联动,这些动作的核心都是为了抢下这个执行入口的话语权。 openclo 的 出现确实给很多行业带来了重构的可能。首先是中小企业的数字化,过去中小企业想要做数字化转型,需要花费几十万甚至上百万购买企业资源管理、客户管理这类专业系统, 还要雇佣专门的技术人员来维护,绝大多数小商家、小公司根本承担不起这个成本。而现在用 openclo 不 需要购买昂贵的系统,只要把日常的行政、 财务、客户管理的流程告诉他,他就能自主完成对应的操作。相当于用极低的成本雇了一个二十四小时在线的数字员工,让原本没有能力做数字化的中小企业也能用上自动化的运营工具。 其次是个人生产力的释放,艺人公司的模式会变得更加普遍,过去一个人创业要同时负责运营,客服、数据统计、内容剪辑等大量工作根本忙不过来。而现在这些流程化、重复型的工作都可以交给 open cloud 来完成, 个人不用再为大量的杂事占用时间,可以把所有的精力都放在核心的创意、决策和资源整合上,个人的核心竞争力会被大幅放大。还有开发者生态的重构。 openclaw 推出的技能市场复刻了当年苹果应用商店的模式,开发者可以针对不同的场景 编辑对应的自动化技能,上传到技能市场里。其他用户使用这个技能的时候,开发者就能获得对应的收益,而且是长期的被动收入。这种模式会吸引大量的开发者进入,不断丰富 open klo 的 使用场景, 形成一个完整的生态闭环,就像当年苹果应用商店催生了整个移动互联网的应用生态一样。但在热度之外,我们也要看到 open klo 可能会引发的行业问题。 首先是安全风险, opencloud 能直接获取设备的系统权限,可以操作设备上的所有软件,读取所有的文件内容。如果被恶意开发者利用,它完全可以变成一款自动化的黑客工具,比如 批量盗取用户的账号密码,删除设备里的文件,甚至发起大规模的网络攻击。而且因为它是完全开源的恶意开发者,修改代码的门槛极低, 这个安全隐患目前还没有形成完善的解决方案。其次是监管空白,目前全球范围内还没有针对这种能自主执行操作的 ai 的 明确法律法规。如果 ai 在 自主执行操作的过程中出了问题, 责任该由谁来承担?目前没有明确的界定。比如用它给客户发送消息,不小心发送了错误的敏感信息,给企业造成了经济损失,这个责任该由下达指令的用户承担,还是编辑代码的开发者承担,或是开源社区承担,目前还没有统一的标准。第三是就业冲击。 那些流程化、重复性强的岗位,比如基础行政热线、客服数据录入等,这些岗位的核心工作内容 open club 都可以完成,而且成本更低,效率更高。不出意外的话,这类岗位的市场需求会出现明显的收缩, 很多从业者会面临转型的压力。第四是开源模式本身的风险。完全开源的模式会导致市场上快速出现大量的同质化产品, 很多厂商只需要把开源代码拿过来,换个图标和名字,就能做成自己的产品,推向市场。最后整个行业陷入低价内卷,没有厂商愿意再投入资金做核心技术的研发,就像过去很多开源项目一样,最后变成了大厂的价。一开源社区本身没有获得对应的收益,项目也 也失去了持续更新的动力。它不是 ai 的 iphone 时刻, iphone 当年是重新发明了手机,创造了一个全新的消费电子品类。而 opencloud 并没有创造出全新的底层技术, 它只是把大模型的理解能力和自动化执行能力做了一次完美的结合,解决了行业里存在了好几年的核心痛点。 但它可以说是 ai 从玩具到工具的关键转轴点。按照目前的行业发展速度,大概率一年之内, opencloud 的 模式会成为 ai 产品的标配。对于普通人来说,最该做的不是跟风去炒这个风口,也不是去做蹭热点的同质化项目,而是沉下心来 学会使用这类工具,把它用在自己的日常工作和生活里,用它来处理那些重复的无意义的杂事,把省下来的时间用来打磨自己的核心竞争力。不管是创意能力、专业技术还是行业资源,这些才是不会被 a i t 大 的核心壁垒。