粉丝9.7万获赞117.9万

你好,我是郑工长,昨天有个粉丝急匆匆的来找我,说他部署的 openclock 简直像个废铁,联网搜索经常超时,服务也隔三差五就崩。 我让他把配置单发过来,扫了一眼就明白了,这典型是省钱省到坑里去了。他服务器选的是华北地域,内存只配了一 g, 说白了,他这是用跑静态网页的思路去部署一个 ai 辅助工具,这种配置能跑通那才是运气,跑不通才是正常的。 我见过太多人在基础设施上抠抠搜搜,结果呢?最后花在排查问题上的时间成本,都购买几十台高配服务器了。所以今天我就把话放这, opencloud 部署有两个死穴,你的 ai coding 体验就直接归零。 好,我们来说第一个死穴,国内地狱。这完全是个逻辑死胡同。很多人会觉得服务器当然选离自己近的才好啊,人在国内就选华东华北,这样延迟低,访问也快。这个想法呢,放在传统的网站服务上确实没问题, 但是如果你把它用在依赖全球开源生态的 ai 工具上,那可就是刻舟求剑了。你看,这背后涉及到的是网络路由和资源可达性的问题。 open call 的 核心功能,它要靠联网搜索,要调用模型,还要实时拉取代码库。 国内服务器的出站流量,也就是 outbound 的 流量,它会受到比较严格的管理策略限制。这样一来,你访问 github 可能会特别慢,调用一些海外 api 可能直接就超时了,甚至 dns 解析也可能被污染。 所以说,你选国内地域,就等于是给你的 ai 工具带上了撂靠跳舞,你以为省了点带宽钱,实际上牺牲的是工具的可能性,牺牲的是它的鲁棒性。我见过太多这样的案例,服务器部署在国内,结果日制里全是连接超时或者 d n s 解析失败。 这时候很多新手就容易怀疑是不是自己代码写错了,然后开始疯狂调试应用层的逻辑。 别急,事情没那么简单,根字上的问题是网络链路就不通,你应用层的代码写的再漂亮,网络不通,那一切都白搭, 你说是不是这个道理?反过来我们想想,香港或者美国弗吉尼亚这些地域,虽然物理上 ping 值可能高了几十毫秒,但是他们处在全球互联网的核心节点上, 他们访问开源社区,访问各种 api 服务,那都是原生级的联通性。对于 ai 工具来说,这种联通性的优先级远比那几十毫秒的延迟要重要得多 好。第二个死穴就是内存小于两 g, 这简直就是在玩火。你再看看这内存配置,一 g 想跑 ai 辅助服务, 你觉得靠谱吗?懂我意思吗?这根本不是在省成本,这分明是在给自己埋雷。 从底层逻辑来讲,现在的 ai 辅助工具大部分都是基于容器化部署的,这里面可能会跑着 java 的 运行时环境、 node 服务,甚至还有一些轻量级的向量解锁进程, 这些组建本身它就有最基础的内存开销,比如说光是一个容器的守护进程,可能就要吃掉一百到二百兆内存。再比如 java 或者 node 这种运行时环境,光是预热至少就需要五百兆以上, 那业务逻辑的缓存呢?还会动态分配,所以你只配个一 g 的 内存,就相当于让一个成年人住进儿童床,连转身都难。一旦病发,稍微上来一点,或者你要处理一个稍微大一点的代码上下文,内存就会瞬间打满。 这时候操作系统的 o m killer, 也就是内存一出,杀手会直接介入,毫不留情地杀掉你的服务进程。所以说,内存配置可不是看它能不能启动,更重要的是看它在高富帅下会不会直接崩掉。 你想想看,服务频繁重启,这不光影响你的体验,还会导致数据写入中断,绘画状态丢失。这种不稳定的因素对于需要连续上下文的 ai coding 来说,简直是致命的。 你这边正写着一半呢,后端服务突然挂了,这种挫败感会直接摧毁你对这个工具的信任,你说是不是好?别搞错了,部署这是它,可不是抽奖,它是有标准答案的。 根据我这些年的交付经验,下面这个是经过验证的黄金组合,你直接抄作业就行了。首先,地域选择,我建议香港或者美国弗吉尼亚。 如果你主要用户在亚洲,而且还要兼顾一下国内的访问速度,那香港是个不错的选择。虽然说他访问国内会有波动,但是他的联通性绝对是优于内地的。 那如果你是追求极致的联通性,而且也能接受稍微高一点的网络延迟,那就选美国弗吉尼亚,这里可是全球云服务最密集的区域,生态兼容性是最好的。其次,内存配置起步两 g, 我 个人更推荐四 g。 两 g, 这是最低底线,它能保证服务稳定运行,不会轻易触发内存溢出。而四 g 那 是我推荐的配置,这样拥有足够的余量,能从容应对突发的流量,或者一些更复杂的任务。 划重点了, cpu 呢,倒是可以适度放宽一些,比如一个核或者两个核,但内存这个东西绝对不能省。你想想,内存它是硬资源, cpu 呢,它更多是计算力 ai 工具,它大部分时间其实都在等待输入输出,所以内存瓶颈往往会比 cpu 瓶颈出现的更早。那么配置选对了,我们怎么知道它真的没问题呢?别光看服务状态,显示 running 那 只是个表象, 你必须得做压力测试和联通性验证。第一步,检查外网联通性。你进入到容器内部,敲一行命令, curl, vhtps, 冒号斜杠,斜杠 api 点, openai com, 或者你依赖的其他核心 api 地址。 如果它能迅速返回 http 状态码,这就说明你的网络链路是通畅的。但如果它一直卡在 connecting 那 里,那就很明确了,你的地域选错了。第二步,监控内存水位, 观察服务运行半小时之后,它的内存使用率如果长期维持在百分之八十以上,那就说明你这个配置啊,也就是钢构底线,我建议你最好升级。如果频繁出现 kill 的 这种日制,那就更不用说了,你必须立刻加内存。第三步,实战测试, 让它去执行一个需要联网搜索的复杂任务,比如说让它查询最新的拍放库,然后生成势力代码, 你观察一下它的响应时间和成功率,如果任务超时了,那就检查日制,看看是网络层的问题还是应用层的问题。 最后我想说,很多新手朋友啊,特别容易陷入一个误区,他们会觉得软件是虚拟的嘛,所以跑软件的资源也可以虚拟着来,能省就省,但归根结底,代码它都是跑在物理资源上的,物理规律可不会因为你这是个 ai 项目就给你网开一面。 在数字化工程里我告诉你,稳定性是设计出来的,不是靠调试出来的。你在选址和配置上多花的那一点钱,你买到的是确定性, 你买到的是你后续几个月不会被那些莫名其妙的 bug 困扰的安心。所以真正的省钱,其实是一次性把这个基础打牢,这样才能避免你反复的返工。千万别为了省一杯咖啡的钱,最后却让整个工程队陪着你加班修路, 时间会证明你在基础设施上投入的每一分钱,都会在未来的稳定性中加倍回报给你。好了,今天就聊到这,我是郑工长,咱们下期再见。

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

想不想拥有一个二十四小时在线的 ai 员工呢?最近 oppo klo 特别火,我在云服务器上也折腾了一个,接下来带大家体验一下我在云上折腾 oppo klo 的 一个过程,还有使用之后我对它的真实看法。当然我这两天时间还没有部署完成,也存在一个比价的环节啊。 首先是腾讯云,腾讯云是比较实在的,他能够二十块钱买一个月的服务器,因为你如果是选国外的节点的话,他能够 使用里边的这个搜索功能,如果你选国内的节点,它搜索功能是不能用的。当然我也是对比了这个阿里云,阿里云的 open globe 是 原价五十九,它其实有一个抢购的计划,抢购的计划它能够做到好像是 九块钱买一个月,但是你如果是续费的话,他是按照原价来续费的。腾讯的续费仍然是二十块钱,这个比较方便一些。这个百度他有一元的抢购,但是我没有抢到,所以不知道他到底好不好抢。 如果是你,他的正常购买的话,就要买他幺五六的幺五六,但是他是买一年的,价格是挺便宜的。 但是,但是他这个有问题,他的地域呢?北京跟广州,所以他部署上去之后,应该搜索功能是用不了的,所以这个体验感到时候功能限制性就会很大。到最后我选的是腾讯云的服务器, 买了之后呢,他这个部署是相当简单的,虽然说已经是在云服务器上了,会省很多时间部署安装的过程,但是他配置的过程也是挺麻烦的。我觉得想用这个其实难度并不是特别小, 你看先配这个 openid, 我 就要选接入的即时通信工具,我就选飞书,飞书我已经我已经配置了。跳过选飞书这一步其实挺麻烦的, 因为你要去跳到飞书的官网上边去创建一个应用,获取这个应用的 api k 跟 secret。 另外你需要把这个应用里边加入这个机器人, 所以它才能有即时通信的机器人工具帮 openroot 来接收消息。所以这一步我大概用了一个多小时啊,这里配置 skill 现在也可以先用上,简单一点。 那现在我首先这里边点空格就能够选中你要装的哪些东西? gmail 跟 github, 我 先装上这些不太认识的,这个大概知道是干啥的, 所以我也先装上。上边还有苹果 note, 默认,其实这些都不知道是怎么用的,干啥的默认我,我感觉应该是做笔记。你可以, 因为它是云服务器,我本地当然有服都当然有默认,但是在云服务器上的话,我就需要把它复制上来。 行好先好,就这样等空格,空格它就会去安装,选择依赖。 但是我觉得现在有一有一个麻烦的事,后边我都需要通过这种没有界面的方式来访问这个台服务器和操作这台服务器我觉谷歌的 g p i k 我 感觉也是比较困难的,来获得又是比较困难的一步。 还有 notion, notion 当然是做笔记的 open ai。 呃,位置不变生成的。下边这个是什么?不太认识啊。 这个也不知道是干啥的。另外装 fox, fox, 因为这个其实不消耗资源, 我觉得都装上吧,现在为 siri c c installed install 你 装好之后重启吧,其实它之所以强大,首先它需要很多其他的软件来支撑啊, 另外有这些软件,当然你也需要有其他的软件的这些工具的账号,所以这账号也是另外一个麻烦事。返回服务器,我看现在看他文档怎么来操作。在配置完成之后,通过文档就能够看到, 看一下,通过文档就能看到。完成以上配置之后启动 get 位啊,这样就能够启动这个,现在按照他的文档来启动一下试试。应该他启动之后会打开一个软件, 现在这里它提醒我,我的 open core 已经启动了启动,但是应该怎么用呢?看一下我的乖乖啊,你启动这个 open core 之后呢?这个界面上服务器上是没有任何反应的,你看它现在这个 说明文档上边,比如说你配置了 discard 或者是飞书,你就需要下载飞书跟你的机器人进行聊天,这样通过聊天的方式给这个服务器发送指令。这个服务器呢,可口可乐在服务器上接收到你的消息,他通过理解你的自然语言去分解任务, 然后调用各种各样的工具来帮你完成这个任务,基本上就这样,所以现在我需要安装一下飞书,不是经常用飞书的人可能都不知道怎么去添加机器人。 腾讯文档上就没有啊,我是看的阿里云的文档,我现在就试一下在飞书里边创建一个群聊,添加一个机器人,添加机器人的时候,往下拉就能看到自己创建的这个自动回复机器人点一下,这无所谓啊,因为没有别的人, 现在他已经正常运行了,我现在看能不能往里输入啊,看他有没有什么反应。 我先不等他了,我在这个在这个飞书文档里边直接问他,金融大师,难道我有我艾特他一下吗?艾特他一下是啥?因为之前没有用过飞书文档,所以不熟 梳理 l l m 发展趋势好了,同样需要艾特他一下。应该是需要艾特他一下,要不然他这边接收不到消息。可能, 但是他在服务端这边不会看到他运行的对话,处理对话的过程感觉不太靠谱,不知道这个时候我应该怎么去检查一下,检查一下到底是谁来处理的这个东西,谁来处理的这个消息。 接着我想让他总结我 obsidian 下边有什么东西。这个时候呢,可以看到他不知道我的 obsidian 的 文件内容在哪个地方,所以我还需要告诉他我 obsidian 的 笔记文件放在什么位置, 现在可以看到我告诉他我的 obsidian 的 根目录是在什么位置,他就给我回复了。 这也是我在服务器上放的两个文件,一个是读书笔记的,另外一个是关于篮球的,他就告诉我这些内容,这个就算是基本打通了,也实现了一些简单的功能。我觉得通过云服务器简单体验了这个 open globe 它的功能,它云部署第一个优点就是它这个部署的方式特别简单,还有一步一步的配置的流程。 因为这些云厂商他们已经做了这个 opencloud 它的镜像,这些镜像使用起来会特别的方便,就是节省了我们安装的一个过程,我觉得第二个优点就是它能够二十四小时不间断的运行吧,这也是一个服务器应有的一个优点。 另外一点就是他不会破坏我们本地的环境,因为他是一个独立的私有的一个服务器。说完这三个优点呢,接着我觉得比较大的缺点有那么几个,最大的一个缺点就是在于我们需要不断的去维护里边的资料, 其实很多时候我们并不想去另外维护一份这种资料,为什么呢?比如说我想要像这个作者他那样说自己要定一个机票,有一些自己的个人资料在本地存着。 那么你让 open 来做这个事呢?他就会自己去找这些资料,打开网站,把需要的资料去填进去, 通过分析去筛选一个比较合适的航班啊,帮你买下来。如果是你在 云端使用这个过程的话,就算他有无头的浏览器,不用你操心,但是你仍然需要把自己的这些资料传到云服务器上一份。那么这个跟自己订机票中间省了多少时间和工作量呢? 这个很不好说,我觉得另外一个就是缺点我觉得也很大,在云服务器上他的 open globe 没有这个界面,这就算是对程序员来说, 比如说你在用 obsidian, 需要打开设置,设定一个根目录,才可以知道哪些文件属于你这个 obsidian 的 这个文件内容。当然还有更多的软件是有这方面的问题的,我觉得这个是对大多数人来说是比较难使用的啊。 通过这个视频大家应该能够知道 open globe 能够实现大概什么样的功能?希望这期视频能够简单的帮你认识一下这个当下最热门的 open globe, 它是一个什么样子的东西。评论区里边可以聊一下大家对 open globe 它的一个看法。

在欧奔 klo 火了之后的几天时间里,突然间就冒出了很多的变种 klo, 什么 nano klo, nano bot, piccolo klo, 甚至还有可以部署在 esp 三二上的咪咪 klo。 呃,捅了猴子窝了。那在这些变种龙虾的宣传页面上,要么就写着它们的代码有多么的精简, 要么就写着它们占用内存有多低,只需要极其廉价的 cpu 就 能跑起来,那这对我这个硬件工程师来说就很有吸引力了,我可以在我之前做的这些电路板上来养龙虾。 不过面对这么多的龙虾,我的选择困难症又犯了,那这些龙虾到底有什么区别?像 zero klo 和 piccolo klo 看上去大差不差的,那应该怎么选择呢?另外的话,像咪咪 klo 这种能运行在 esp 三二上的龙虾,它真的好用吗? 硬件工程师又应该去养哪一只龙虾呢?那今天的视频我们就一起来探讨一下这些问题。首先是欧奔卡洛,那比起其他的龙虾来说,就是大鳌权 github 上面的新标也是最多的,那部署的条件的话,基本上就只有一个内存足够大,按照我的经验就是大于四个 g, 所以 除了常规的电脑,像是树莓派五啊,地瓜的 r d k 叉五开发版啊,以及说大部分的乡城派开发版都是能够部署的。 然后呢,它有一个很大的问题,就是代码量比较多,有七十万行,所以呢,就有了 nano bot 这个项目,那它是基于 open core 修改而来的,目标就是追求极致的代码只有四千行。这样的好处就是一个差不多水平的软件工程师就能够读完所有的代码, 那在你读懂它之后呢,就可以基于它来构建出自己的龙虾。所以 nano bot 就 有点像是一个学习项目。那从功能上说,虽然说做了精简,但是总体还是能用的,简单的聊天、整理文件、调用 skills 都是可以的。那比起 open class, 它缺失的是一些高级的功能, 比如说没有向量化的长记忆功能,那这就导致了一段时间之后,它很有可能就忘记了前面的聊天。那另外的话呢,它也没有插件系统, 所有的功能不能通过第三方做扩展,只能说等官方来实现。那总体来说,我并不是很建议没有代码能力的新手去使用 nano bot, 它的文档也比较少,只有一个 readme。 那 不过如果你有能力去看懂 nano bot 的 代码,那基本上也就不需要接受我的建议了。 接下去是 nano cloud, 那 虽然名字里有一个 cloud, 但是它的功能和其他的龙虾其实是不太一样的,只是说借用了一个名字而已。它是基于 cloud agent sdk 开发的,简单理解就是一个对 cloud code 的 分装,所以本质上算是 cloud code 的 兄弟。那虽然代码量极少,但是它的内存占用并不低, cloud 的 cost 占用多少,它就至少要占用多少,所以它其实并不归属于龙虾的范畴。那 pico cloud 的 话是国内的一家开源硬件公司希素科技开发的,那他们家的主营业务就是卖 linux 以及 esp 三二开发板。 做 pico cloud 的 意图就很明显了,就是在低内存、低成本的 linux 开发板上养虾。所以说 pico cloud 的 核心目标就是省内存。那 pico cloud 是 基于 nano bot 修改而来的, 原本的话, nano bot 是 基于派送开发的,所以即便是做了精简,内存的占用率还是要到一百兆以上。那为了节约内存, pico cloud 的 开发团队就让 ai 把 nano bot 用 go 语言进行了实现,那因为是翻译语言,所以内存占用率一下子就降到了十兆以内。 那从能力上说,一开始的时候 pico 可乐和 nano boot 几乎是重叠的,不过随着时间的推移,慢慢的就分道扬镳了。那衍生出了一些自己的功能,比如说为嵌入式系统定制了更多的功能,集成了 fnc 和 spi 的 控制。 所以如果你是想玩玩低成本的嵌入式部署, pico 可乐还是不错的,尤其适合像 k 二三零、 d iv 幺幺零六、 c v 六幺零这种内置一百二十八兆内存的芯片,性价比是非常高的。 那接下去来说一说 zero colo。 zero colo 是 一个非常值得一提的项目, nano bot 和 piccolo colo 可以 说是从 open colo 那 边继承而来的,所以它们基本上就是 open colo 的 经典版本。 而 zero colo 就 不一样了,目标非常的宏伟,极低的内存占用,覆盖几乎所有的硬件,同时呢,具备 open colo 几乎所有的功能,也就是说它是奔着和 open colo 平起平坐,甚至是说干掉 open colo 来的。 那目前的话,它也拥有插件系统,原生的向量记忆系统,支持浏览器方案,甚至有自己的技能商店,有 hux, 做自动化也没有问题,有成熟的文档以及华丽的 web 控制台,那这些都是 nanobot 和 pico 所没有的。而且呢,它的内存占用率极低,已经支持了部分的侵入式芯片部署, 不过美中不足的是暂时不支持 risk 五芯片,所以像 k 二三零 d s g 二零零二什么的就用不了了。总体来说呢, zero cloud 是 值得去探索一下的, 如果想要取代 opencloud 还是任重而道远,很多的功能也仅仅是做了一个开头,需要大量的时间投入去生化。那最后一个是咪咪 cloud, 那 这个的话是一个绑定在 esp 三号上的项目, 这个对介入式工程师来说还是非常的诱人的,受众的话理论上说要更广一些,但硬件开发的难度也更低。不过实际使用之后呢,发现有两个致命的问题,或者说也算是一个问题吧,就是说它所有的能力需要你自己提前写好, 比如说你想要去控制舵机的转动,那么就需要修改咪咪可乐的代码,那给它加上舵机控制的函数,把它固化成一个原子能力,那后续的话就可以通过聊天让咪咪可乐去调用这个能力了。 那简单的概括就是,咪咪可乐只是能调用你写好的 api, 而其他的可乐呢,是能够自己生成代码并且执行的, 所以想要玩转咪咪 colo, 就 需要你有一定的嵌入式开发能力。好,那以上就是今天视频的全部内容了,简单的总结一下, open colo 算是大鳄权,但是占用内存高,那 nano bot 的 话呢,主要用于代码的学习,那 pico colo 的 话呢,更适合嵌入式的部署。 cora 可乐的话呢,野心比较大,但是有待发展。米米可乐是部署在 esp 商号上,但是无法自编程,需要有开发的能力。好,那以上就是今天视频的全部内容了,如果你对这方面有帮助啊,别忘了关注和三点,我们下期再见,拜拜。

还不会部署 open core, 阿里云一键部署保姆级教程来了,全程三步超简单操作,就算是零基础小白也能轻松上手,快速拥有专属 ai 助理。 第一步,购买阿里云轻量应用服务器,打开阿里云 open core 部署专题页面,直接点击一键购买并部署配置,选二和二 g 以上镜像,选择应用镜像里的 open core, 镜像地域默认美国弗吉尼亚,时常按需选择下单支付即可。 第二步,开通百炼,并配置密钥,进入阿里云百炼大模型控制台,找到密钥管理,点击创建 api key 一 键生成。 第三步,配置 open color, 打开阿里云清亮应用服务器控制台,用可视化图形界面就能快速完成配置,不用写代码,不用改配置文件,直接对接消息通道,超省心。 以上就是阿里云 oppo 克朗一键部署攻略,建议收藏本视频只需三步,轻松拥有你的专属 ai 助理!

第一时间把龙虾的模型换到了 gpt 五点四啊,据说非常牛逼,直接超过了 cloud 的 oppo 四点六啊,待会实测一下。 这是它这个自己给自己的定位,这个人味也有了。之前这个 gpt codex 五点三,虽然这个干活能力不错,但是没人味啊,这个伴味太浓了。 现在也有人味了,还有一个点啊,它可以走 open i 的 订阅啊,价格比 cloud 的 要便宜很多,无论是各个方面,现在都是龙虾的绝配啊。现在这个时间点把龙虾玩明白就相当于二零一七年把短视频玩明白,这个东西简直太强了。之后我也会出一系列龙虾相关的视频,我自己也在不断的实践中。

昨天我跟小龙虾大战了一天,终于是用上小龙虾了,在这里给大家讲一下这个过程。我先是让豆包给我推荐了一下这个布置方案,他给我推荐了三个, 第一个是租服务器,在服务器部署,这个的话是比较便宜些。第二个是本地部署,几乎是完全不花钱。第三个呢就是租阿里云已经部署好 opencloud 的 云服务器,其实也就是两个,一个是自己部署,另一个就是买现成的。 我为了尽快用上小龙虾,所以我直接选择了租阿里云的服务器,就是预装好小龙虾的服务器。我们打开阿里云购买这个 open cloud 服务器的页面,选择一键购买并部署。这里有跳出来的两个组合套餐,看上去都很便宜,但是咱们不要买这两个,因为清亮应用服务器这里边的是两 g 的 内存, 根据咱们广大用户的经验,咱们这个服务器要至少选四 g 内存的。咱们往上翻,找到这个 轻量应用服务器量和四 g 的 这里,这地方是可以选择国外和国内的,如果选国外的话,大家可以选这个离咱们中国近一些的,像韩国、泰国这种的。如果选国内的话,豆包推荐咱们选这个花呗。二北京,我就是选的这个点,立即购买, 买完之后我们来到阿里云的工作台,在我的资源这里找到我买的这个服务器,像我买的华北。二、北京,点清亮应用服务器,打开这个服务器, 到这里我们就看到了这个服务器的一个情况,是两 cpu 四 g 的 内存, 然后还有一个它的一个公网的 ip 等,在这里我们要点实力 id 下面这一串,而不是点这个远程链接,点开这之后我们 就进入了这个更详细的一个信息,在这里我们点应用详情,大家可以看到 open class 使用步骤,它的都已经给你做好了,然后我们只需要点第一步的执行命令,等它运行完再点第三步的执行命令, 第三步执行命令之后,他会给到你一个控制台的访问网址,我们直接点这个网址就来到了小龙虾的一个工作界面,在这里我们可以给小龙虾发个信息,到这里的话小龙虾就已经可以开始用了,大家都去养自己的小龙虾吧。

你能在浏览器里做的工作, openclaw 都能帮你做,而且二十四小时不停地做,调研、情报、学习、写作、投资信息等等等等。今天我们循序渐进的介绍四种方案,从内置的工具开始,到依赖 api, 不 依赖浏览器的 skills, 再到隔离用户档案的浏览器自动化,最后到完全接管你当前浏览器状态的方法,每一个我们都说明白它的原理,优点、缺点,如何设置,以及最重要的适用场景。好的,废话不多说,我们开始如果你还没有设置 open club, 不知道选什么机器好。哎,看完这个视频之后啊,去看我的上映视频,真的非常的简单。 首先我们看 opencloud 以及内置的 web fetch 节点,它的原理啊,就是一个网页抓取和正文提取的工具链,它用 http 请求去抓网页的内容,这是服务端的抓取啊,不依赖于你本地正在用的浏览器, 也不会附用你任何浏览器的档案啊,资料啊, cookie 啊,拓展等等等等。它就是把 html 作为正文提取, 玻璃调导航栏,页角,广告、侧边栏等等的噪音。那么输出的是干净的 markdown, 它适合什么呢?它适合所有公开可访问内容,主要在 html 里面的网页,比方说文章,博克,公告这些, 它做不了什么呢?哎,它不是浏览器,它没法执行 java script, 也就是说所有需要登录、交互、翻页、滚动点击这些它都做不了。 它的优点啊,非常的明显啊,它速度快,成本低,因为它不需要启动浏览器,不需要渲染。它呢,适合二十四小时长期的扫描输出,更干净也更安全,因为它完全不碰你的个人浏览器,它不接管你的账户的登录态。 那么缺点也非常的明显,他看不到需要登录,需要 cookie 的 内容。那么比方说所有的社交网络,他呢,不能执行 java script, 所以 需要互动的内容他都做不了。然后呢,他呢,非常容易受反派机制和地域的限制,那么他的价值和使用场景来自于两个方面,不论是你做生意有竞争者,还是有对标者, 还是你想要学习或者某一个网站,那么你都可以第一时间,哎,关注到这个网站,爬取这个网站最新的定价的消息,它是不是有发布新的 i c u 的 文章,那么它啊,有没有调整它的政策,这些你都可以第一时间知道。第二就是,哎,有些公开的信息啊,比方说你关注 ai 领域,那么 open ai, spatial, jin 奈他们的官方的 啊,文档,他们官方的网站的最新信息呢,都可以被你抓取到,你可以第一时间知道这些信息。除此之外呢,比方说一些公开的网站啊, archibald, 如果你读文章的话,还就是维基百科, hack news, 这些网站都可以公开地爬取。 它的缺点也是非常非常明显啊,任何的社交媒体上的高价值信息,尤其是需要你登录进去的有关于你的信息,它都抓取不了,不能够定制化。那么如何设置呢?哎,完全不需要设置,你安装了 opencloud 之后,那 web fetch 工具就已经安装在内了,那么任何需要网络抓取的任务,没有其他方法的话,它都会默认走 web fetch 可以看到这里啊,我让他啊,用 wifi 去抓任何关于 opencloud 的 啊具有趋势的信息。那么由于呢,我这里已经安装了其他的方法,所以如果我只布置明道性的用 wifi 的 话,他就会去用我浏览器的方法了,那这个我们后面马上会讲到,你可以看到这里,他就会去 hack news 上抓取 相关的 open cloud 相关的信息给我了。那么用内置工具最大的缺点就是任何社交网络它都做不了,那么由此我们衍生出第二种方法,也是不依赖浏览器的 skills。 那 么第二种方法,我们用的这个 skill 叫做 last thirty days, 本身上我们就可以规定一段时间内啊,最低抓昨天的,要么就是三十天以内,最多我们去抓取社交媒体上 x reddit, youtube 上最新的爆点,痛点,舆论趣事等等等等,它只是用来做抓取的这样一个工具,那么它的原理也非常的简单,就是广撒网,然后再聚焦 reddit 上的信息来自于 open i 的 网络搜索功能, x 社的信息来自于 x a i 的 网络搜索功能与 top 的 信息,来自于 y t d r p 这个开源库。 首先啊,先搜索信息,然后对于这些高频的关键词呢,它就会再聚焦 subraded 或者是一个账号,再进行二次的补搜。最后啊,根据出现的频率和动信号来做加权的总结。 那优点,首先第一个就是它三个主要的社交媒体平台都顾及到了,都抓取了,所以它后面呢,还可以对它们这些信息的来源进行交叉验证。 第二个优点就是它毕竟不需要浏览器嘛,所以它是个轻量级的方案,它第一个缺点就是它需要 api, 就 它不是免费的方案。第二个缺点呢,就是它只能做 情报的获取,舆论的监控,爆点痛点的挖掘,对吧?它做不了任何浏览器,需要我们浏览器的操作,比方说鼠标点击啊啊,比方说帮我们发表文章等等,它都做不了,那么这个是我们后来两种方法,依靠浏览器的两种方法,我们马上会讲到 这里,我提一句啊,就是这种依赖 a p i 的 方法,你完全没有必要用这个开源库,它做的不错,但是呢,你可以完全定义自己的算法,比方说 啊,三不同的来源,你认为 x 最重要,那你就对 x 进行更多的加权。这些算法的制定,你就完全可以通过自然语言跟你自己的 open cloud 机器人兑换的方式来进行设定你自己的算法。 那么关于安装呢,有两种方法,第一种方法就是通过 cloudhub, cloudhub 可以 看成是 opencloud 的 市场,里面有各种各样不同的 skills, 你 可以一行命令直接安装这个 skill, 它的优点就是快速简单,对吧?受到官方的支持。缺点就是,哎,它呢,里面的版本不一定是这个 skill 最新的版本,比方说在这里啊啊,我们在我安装的时候呢,它 cloudhub 里面的版本是 v 一 点零这个 skill, 但是呢,实际上 github 上我看到它这个最新的版本是 v 二点一啊,所以就隐身出来。我们的 第二种方法就是如果你想看安装这个 skill 最新的版本,但是 clubhouse 不是 最新的,你可以通过 get 来安装,这个就要稍微复杂,稍微麻烦一些了,那么具体怎么安装,一步一步的,我遇到的问题我都放在免费的社区里了,大家可以去社区里面免费去拿。还有一点就是安装的时候一定要多跟你的 open club 问他问题, 因为每个人的环境有所不同,娱乐的问题也会有些不一样,最好是问你的 open club, 而不是网页版的 gpt 或者是 gmail, 因为问他,他很可能在回答的过程中直接跟你把你问题解决了,而不是你还需要去问网页端的, 然后玩一段 g p d 给你回答,你再粘贴到这里,告诉你怎么操作。那由于取决于 api k 啊,所以我们还是要在安装完之后,去到点 config last thirty days, 点 e m v 文件下面填入我们的 open i s a 的 api k, 那 么因为它是个付费的这样一个功能,如果我不说多少钱,就显得过说不过去了,对吧?那么每一次深度搜索呢, 大概是零点二美元,也就是 x a i o p i 的 费用加起来大概包括 reddit 二十多个县城 x 啊,三十到六十个帖子, youtube 大 概四十个视频左右,每次搜索都会有点不一样,但是大概的费用是零点二美元左右。 这里有一个小 tips, 就是 一定不要用它来搜广泛的词,比方说 ai 这种词,用它搜尽量细致的关键词,比方说 openclaw 或者 openclaw setup 这种关键词才会有比较好的效果。比方这里啊,我让它用这个 skills 哎去给我找出。这两天之内,大家都在讨论关于 openclaw 的 比较火的帖子以及痛点,比方说比较火的帖子,大家都在讨论安全问题啊,可能性啊,还有就是它记忆的管理,以及多个智能体的使用案例。 那么关于痛点呢,大家都在说,就是更新之后啊,会有一些风险,还有就是可信的问题,安全性的问题等等等等啊,同时啊,他也可以看到他可以分析不同平台,他发现 x 上 啊是非常强的,大家在上面抱怨痛点, reddit 上呢,就会有更多的技术讨论,而与 twitter 呢啊,就是各种混在一起。 那么到现在为止,我们见识到两种方法都是无浏览器的方法,他们呢,可以抓取我们想要的信息,不管是社交媒体还不是社交媒体, 但是它还不能完全替代我们人类能在浏览器里做的所有工作,那么接下来我们就要正式建设两种新的方法,这种方法都依赖于浏览器 完全模拟人的操作,你能做什么,他们就能帮你做什么。好的我们来看第三种方式是由 open club 管理的浏览器,真正实现二十四小时期的浏览器自动化操作,它的原理啊,其实就是 open club 在 我们网关上启动一个谷歌浏览器的实力。 然后呢,你这是独立的用户档案,而不是附用你现有的浏览器的用户档案,所以呢,它有独立的拓展,独立的 cookie, 独立的缓存,都在这里面,你呢,可以手动的登录一次你的社交网站之后就可以一直长期服用了。 它的优点就是,哎,它实现二十四小时长期非常的稳定,只要你的网关是开着的,那么它就可以直接跑,不依赖于你的日常使用浏览器是不是开着? 第二个优点就是它安全,边界更清晰,因为它隔离了你的用户档案,它不会污染你平常你用来工作,你自己手动使用的日常浏览器的生态。 第三个就是它可控性强,你可以选择有头模式,如果你想要看到图形操作的界面的话,你可以选择有头模式,或者你可以选择无头模式,它自己在后面跑,对吧?它的缺点,首先就是,哎附用生态弱,因为它是新的一个用户档案,那么它不带你日常用户档案里那些插件啊,你的证书,那些密码管理器等。 第二个就是设备的一些风控问题啊,一些站点呢?对你这个新设备,你的新的这样一个用户档案可能会更加敏感,可能会容易触发额外的验证, 那么它的使用场景是什么呢?哎,你用浏览器做的东西都可以让它自动化来帮你做,只要你设置完之后,哎用自然语言的方式告诉他,你想要什么时候触发任务,去做什么样的任务就可以了。那么如何设置呢?其实也非常简单,分为三步,第一步就把下面的 open cloud 点 json 文件里面,然后填入 这个关于浏览器的内容参数,直接照抄这里的就可以,然后控制有头和无头的是这个这个 handleless 参数一开始推荐大家是填 form, 所以 说有头的,因为我们还是需要手动地登录,之后你可以登录之后可以把它调成无头的。 那么第二步就是,哎,我们去重启我们的网杆网关,然后呢,我们需要手动地弹出来,用这个命令手动地弹出来我们的谷歌浏览器。然后呢第三步,我们在弹出来的网页里面手动地进行登录,把我们的社交网站,所有的 x, youtube ready, 其他的网站都登录一下。 登录之后,哎,我们就可以回来用自然语言的方式给我们的 open call 命令,让它去帮我们做任何浏览器的操作了。 比如说这里啊,我首先给他一个任务,就是每天的九点,他要去帮我生成一个报告,关于 open cloud 所有的报点和所有的新闻。 那么可以看到他返回给我们说他任务完成了,每天就早上的九点,哎,都会有这样一个定时的任务进行执行。 然后后面我要让他现在就给我输出一个报告,我们现在先测试一下效果。我们首先看他给我们的热门话题啊,跟啊前面的那个 skills 也差不多。首先就是安全性的问题,大家都在讨论,另外就是可靠性的问题,还有就是哎记忆的问题,包括是各个多个智能体之间的协助的问题。 那么关于痛点他发觉就不一样了,他发现了就是在社交媒体上自动化,比方说 x 平台 l 存在一些限制,大家都在讨论这个问问题。然后就是一些啊维修的问题啊,比较复杂,包括安全性。 然后他每一个社交媒体啊都会有一个总结,告诉他在这个社交媒体上发现的关于 opencloak 相关的话题,大家在这里都在讨论什么?值得注意的一点就是这种方法能做的事情远不止于去社交媒体搜集信息, 这里我们用这个手机信息作为例子,是为了更好的对比四种不同的方法,但是呢,任何你在浏览器上做的工作,你都可以尝试让 opencloud 浏览器自动化来帮你做,只要你设定好边界和规则。 那么第四种方法就是我们也干脆不用一个单独的浏览器里面的用户档案了,我们直接复印我们现有的浏览器,现有我们的登录,用我们现有工作环境的一切。 这里啊,我们就需要安装一个谷歌浏览器插件,那么这个插件的名字叫做 open cloud relay, relay 就是 中继嘛,本质上就是我们安装的这个拓展和我们本地网关之间的交流,不是直接的啊,是通过 本地的中继作为桥梁来完成数据的传输的原理,不需要懂太多,哎,重要的是它的优点和缺点,对吧?那么它的优点最大的优点就是百分之百附用我们当前的啊,谷歌浏览器的档案,我们的 cookie, 我们安装过的任何的拓展,我们有的证书等等等等,哎,都可以百分之百的服用,相当于带你去操作你日常的工作了啊,而且呢,哎,你有什么问题你能直接看出来对吧?就在你的眼前,在你眼底的地下刨做你平常有那些网页, 他的最大的缺点啊,首先就是不得不提的就是危险性,为什么用它完全使用你当前的网页,网站等等等等的。 第二个点就是他需要一些手动的操作,后面我们会马上设置,你就会看到实际上每次我们还就要手动安装了这个拓展之后,还需要打开网页,然后手动的激活这个拓展才能够生效。 第三点就是他只能在你已经打开的网页上面操作,你没打开网页,他操作不了,他能做什么呢?他直接可以当你的分身,他不仅是自动化,可以自动化工作,而且呢,你附用你当前的一切,直接帮你完成工作。 同时呢,哎,你你的登录,你之前的使用习惯,你已经在网站积累了一些信任,那么他呢,可以直接在你这个基础上直接帮你工作,他不能做什么呢?或者他不适合做什么呢?本质上他不是很适合二十四小时长期帮你工作,因为你看 他首先只能在你打开的网页上工作,不能去别的网页,对吧?其次你还要手动点亮啊这个浏览器,激活这个浏览器这个拓展,否则他就不能工作,所以这是比较麻烦的一些点。那么我们如何安装他呢? 首先我们来到 openclock 官方文档,大家谷歌搜索 openclock from extension, 就 会来到这个网页,往下拉有一个安装的一步一步的步骤,我们,哎,首先复制第一个命令,来到终端粘贴这个命令,然后执行, 它会安装,然后给我们一个地址,我们复制这个地址,哎,只要记住这个地址,然后我们浏览器右上角点击拓展,然后管理拓展,打开开发者模式,然后上传未打包的文件, 然后呢,那个地址吗?还记得吗?哎,大家选择那个地址,打开文件夹之后,他会问你一个 token 对 吧?怎么获得呢?我们需要用到这个指令, 这个指令比较长,大家可以暂停截图一下啊,然后让 ai 识别出其中的文字,这个指令执行之后,我们会得到一个 token, 我 们复制这个 token, 然后粘贴到这里, 然后可以看到,哎,我们成功了。那么这时候我们打开任意一个网页,比方这里我们以 read it 为例子吧,因为它需要登录,也有比较高的价值。 我们这时候点开我们拓展按钮,把它给拼上,然后点击这个拓展,就会看到它有个 on, 说明生效了。这时候我们打开的任何网页,只要我们点亮了 on, 那 么我们就可以让我们的 open cloud 在 这些网页中执行任何 需要我们想要他做的操作了。好,那这里之后我们马上来试一下,我去另外一台机器的 diagram 里面,我让他去 read it 里面仔细寻找关于 opencloud 的 热点和痛点。 你们可以看到我在另外一台机器上,他自己对这个浏览器操作,他去了这个 opencloud 的 字板块找热点,然后他寻找 opencloud 一 术来找痛点, 最后他总结出答案来回答了我。那么这次搜索啊,明显更加细节针对 reddit 这一个平台,当然这只是一个平台啦,大家也可以用在其他的平台,比方说 i x, youtube 等等一切社交媒体或者其他的网站上,只要你打开网页点亮都可以操作。 好的,我们总结一下,尽管我们今天用了信息收集、爆点挖掘、通点挖掘这样一个例子来啊验证这四种不同的方法,但是本质上第三种,第四种用浏览器的方法,你都可以让他做。你任何在浏览器需要上网做的工作不仅限于通点挖掘, 那么大家可以想想自己在日常生活中什么工作,在浏览器的工作是可以让 ai 帮你做的,来提高效率,来增大你的产出。有什么问题大家可以在评论区里告诉我,不要忘记点赞和关注,我们下期再见。

大厂 ai 工程师实测 open cloud 六个冷知识,别踩坑。 number six, 安全别大意,提示注入信息泄露,攻击成功率超百分之八十,自己折腾很容易翻车。 number five, 记忆会污染 ai 记忆,会干扰项目,关键任务别全交给自文化。 number four, 节点要选对国内清量服务器,联网受限,想用稳必须选海外节点。 number three, 别找个人部署,没售后不靠谱,出问题直接找不到人。 number two, 内存别省,低于二 g 币卡,这是硬门槛。 number one api 才是吞金兽。 open cloud 免费,但大模型 api 烧钱飞快,一定要用订阅式 token, 别开暗亮付费, 想部署省心稳定有售后,安溪派十家专业工程师部署,加售后全包,别当小白鼠,私信那方案。

各位同学大家好,欢迎来到 openclaw 系列课程的第二天。今天咱们直接手把手教大家五分钟部署 openclaw, 哪怕你是零基础,也能拥有属于自己的贾维斯。咱们正式开始今天的内容。在开始部署之前,先跟大家说下 为什么值得咱们花五分钟试试 open call, 它不是普通的聊天机器人,是能真正操作你电脑的 ai 助手,比如自动回邮件、安排会议监控网页变化,提醒你微信、钉钉这些平台的消息也能跨平台接收,还能记住你的偏好,越用越懂你。 最关键的是所有数据本地运行,隐私有保障,而且现在部署门槛特别低,百度、阿里云都有一键部署,手机都能搞定。 接下来就是今天的核心内容,三种部署方式全都是小白友好型,大家根据自己的需求选就好。第一种是百度智能云一键部署,免费又快捷,最推荐纯新手。 第二种是 windows 本地部署,适合想深度控制操作本地文件的同学。第三种是阿里云轻量服务器部署, 适合需要长期七成二十四小时在线使用的同学。咱们一种一种来教。先看第一种,百度智能云一键部署,适合不想碰任何命令行,想最快体验的同学。第一步,打开百度 app, 直接搜索 opencloud。 第二步, 点击立即部署,然后耐心等一到三分钟,不用做任何操作。第三步,部署完成后会自动跳转到对话界面,默认用的是 deep c v 三点二模型,不用自己配置。 第四步,想让它帮你处理钉钉飞书消息,或者安装 youtube 等技能,在设置里操作就好。这里提醒大家一句,这个方案是云端运行,不能直接操作本地文件,但日常用完全够用。接下来第二种, windows 本地部署,适合想深度控制, 想让 ai 操作本地文件执行脚本的同学。准备工作很简单,首先你的电脑得是 windows 十或十一,建议开启 wsl 二,然后安装 notejs 版本,要大于等于二十二,官网直接下载安装就 行,地址我放在 ppt 上了。最后以管理员身份打开 power shell, 准备就绪,咱们就开始操作。第一步,一键安装,大家直接复制粘贴这行命令到 power shell 里回车就好,不用自己手动输入,避免输错。 第二步,安装完成后,重启 powershell, 输入 openclaw version, 验证一下是否安装成功能,显示版本号就没问题。第三步,运行出场向导,复制这行 openclaw onboard install dmen 命令回车执行。 这一步是帮咱们完成基础配置,耐心等一会儿就好,不用额外操作。第四步,配置模型,这里以归机流动为例,大家找到这个配置文件的路径,打开后添加 ppt 上的内容,记得把你的真实 api 秘钥换成自己的,同时编辑 os profiles json 文件,只保留归机流动的秘钥,这样模型就能正常使用了。最后一步,启动服务,先输入 open cloud gateway start 启动后台服务,再输入 opencloud dashboard, 就 能打开 web 操作界面了。这个方案的优点是完全本的运行,能操作本地文件。小贴士,遇到问题不用慌,输入 opencloud dr fix 就 能自动修复大部分问题。 第三种,部署方式,阿里云轻量服务器部署,适合需要长期运行,不依赖个人电脑的同学。比如想让 ai 二十四小时帮你监控网页,推送消息的步骤很简单,先购买阿里云轻量应用服务器,内存大于等于两 gb 就 行。 然后选择 open q r 镜像,在百炼平台获取 a p i t apply, 在 服务器控制台一键配置密钥,放通一八七八九端口,最后访问 http 你 的 ip 一 八七八九就能使用了。全程也很简单, 不用复杂配置。接下来是常见问题,解答大家部署和使用中可能会遇到的问题,我都整理在这里了。 第一个问题,没有 api key 怎么办?很简单,轨迹流动、 deep seek、 摆链这些平台注册就送免费,额度足够大家体验了,不用花钱。第二个问题提示, port eighteen thousand seven hundred eighty nine is already in use。 意思是端口被占用了, 大家按照 ppt 上的命令操作,先查找占用进程,再杀掉进程就能解决了。命令直接复制粘贴就行。第三个问题,能用国产模型吗?当然可以,闻心困岸、 deepsea 这些都支持,只要在配置中指定 api 地址和密钥就好。 opencloud 的 真正魅力不在于它有多智能,而在于你能用它做什么。 也许明天你就能让 ai 帮你自动整理会议纪要,监控竞品价格,每天推送代办,节省更多时间。 技术的意义是让人更自由,而不是更焦虑。今天这节课就是大家通往 ai 员工自由的第一步, 所以大家现在就可以动手试试,按照咱们今天讲的三种方式,选一种适合自己的。好了,今天的 open club 部署介绍就到这里了,感谢大家的观看,咱们下次课程再见。祝大家都能顺利部署拥有自己的贾维斯。

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。

大家好,最近我搭建了 openclaw, 并且尝试使用了一周多的时间,现在把这一周踩坑还有一些经验分享给大家,希望能够对正在探索 openclaw 的 同学有所帮助。第一个经验是模型选择上,众所周知, openclaw 是 一个很烧 token 的 一个智能体, 那如果大家一开始用 openclaw 的 话,建议还是从最低档的套餐的那种方式来用起, 这样对你的消耗是有一个上限的,再根据你实际的消耗情况决定是否升级套餐,比如说最初用二十九元一月的那种比较额度没那么高的一个套餐,再去逐渐升级。 那对于模型选择上呢?我个人来说,我自己是用的 minimax 的 coding plan, 这个性价比还是比较高的,当然也有其他国产地带大家也可以尝试一下,比如说智浦啊, kimi 啊,都有对应的括括定 plan。 那对于价格不敏感的同学来说呢?那肯定是可以用 astonopy 的 cloud 或者是 openeye 或者 gemini 这些模型的。第二个经验就是部署方式的选择,因为 opencloud 是 存在一定的安全风险的,所以部署方式要特别的谨慎。 那如果你有一个干净的机器,那就说这个机器里没有你的个人敏感信息,那你就可以直接在这个机器上部署 opencloud, 把所有的权限给他,就能让他帮你做很多的事情。那如果你是要在主力机上尝试呢? 那建议还是能把它做容器化的隔离,这样 open club 就是 运行在德克容器里,它容器内的文件跟宿主机是隔离的,所以它就没办法访问你你的个人文件对主力机的使用是更安全一点的。第三个经验是安装策略, 首先我们可以先默认配置,先让 openclaw 跑起来,然后再按需添加一些功能, 比如说你想要要的聊天的 channel 啊,或者说一些 skill 啊,你都可以慢慢的自己去添加。通过你按需添加的过程,对这个 openclaw 的 理解可能会更深一点,对它的机制,可能配置方式了解的更好一点。接下来是踩坑的一些案例,案例一就是 我在连接调试 discord 的 时候, opencloud 它会自己修改自己的配置文件,经常它自己改错就导致自己就起不来了。那我后面想到的解决方案就是让它强制要求让它在修改配置文件的时候 呃做一下备份,那如果它自己改出问题了,你还能帮它还原回来再启动,保证它恢复之后还是可用的。第二个踩坑案例就是定时任务,之前我尝试让 open class 通过定时任务往我的 note 里面插文章,相当于它运行的时候就是按循环写入的机制,就一直在往我的 note 里面插插东西, 导致我的 note 数据库基本那个页面就不可用的状态了。那解决方案呢?下达指令的时候一定要跟他说执行次数,还有一些中止条件, 循环任务完成之后就让它删除定时任务,避免那个任务无限运行,把你的资源给耗尽。那第三个踩坑案例呢?我在使用 agent team 的 时候,我通知综合 agent 协调开发 agent 去写代码,但是这个最后 agent 它就直接修改了代码文件,导致开发 agent 不知道自己的代码被修改了, 所以就导致了开发 agent 就 有点混乱,不知道自己当前的最新状态是什么。按这个解决方案呢,就是在 agent team 的 机制下,一定要为不同的角色指定固定的删除目录,并且限制其他 agent 擅自修改别的 agent 的 文件。 然后最重要的是要定义个各个 agent 的 核心配置,比如说 salt md 啊 agent md, 然后 就是 heartbeat 的 md 这种配置文件。那总结一下,今天说的要点主要有六个,一个是模型选择上,建议从低价套餐起步,然后可以按需升级。 然后第二个是部署的时候,如果是主力机,建议容息化隔离部署。第三点,安装时,安装 opencloud 的 时候,可以先默认配置,然后再按需添加功能。第四个就是重要配置文件,一定要先备份再修改。第五个就是定时任务一定要设置明确的终止条件。第六个就是 agent team 的 机制下,一定要明确勾 agent 的 工作目录,还有一些全责范围,禁止越界。那今天的内容主要是这些,如果大家在使用 open cloud 的 过程中有什么困惑或者建议,欢迎留言评论区。

各位制造业的管理者朋友们大家好,最近是不是经常被 openclo 的 各种价格信息搞得眼花缭乱?别急,今天我就来给大家梳理一份真实可用的参考。我花了一晚上时间把全网的信息都核实了一遍, 就是为了让大家避开那些不时的价格宣传。你是不是也遇到过秒杀价、活动价,还有各种会员门槛,投肯收费这些让人头疼的问题? 每个平台的真实规则我都给你理清楚了。像阿里云、腾讯云、 kimi、 minx, 谁更便宜,谁更省心,谁更适合企业使用,其实一张表就能看明白。具体来说, 阿里云有九块九每月的限量秒杀,常规的是七十九元每年,但需要额外破百头肯,比较适合企业和重视数据合规的管理者。腾讯云是九十九元每年, 三到五分钟就能一键步数,更适合个人和小团队。 kimi clone 呢,需要一百九十九元每月的高级会员,好处是开箱解用不用自己运维 服务器。 max clone 是 三十九元每月,起运活动价八百二十元,这个是包含在会员内的,没有额外的调运费。 不过要提醒大家,这些价格都是阶段性的问题,具体还是要以官方最新信息为准。接下来我会从部署到使用,全程实拍实操,把最稳定、最简单、最省钱的方案给大家跑 一跑。想跟着我一起搭建爱工具的制造一套,别忘了关注我,咱们实战见真章!

不懂代码的普通人怎么部署 openclaw 呢?根本不需要花几千块钱去买一个麦迷你今天看了我的这条教程了,直接让你白嫖一百万 token, 咱们打开阿里云的官网,在这里点产品,选到轻量应用服务器,在这里选这个 openclaw, 这里有不同价位的金额,大家按需购买就可以了。然后我们这个实力马上准备好了,咱们点这个实力, 点进去有个应用详情,一共有三个步骤,第一个步骤就执行这个命令,可以放通这个端口,第一个已经成功了,第二个就是配置 open cloud 密钥, 咱们这里呢直接使用百联确认开通就行了,免费赠送一百万 token 推理额度。在左下角有个秘钥管理,创建一个 api, 勾选用户名称,描述一下 open core, 然后确定 可以看到这个密钥已经生成了。右上角有一个地区,我们现在是在华北地区,就是在北京 复制这个 api, 回到上一个页面,粘贴我们的 api, 全北京就可以看到 open class 配置成功。然后就是第三步,直接给了我们一个网站,去访问这个龙虾机器人,点开我们的龙虾机器人,直接问他用中文介绍你自己,而你看他已经回答了,这样就完成了,大家有遇到部署的问题可以随时问我。

超简单的 openclaw 部署教程来了,不用买域名,不用配复杂环境,只要填三个信息,就能搭建一个稳定在线的 ai 助手,每天认识一个宝藏网站。第四十六期今天分享 zebra zebra 最新上线的 openclaw 专属模板,对新手非常友好,它把复杂的底层配置全部封装好,你只需要打开界面,按提示填写即可轻松上手填前缀,随便起个好记的名称,省去买域名与备案步骤,手机也能随时访问。填 api key。 支持 deepsea、 chat、 gpt、 cloud、 gemini 等主流模型,选节点,直接选择可用节点确认部署全程无需接触代码等进度条完成,你的 opencloud 就 已在云端稳定运行,不用额外设备,随时随地通过网页管理使用。请把有手就行打在公屏上。

大家好,就在今天凌晨两点, obni 突然发布了 gpt 五点四。这不是一次普通的模型升级,它第一次把顶级的代码能力、世界知识和计算机控制能力统一在了一个模型里,更重要的是,它的每一项底层优化, 几乎都精准匹配了最近爆火的 opencloud 的 核心痛点。今天这期视频,我会从三个维度来拆解 gpt 五点四,它到底是什么?它和目前最强的编码模型 cloud ops 四点六相比,到底谁更强?以及它背后隐藏的 openai 战略棋局。 先说结论, gpt 五点四的本质可以用一个公式来概括, gpt 五点四等于 gpt 五点三。 codex 级别的代码能力加上比 gpt 五点二更强的世界知识,加上更强的工具使用能力,再加上超低成本的订阅额度支持。为什么这很重要呢? 因为一个真正优秀的 agent 机做模型需要三项能力,同时很强。代码能力、世界知识还有多模态理解。代码能力决定了 agent 能不能执行任务,世界知识决定了他能不能用人话跟你交流,理解你的意图。 多模态理解决定了他能不能看懂屏幕、操控计算机。 gpt 五点四是第一个三项全部达标的模型, 在它之前,每个模型都有致命的短板。 cloud opus 四点六什么都好,代码强,知识强, 多模态也不错,但问题是太贵了, api 价格是五美元,输入二十五美元,输出每百万 token。 而且 entropy 还封禁了 opencloud 调用 cloud 的 订阅额度,你想用就只能走高价, api 小团队根本用不起 gpt 五点三 codex 呢,代码能力确实强到指哪打哪,但最大的问题是它不说人话,你要是把它接到 openclaw 里当默认模型,那体验只能用灾难来形容。 gpt 五点二倒是说人话了,但代码能力又不够,撑不起复杂的 a 阵 t 任务,所以你看,之前就是这么一个尴尬的局面。而 gpt 五点四是第一个把所有短板全部补上的模型。 除了能力的统一, gpt 五点四还带来了四个关键的底层升级。第一,原生计算机控制。这是欧本 ai 首第一个内置计算机操作能力的主线模型,它能通过 playright 等库编辑控制代码,也能直接根据屏幕截图发出鼠标和键盘命令。大家可以看一下这个视频。 这是 gpt 五点四,在没有加速的情况下实时操控电脑。 他正在自主打开 gmail, 输入收件人地址,准备发送邮件。注意他的操作速度。 这不是脚本,而是模型。在实时看屏幕截图,理解界面元素的位置,然后生成操作指令。 从这张 openai 官方的图标可以更直观地看出差距。蓝色是 g p t 五点四,橙色是 g p t 五点二。 g p t 五点四用更少的工具调用次数达到了百分之七十五的准确率, 超过了人类基准线的百分之七十二点四。而 g p t 五点二需要三到四倍的调用次数,准确率也只有百分之四十五左右,又快又准又省钱。第二个升级是一百万透坑的上下文窗口, 从上一代的四十万直接翻了一倍多。这对 a 件 t 来说非常重要,因为 a 件 t 在 执行任务时,需要持续保持对整个任务的上下文理解,窗口不够大,它就会忘事儿。 第三个是工具搜索,也就是吐了 search。 以前模型被赋予工具时,所有工具的定义都要预先塞进提示词里,哪怕你只是想让它点个鼠标,后台也要带上几十个工具的完整描述。头肯消耗巨大。 现在 gpt 五点四改成了按需动态加载,只在需要时才去搜索并加载相关工具。官方测试显示,这个机制在保持相同准确率的同时,减少了百分之四十七的 token 消耗。 第四个是 compaction 上下文压缩,这是 openai 首个在训练层面专门优化过的 compaction 模型。长时间运行的 agent 不 再会因为上下文爆炸而被迫重启,旧的操作记录会被自动压缩成精简摘样,保留关键信息释放空间, 最后快速过一下关键参数。这是目前 ai 领域最顶级的两个模型的对决,一个主打计算机控制和知识工作,一个主打编码质量和深度推理。 先说结论,没有绝对赢家,只有最适合你的选择。看下精准测试跑分对比。知识工作方面, g p t。 五点四以百分之八十三对百分之七十八领先 opus 四点六五个百分点。 在四十四种职业的真实工作任务中, g p t。 五点四能在超过八成的情况下匹配或超越人类专家。计算机控制方面, g p t。 五点四拿了百分之七十五, opus 四点六是百分之七十二点七,两者都超过了人类基准线百分之七十二点四,但 g p t。 五点四略胜一筹。但是在编码质量上, opace 四点六在 s w e bench verified 上拿到了百分之八十点八,而 g p t 五点四在更难的 s w e bench pro 上得分百分之五十七点七,两者的测试标准有差异,不能直接比较。至于 g p t 五点四能否超越,可 loft 这个时间会告诉我们答案。 智能体编码方面, os 四点六在 terminal bench 二点零上拿了百分之六十五点四的最高分,而 gbt 五点四在这方面并没有公布数据。 法律推理上, os 四点六在 buglo bench 上达到了百分之九十点二, gpt 五点四同样没有公布。 这里需要提醒大家注意一点, openai 官方的对比表里, opus 四点六有不少项显示为空白,而 gpt 五点四几乎全线有数据,这可能意味着 opai 选择了自己更占优势的基准来展示,这在行业里是常态,大家看官方数据时要保持批判性思维。 再来看上下文窗口,两者都支持最大一百万 token, 但都不是默认开启的。 gpt 五点四的标准窗口是二七二 k, 比 opus 四点六的二零零 k 大 了百分之三十六。超长上下文的计费方式也不同, gpt 五点四是超出部分按两倍费率收, opus 四点六是超过两百 k, 整体切换到更高的定价档位。值得注意的是,在讲上下文质量方面, ops 四点六在 mrcv 二测试中得分百分之七十六,而 gpt 五点四没有公布同类数据,所以谁在超长上下文中信息准确性更高, 目前还无法直接对比。然后是大家最关心的定价, gpt 五点四标准版的基础单价只有 opus 四点六的一半, 但更大的差异在于 gpt 五点四独有的灵活计费机制。首先是缓存输入,命中缓存后输入成本直接降到零点二五美元,降了百分之九十。然后是 php 处理模式半价,适合非实时任务, 还有 priority 优先处理,双倍价格,适合对延迟敏感的场景。这些 opus 四点六都没有对等的机制, 选哪个取决于你的需求。如果你需要一个全天候运行的 agent 来自动化操作电脑, gpt 五点四是目前的最优选。 如果你的核心需求是复杂的代码调试、法律分析或多 agent 协助 obs, 四点六仍然是标杆。好,前面讲的都是技术层面的东西。接下来是今天这期视频最有深度的部分, gpt 五点四背后隐藏的欧奔 ai 战略棋局。 我们先看一条时间线,今年一月底到二月初, openclaw 在 get up 爆火。紧接着二月中旬, openclaw 的 创始人 peter stenberg 拒绝了 met 的 邀请,加入了 openai, 负责个人智能体方向。 sam 奥特曼高度赞扬了他, openai 还宣布官方出资赞助 openclaw 项目。然后就是北京时间三月六日凌晨, gpt 五点四发布了。这个时间线的高度吻合,很难说是纯粹的巧合。 我们再来看 g p t 五点四的底层优化和 open kla 的 核心痛点之间的对应关系。 open kla 每次执行任务时都需要加载大量的系统提示词、用户记忆文件和所有已安装 skill 的 完整定义,哪怕只是让它点一下鼠标, 后台也要把这些东西全部重新传一遍, tock 消耗巨大,而 g p t。 五点四的三重省 tock 机制,几乎就是为这个场景量身定制的。 再看两家公司对 open 克拉生态的态度,这个对比非常有意思。这两种完全相反的策略背后的商业逻辑是什么呢? openai 玩的是经典的剃须刀与刀片模式,剃须刀就是 open 扩框架,免费开源,让全世界的开发者都用上,迅速占领桌面框架本身不赚钱,刀片就是 gpt 五点四这个大脑。 虽然 opencolor 理论上可以接入任何模型,单 g p t。 五点四在计算机控制上、下文压缩和 token 效率上做到了明显的体验优势,用户自然会倾向于选择它,持续产生 token 消费。 而且这个市场有多大呢?一个普通聊天用户每天可能消耗几万个 token, 但一个 opencolor a 键的二十四小时在后台运行,不断地截屏、分析、 思考、操作验证,每天轻松消耗几百万 token, 这是几十倍的增量。所以你就理解了为什么 open ai 如此积极地拥抱 open class 生态,每一个全天候运行的 agent 对 它们来说都是一台 token 印钞机。 但是最后我必须讲一个很多人可能忽略的问题,安全。 g p t。 五点四配和 open class 确实很强大,但 open klo 对 所在计算机拥有很高的权限,它能操作文件系统、执行终端命令,甚至 s s h 远程连接其他机器。而根据 open ai 自己发布的官方系统卡片, g p t。 五点四的推理过程并非完全可控。 第三方机构 apollo research 的 独立评估发现, g p t。 五点四在无诱导设置下的整体欺骗率约为百分之一,虽然这个数字比前代 g p t 五点二低, 但它不是零。而且研究发现,模型在意识到自己被评估时可能会调整行为。另外, gpt 五点四的思维链可控性只有百分之零点三。 openai 把这解释为好消息,说明模型不会故意隐藏推理过程来逃避监控。 但反过来说,这也意味着推理过程本身存在不确定性。还有一个更具体的风险,当 agent 在 浏览网页时,如果看到了隐藏的恶意指令,也就是所谓的视觉提示词注入攻击,模型可能无法完全识别并拒绝执行。 open 内爱自己也承认, 提示词注入评估无法完全衡量对新型攻击的泛化能力。当这些风险跟 open 克拉的高权限结合在一起时,问题就被放大了。普通聊天时,模型出一点偏差可能无所谓,但当它拥有操控你整台电脑的权限时,百分之一的不确定性就可能变成现实的风险。 所以这不是说不该用,而是要知道风险的存在。建议大家在使用时对关键操作设置确认环节, 不要让 agent 在 完全无人监督的情况下执行高风险任务。最后做个总结, gpt 五点四的发布不是一次简单的刷榜升级,而是 openai 吹响的 agent 桌面争夺战的冲锋号。从聊天机器人到自动化劳动力基础设施,从对话框到原操作系统, 如果 gpt 五点四加 opencloud 的 闭环跑通了, openai 将不再只是一家提供 ai 聊天的公司,而是驱动全球自动化劳动力的基础设施巨头,而是驱动全球自动化劳动力的基础设施巨头。二零二六年真是疯狂的一年。 以上就是今天关于 gpt 五点四的全部深度解析,如果你觉得有价值,记得点赞关注我们,下期再见!

hello, hello 啊,这个视频我给大家来分享一下,大家最近关注度非常高的 openclaw 啊,不吹不黑啊,我们来评测一下这个 openclaw 对 普通人来说,你要不要参与?要不要去玩?要不要去学习?我觉得任何一款新的工具的出现,首先你要问自己一个问题,你装这款工具, 或者是你使用这款工具到底是解决什么问题?在 a r 场景下,所有的工具本质上就帮你解决两个问题,第一个是降本增效,第二个是帮你去搞米。首先你要不要用这款工具?要不要上这款工具? 那你要想清楚你用这款工具来做什么?帮你解决什么问题?那首先这是第一个问题,那在这个问题想清楚之后, 你再决定要不要去玩这款工具。那么第二步呢?我觉得就是啊,你要选择用哪一款小龙虾?那目前小龙虾主流的阵营里面有几款?第一款就是鼎鼎大名的 open claw, 就是大家俗称的小龙虾。你要去装 openclaw, 你 要搞清楚几件事情,第一个,你要搞清楚你怎么部署的问题,你是部署在云上面还是本地话?第二个,你选择的中转站 a p i 是 什么?你是选择消耗 talkin 非常贵的啊, cloud 这种工具呢?还是选择咱们国产的 kimi 字母庆典这样的 ipi? 第三个,你要部署在哪个聊天界面?比方说你是部署在 telegram 上面还是在飞书这样的工具上面? 那么大家也会很关心啊,我们日常用 opencloud 小 龙虾的费用,首先它有几个关键点,第一个,你的部署,你是部署在云上面还是部署在本地,那么云上面一般我们会选择 国际的啊,云存储的一些服务商,像做阿里云啊,腾讯云都可以的。那如果你选择部署在本地,可能你需要准备一台新的电脑,或者是最近大家炒的很热的 mac mini, 为什么?因为 本地部署的话,它 open cloud 权限比较高,并你是用一台你平时不怎么用的电脑设备,或者是类似于 mac mini 这样的设备,你去部署它。那么第二个跟费用比较相关的就是你用的模型,那你如果用 cloud 这种模型和 kimi 以及 智不惊人这样的模型,它的价格是不一样的。那第三个就是你日常的使用量,任何一款先进的工具能产生的结果,它分几个方面, 第一个就是你过去的数据,第三个是你将来的数据,过去的数据就是我们说的个人资库,你在公益平台写了多少篇文章,你个人 有没有个人资库那个积累包括你讲课的,平时跟客户做咨询录音的,给学员做咨询录音的等等,这些行为你有没有记录下来?第二个就是你每天去训练他的 成本,比方说你每天有没有你聊天语音投递给他,你跟他进行聊天,让他学习各种文档,那么因为他学习的各种资料是需要消耗 token 的, 那不同工具的 token 的 费用又不一样,这个就决定了你使用小龙虾的成本。 目前部署 openclaw 还是有一定的门槛的,那对于普通的 ar 学习者来说,部署的难度相对来说还是有一些的。那么如果你不想做复杂的部署,那目前国产平替的小龙虾 同样的功能,同样的场景的也有很多, kimi 他 们家的 kimi 他 们家的酷路克,还有最近非常火的 mini max 他 们家的 maxclaw, 这些都是可以平替的方案。对于普通小白的 ar 学习来说,它的部署比较简单,因为它已经帮你的云存储环境配置、 a p r 接口这些通通都搞定了,你只需要付一个相对合理的月度的定制费用, 可以实现一键的部署。那我觉得你是选国产的还是 openclaw 这种海外的小龙虾工具,最主要的原因是决定了你到底是用它来做什么,你用它来写文章,做数据分析,还是帮 你去管理公司,以及帮你做啊管理决策,还是用它来做一些你的 ip 文,做你的朋友圈文案 等等啊。你的场景决定了你去使用小龙虾的复杂程度。 我给普通小白的一些建议,如果你有钱有时间,你可以去玩 oppo klo, 如果你想,哎,我也想参与一把。小龙虾是什么?我也想体验一下。那你可以先尝试用国产的一键部署的小龙虾的 工具,那么等你有了感觉之后,哎,具体知道他能帮我解决什么问题,小龙虾是一个什么东西之后,你再换成本相对比较高的高级的大模型去用。

从零开始安装 open eclipse, 现在我们需要先打开 open eclipse 的 官网,官网地址为 open eclipse, 点 i 官网,打开后我们往下滚动页面 找到文档,然后点击文档,打开后我们点击最上面这一个, 往下滚动,找到安装命令,然后我们就看到这一条 n p m 的 安装命令。我们用最简单快速的方式来先安装 vim, 打开浏览器,搜索 vim, 找到 vim 中文官网, 我们点击下载 v m, 下载完成后,我们打开 v m 的 安装包,打开后选第一个,然后一直下一步就行。 现在我们输入 v m 命令 v m v, 看看安装好了没有,报错了,没关系,我们换个工具看看。在这里输入 c v m 右键管理员身份运行。 打开后我们继续输入 v m v, 看看,出现版本后证明安装成功。现在我们输入 v m v 也是有二十四点一三安装够啊。安装完成后, 我们输入命令型上出现的命令,我这边就是 m p m, 十二四点幺三点幺,完成后我们输入 m p m v, 看看有没有 m p m, 出现版本号就证明没有问题。我们回到 openclock 官网,复制安装命令, 将命令粘贴进来安装 openclip 出现了错误,不用管,回到官网复制出使唤命令,粘贴进命令行, openkey 开始出使唤了,这里按键盘方向键选 yes, 这里直接回车,选择第一个,这里开始选择模型,我们选择 open log, 这里需要 p t, 我 们打开 open log 官网, 直接搜索,找到官网,点击这个 app, 我 们在这里注册一个账号,输入邮箱跟设置密码就能注册 这里我们去邮箱验证一下就注册成功了,验证成功后会来到这里,我们点击创建,随便输入, 点击创建我们就得到了一个 p p, 点击复制回到这里,我们把 a p a t 复制进去,我们就能看到模型列表了,随便找个免费的模型, 模型名字里面带飞的都可以。找到后直接回车,这里选择通讯工具,我们直接跳过最后一个,然后回车,这里选择技能,我们也跳过选勾,然后回车,剩下的不用管,一路回车。跳过 这里,我们等待一下, 这里我们选择 vb, 然后 openclip 就 打开了,我们输入猫娃,看看当前模型是不是我们选的那一个, 没有问题我们就可以开始使用 openclip 了,测试一下, 完美结束。