已经将近十天左右的一个时间没有进行总结了,然后今天的话主要针对 a j 的 自媒体开发感试用期第二期到第三期进行一个总结。 从年后开始就基本忙于公司的一个项目,主要最近的话还是做的这个小龙虾的项目,也差不多在这两天上线, 然后目前评估的来看,整体的 token 消耗还在可接受的一个范围内,走一个流程大概就是两到三美金,然后主模型选用的 cloud, 备用模型选的 jimmy, 然后我自己的话主要是,呃负责一个是数据库的增删改,然后泊幕的提示词以及对用户发来的一个数据进行一个校验,然后还有 ab 测试去调整图像识别的一个算法参数。 然后第六部分的话,就是也是最近刚了解到的一种裁剪算法吧,就是从一张图中去裁剪出图像部分,嗯,这个算法叫做版面分析, 然后在小公司的话,虽然工作内容也比较多,但也确实能够学习到很多东西, 然后也特别的幸运自己能够遇到一个,嗯,很好的一个 mentor, 愿意耐心的去教,去引导,感觉自己就是这一个月以来确实进步也很大。
粉丝1759获赞7333

新手想玩 openclo, 到底选哪个平台的小龙虾最合适?怕买贵又担心不会安装?今天一分钟就给你讲明白,记得先收藏起来。先给纯小白科普一下, openclo 本身是免费的,咱们花钱呀买的其实是平台的一个服务器,还有模型的使用权, 不用自己折腾本地部署和对接 a p i 那 重点来了,六家主流平台对比,我将从收费模式、价格、安装难度等维度来帮你筛选出最合适你的 openclo。 首先是腾讯云和阿里云的 openclo, 它们采用的是服务器加模型收费的模式,优点是便宜,这里推荐阿里云的 openclo, 只需要十八块钱就能够拥有一只自己的小龙虾,但缺点是需要折腾两次付费流程。而且考虑到很多人连服务器是什么都没有搞明白,非技术人员呢,就可以直接 pass 掉这两种了。直接看下面四种就好了。 kimi clo 先排除, 因为它太贵了,且不说功能和其他几家相比起来大差不差,光订个会员就需要一百九十九块钱,直接就是一个劝退了。从价格上来讲,我更推荐火山引擎,它有九块九体验七天的一个套餐,别看时间只有七天,我 敢打赌百分之九十的人呢,在装了 oppo nano 不 到七天就会放弃了,如果是想尝鲜的话,这是一个不错的选择。最后是扣子跟 mini max, 也是我最推荐的两个, 质量其实差不多,一个四十九块钱,一个三十九块钱, mini max 会更便宜一些,但扣子的生态更完善。这里有很多大神已经做好的 skill 呢,可以给 openclaw 来调用,大家可以根据自己的需要来进行选择。这六个主流平台的 openclaw 安装指南,我也整理了一份完整的文档,点个关注轻松获得。

本视频是免费使用 micro 模型的教程,首先打开 openraw 的 官网,点击右上角的个人,点击活动,点击 ipi 密钥,点击创建, 填好之后就可以,注意额度,别填零会报错,零点几就可以。搞好之后点击复制 pi 密钥,然后去使用 on board 或者 config, 设置好 pi 模型名字可以去这里复制。 重启 open q 二之后就 ok 了,注意免费到二十五号哦。

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

想让你的额崩破龙虾更强、更听话、反应更灵敏吗?今天我就手把手教大家怎么给它配置付费的 apikey, 彻底释放它的全能性能。如果你现在还没安装好额崩破,先别看教程了,直接私信我,我先帮你把它跑起来。好,咱们言归正传, 想要额崩破变强,你得先了解付费 apikey 的 两种省钱模式。第一种叫可定 plan, 你 可以把它理解成自助餐,按月收费。 如果你选择基础套餐,每个月定死一个价格,每五个小时给你一定的调用次数,只要你不是二十四小时,不停的疯狂折磨他,这种模式就相当于无限使用,性价比极高。第二种就是开放平台直充,这种方式去超市买菜,充多少用多少, 你往平台里充点钱,生成一个 api key 就 能直接用,每次任务消耗多少特权就从余额里面扣,没钱了再补就可以。这种模式有个好处,只要你累计上到一个档次,一般都是五十块钱,它给你的接口频率就会非常非常高,用起来非常丝滑,而且不用不扣钱。那到底选哪种呢? 如果你追求极致的性价比,选第一种,如果你想随用随取,不差那么点差价,选第二种。接下来咱们直接上实操。先说追求性价比的方案,我推荐大家用 mini max, 我 们先打开电脑,进入 platform, 到 mini max 点 com 这个网址,点击右上角的订阅套餐,选择连续包月 没看到六个档次。如果你只是平时偶尔用用,选最低基础的二十九元一个月就够用到个人最推荐的四十九元那个档次, 这简直就普通人的天花板,完全够用,这六个坑大家别踩上面那几百块的极速版,如果你不是 ai 超级,即刻千万别乱充,那是纯纯浪费钱。这个时候后台会给你发一个 api key, 把它复制下来。如果你想用更聪明的模型,我直接选择第二种方案, 直接充 kimi。 kimi 的 模型在国内是出了名的聪明,而且自带超强的联网搜索。我们来到 platform, 到 miniso 登录之后,去用户中心,点击左侧菜单的账户总览,然后点击充值。 这里我建议大家首次直接充值五十块,充五十之后,你的调用频率限制会大大宽放,用起来不会卡顿,而且首次充值还会送你十五块的代金券。 充完之后,去 apikey 管理创建一个新的 apikey, 同样点击复制。拿到 key 之后,最后一步也是最关键的一步,怎么把它塞进龙虾的脑子里?我们在终端里输入 opencore config, 按回车,这时候会出现一个菜单,让你选 model provider, 也就是模型供应商。你 充的是 kimi 就 选 kimi, 充的是 mini max 就 选 mini max。 需要后直接把该复制的串 apikey 粘贴进去。 接下来的几个选项,大家如果没有特殊要求,就一路选择,无脑跳过就行。等屏幕显示配置成功,你就可以回到额本库的控制端,开始认认真真养一只属于你自己的超强数字员工了。这期视频讲的非常细了, 如果配置过程中有什么卡住的地方,或者你还没有装上额本库,直接私信我,你学会了吗?学会了赶紧去试试,我们下期见!点赞收藏、关注!

我引用了两亿的免费托盘来养龙虾,前两天发的关于免费养龙虾就是 open globe 的 视频火了,呃,很多朋友私信我,我也帮很多朋友解决问题。那今天答应大家出一个完整的视频教程,我是用的 mac os 的 系统,然后呢,接下来是以 mac 教学为准,而 windows 的 话呢,可能大家可以问问豆包或 tipisk, 一 步一步截图问它都能解决的。 那可以看到这里我是消耗的是零元,对,然后我之前的 a p i k, 嗯,网络速度也慢了,不好意思啊。对,你看到也是零元的状态。嗯,然后我们进入到那个 opencode 的 官方网站,对,它其实是 opencode 点 ai, 然后有个文档,上面呢,其实会有一些安装的说明, 因为我已经装过了。看,这是我的小龙虾的 space 状态,可以看到它是正常的一个状态。所以说我们这边重新带大家走一下那个新手引导的一个配置,然后其实我只要复制这个命令,然后打开终端里面, 然后输入这样一个重置的新数引导,那就相当于会进入到配置过程,它是麦上的终端,终端 app 搜索一下就可以了。然后我们重新进入引导,快速引导,然后更,这里因为我之前配置过,所以说会有之前的配置,那我们这里选更新配置, 到这一步呢,就会选 model, 就 模型的供应商啊,它这里有 open ai, 有 mini max, 也有谷歌,那我们是 open rota, 免费的模型就选 open rota, 这里有,然后大家可以看到有这样,这里有这样多非常多的模型,而我们的模型是什么呢?就是, 呃,叫做那个 jason 星辰就 stay fun 三 new flash 就 free。 呃,它其实是这样一个模型 id, 哎,复制一下。对,它现在在那个,呃小龙虾的榜单上,哇 啊,可以看到,就是已经消耗了一点五四五 t 的 图片,免费的。对,就是排名了很多天的第一。那么回到刚刚的配置界面, 呃,这里呢,其实是可以通过那个方向键就上下左右的上下来控制,因为它太很多,就是你一个一个找到肯定能找到的。但是呢,它这里提供了一个就是输入,对,输入 enter model。 那 我们这里选进去之后呢,把之前的这里删掉,因为要留一个 open road 的 默认的前缀,所以说我们这里,哎,对,输入进去, 这样就 ok 了。呃,我之前设置这里到这个环节呢,是设置那个我们用哪个 i m 去控制去连接?我们这里先跳过,然后这里的搜索呢?其实也可以先跳过, 然后跳过之后呢?就是,是不是那个呃,调调成近的,那我们这里选择一直跳过,然后这里是 no, 对, no, no, 这些是一些具体的一些设像,我们选 no, 但有需要的话呢,大家可以呃,就说 自己去设置。那我们只是今天先讲模型的过程,那我们选重启。哎,对,然后这个,呃,小龙虾的服务就在重启,我们刚刚重新走了一遍新手的设置。那,那我们现在等待它重启。对, 好,它就这里重启成功了,然后那我选择打开网页, open the web y, 哎,它就会自动打开网页,对,就刚刚的网页重置了,然后我们这里输入一个 states, 相当于就是可以看到它当前的一个状态, 然后返回一个当前的状态。 哦,好像说错了秘密了,应该是 s t a u t s? 不好意思 啊,反正没关系,它好像识别了。嗯,对,可以看到我这里配置的是基于新成的模型,因为 p i k 呢,其实我之前已经配置过了,所以说它,呃,不会让我重新再配置。 对,这里显示一些中文。对,然后这里的模型的配置呢?其实我们就回到 openroot 点 ai 这个网站,然后呢去创建一个新的 a p i k, 比如说我们今天是来自于抖音,嗯,点抖音,然后这里的信用额度限制呢,我们选个零点一美金,相当于其实花钱的话也 最多就七毛钱。然后这个额度的重置呢,我们不用不用管它永久都是零点一美金,就是七八毛钱,过期时间一年。那相当于我们就会有一个 a 四值大小按钮。很多朋友也都问我怎么复制, 哎,这就复制好了。这个 k 呢,其实是是在刚刚的配置环境里面,选模型的环境里面,它会让你有一步调配置的,因为我刚是已经配过了。然后呢,如果是你已经是正常的模型了,其实本质上你已经配过小龙虾的话,你在这里输,输 k 给他,然后输模型给他,然后把那个 open source 这个网站输给他,其实也能切换,正如正如我刚上一个视频讲的, 还有就是说,呃,我们在那个呃 open note 的 这个网站呢,它不光,它不光有很多的那个付费模型,它其实是我们在 mod 这里去输的话,你输 free, 它除了接下来三点五,还有很多免费的模型, 对,包括之前的智普的四点五的 air 是 免费的。英文答,有很多模型其实都是免费的,包括 open air、 gpt。 其实也有免费的模型开源的,包括千问。啊,这个千问三呢?其实是,这是一个专门用来编程的一个模型,也是免费的。其实有很多,大家其实可以是一个个去找。对, 然后技能商店的话呢?呃,腾讯最近两天出了一个,呃,中国版的 skill hub, 呃,它本质上呢,其实是在可融 hub 技术上呢,其实做了一个技巧战,呃,这个其实也不错的,然后,呃,你也可以去那个可融 hub 去下载一些技能。呃,腾讯这个专为中国用户呢,它会有个榜单, 你相当于就是你看这里有一段话,看见没有,相当于就复制下来。呃,发给小龙虾,对,他就会去检查,帮你安装这个技能商店,然后你就可以和小龙虾对话,去在里面找更多技能去安装了。我是之前已经安装过了。对,那我们今天就这样。

给养小龙虾的小白点评一下国内几个大厂出的订阅包啊。从吭到拉 排名,首先火山云的出来挨打,你的扣费系统百分之百有问题。拉中是拉,拉完了,两百块一个月的 pro 套餐还不如人家四十块钱的耐用,而且在不用的情况下你也能产生这个请求次数扣费我实在是搞不懂,我不理解。 某度介于普通和拉之间嘛,模型选择比较少,而且自己家的模型也没有,估计是对自己家的没信心吗?对吧?而且它没有多模态模型,纯文本模型啊,这个不考虑。 呃,企鹅家的处于普通, 也是纯分本模型少了多模态的,你作为这个补充类的可以,但是不能作为主力用啊。多模态就是你少了一个视觉理解的这个功能啊。 然后这个是对吧?云百炼这个是夯,夯到顶的那种啊。这个套餐两百一个月足够你用了。 要多模态给你多模态,要 gm 杠五给你 gm 杠五, kimi 杠 k 二点五, mini max 杠 m 二点五全给你了。除了一个 deepsea v 三点二没给你以外,这个是日常,我们个人用是肯定是够了。 mini max 建于人上人和吭之间,主要就是它划算,是特别特别的划算,它最低档的那个套餐都特别耐用,不知道为什么。 你买这个的话一般买个最低档的套餐就行了,然后它也是多模态的,但是视觉理解要单独调用工具。 然后这个 kimi 杠 k 二点五啊。 k 二点五的话,如果你接触 api 的 话就是普通,因为特别贵,按托根机费。按托根机费的啊,这个用起来特别贵,但是如果你买它的那个 app 上的那个订阅包的话,那就属于人上人吧,给个人上人, 然后大头 g m 杠五,这个只能算是人上人和普通之间了,主要是它的扣费, 你买它的订阅包以后它是按倍数扣费的,看到没有?高峰期三倍,然后普通期的话是两倍。如果你调用五点一五和五这个加强版啊,然后而且另外一个就是你如果接受 open call 的 话,它的权重也会比较低,就是优先保障它自家的那个, 那那个小龙虾,其次才轮得到你。所以他把这个去了就是夯,夯到顶,但是他有这个东西,我只能认他为普通。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

如果你真的去用了 oppo, 那 你就会知道他有多难用。发完消息没声了,联网查点东西要配 a p i, 但有的时候他又能查到,这种时刻我就很惊喜,我说这可太好了,你刚是咋干的,记一下以后就这样搜,结果呢,没两天他就又忘了,然后跟我道歉,这期间压根就没记。 其实都不是什么大事,但官方的这个默认配置,它就用着各种不爽,这些坑我每踩一个就解决一个,然后让 ai 把经验总结一下,最终把它们汇总,形成了这一整套的 skill。 双击加关注啊,私信优化龙虾这四个字就能够自动获取。这个 skill 全程只用跟你的小龙虾对话,就能把整个的优化流程给做了。 简单去演示一下,然后官利回答一些弹幕的疑问,直接给你的小龙虾发送这条消息,他就会告诉你我们开启了一个 open cloud 配置优化向导。第一步是备份,他会备份你的整个 open cloud 程序,万一出了问题,那你就直接解压就能恢复,这个是最起码的保障。 整个 scale 分 为四层,那第一层是基础的优化,这几个功能我都很建议打开,比如说消息回执,原先你发了消息就只能干,等打开这个他处理的时候就首先会给你点个引猫记,直到他收到正在处理了,这个真的能够极大的缓解你的焦虑。这个记忆功能,如果你打开增强和每日规章,他就会在你上下文快满的时候强制去写入一次记忆, 并且在每天晚上的十一点钟最佳总结一次。第二轮他会根据你之前选择的渠道进行优化,然后是第三轮,我推荐了一些我自己觉得还不错的 scale 啊,大家就各取所需,这个具体就不展开说了。然后是最后一轮,我写了一个渠道的添加向导, 反正我个人是在用了飞书之后,就会好奇说其他的渠道他的体验什么样的啊?我就假定大家跟我一样就玩了一阵子,就想试一试其他的渠道,所以我就把我自己整个介入的过程都录了一下,并且总结成了一个非常详细的步骤,你去按照这个来做,同时把各种需要的信息去发挥,你的小龙虾他就会帮你自动配置好。 好了,这个 skill 我 们就先说这么多,接下来呢?啊,我来看看弹幕,有朋友说你 open cloud 推荐什么样的模型。嗯, 这个问题其实我可能跟其他的博主有点不太一样啊,我曾经也是一个盲目去崇拜大参数大模型的人,比如说 cloud 或者是真未来。 那用了小龙虾好像会发现没有必要,因为他更多的时候就是去啊调用各种工具去搜索,定时删改文件,那只要这个模型的 a 帧能力他够用,调用工具的时候能够准确的识别你的想法,那么在速度快价格低的情况下,我觉得世界知识或者说智商他差一点就是可以接受的。 当然了,如果你侧重的是生产力的编程场景,那其实大家都会去用那个 cloud code 或者是 codex 这样成熟的编程 agent 啊,他就需要去理解整个代码库的各种依赖嘛,然后与异的关联模型能力越强,他就越能做出正确的判断,就是编程这种场景,你还是去用最顶尖的模型去干吧,它能省不少的事儿。 我自己其实已经收集了有一百八十多家中转站啊,也确实是阅战无数。在这里呢,我会推荐一个我自己在用的比较稳定的 api 中转站,叫做接口 ai 这个平台,它是集合了各种顶尖的闭元模型,国 外的四大顶流模型它都有,需要写作,我还是推荐你找世界知识更强的 jimmy, 它就是有点慢,需要编程。那我还是推荐你用 cloud, 它就是有点贵。 而我刚刚所说给小龙虾用一些更快更清亮的小模型,比如说 mini, max, kimi, 还有质朴这边也是非常的齐全,只需要用他的一个请求地址填上密钥,你的钱软件就可以瞬间多上几百个模型,充一份钱,想用哪个就用哪个 好。第二个问题我,我看别人 u 盘卖了二十六万,但安装一单两百,我看的心痒痒,那你怎么看? 就是你心痒,谁不心痒呢?就这个事也能理解,但是最近也确实是有点太魔幻了,从线上到线下各种活动,到现在开始付费卸载,就在我的概念里,安装它不就是一行命令的事吗?那卸载也是一行命令的事啊, 我知道,就是电脑的环境,网络连接啊,命令行大家可能不习惯,这些都是一些门槛,但是玩过的就都知道,其实难的肯定不是安装这部分,而是在这个过程中的各种坑啊。就像我这些做的这种 scale, 其实就是结合了这么多坑的一个精华, 那在我看来,这些才是比较有价值的部分,从我自己的价值观来说,你去帮别人安装我觉得不太好,因为会给他增加一些这种安全隐患。 而且呢,啊,你装完对吧,你是去收了他的一笔费用,那他后续又去用了各种厂商的模型,钱又进入这些厂商的袋子里面,他呢,玩着玩着感觉好像也没啥劲,就放那不管了。那我觉得这种其实还是有点不负责任的, 大家也都关心说 oppo k o l 怎么变现啊,也确实,甚至有人发私信问说,哎呀,我不了解 a a, 但我想赚钱,你能教教我吗?可以,有偿。 那其实答案通常就写在明面上了,但是这种我就还是拒绝了代安装付费咨询,就这种有点割韭菜的快钱我还是不会去赚的,反正还没到这个饿死的程度。而且这期视频你别看我说什么三连关注啊,什么私信, 其实这个录屏里就已经有我那号命令了呀,你直接截个图就发给你小龙虾就可以了。这个 sky 我 也没有什么藏着掖着的,社会战前,其实我想象中有价值的变现方式,其实是用小龙虾去做一些比较成熟的解决方案,能够呃帮一些人或者说一些行业去解决一些问题。 这种卖解决方案肯定还是最高级的,但是目前他不太成熟,我也没有见过有做的特别成功的,再稍微低一点,我觉得我也能做的,其实是去卖课。说实话我不觉得这是贬义,就比起你那些单安装啊,实打实的去教会你这个东西是怎么回事,把它给讲透,这个肯定会负责的多。 嗯,但大家也不一定都有这个耐心去学,而且这个时间点其实也有点晚了,该学的也都学会了,不该学的可能他也不感兴趣。嗯,后续应该也会有各种厂商去做一些简化的安装步骤,或者说各种方案出来。嗯,所以这个可能我也不会去做了。 好,我们看第三个啊,看了你两期视频了。好,谢谢啊,上期视频你也看了?我还是感觉 open color 没有什么用。你到底用没用 啊?其实我确实是烧了不少啊,上一期的结论,或者说上一期我确实是想试图去总结这个,解答这个问题,但 阶段他解决的不是一些痛点,都是一些痒点。这个我也认同。我再来说一下我的想法啊,就是如果你是一些传统的重复性的工作,那其实你用 ai 模型其实是费力不讨好的,反倒因为模型会有幻觉,有可能会做错,这种我们就真还不如用传统的程序去批处理。 而真正去利用 ai 模型的创造力做的一些工作,我们也有了 cloud code code s 还有 open code 的 这样的一些成熟的编程 agent, 就 你给他一个需求,人家就先起一个 plan, 然后在分布中去跟你实现,期间去压缩上下文,它也稳定的多。如果你要干的是严肃的大火,那限阶段还得适用他们。 我依然是不推荐你啊,一边逛超市,一边去跟你的小龙虾去聊一些大的火。那小龙虾它自己适合的场景呢?啊,它的核心优势,我上期说了,它就是二十小时在线, 我呢会用它去维护我的网站,比如说我刚那个 a p i 的 中转站,我看到了一个新的站,以往我想去加我真的得脸我的福气,现在我就给他直接发个消息,很随意,这种突发性的小活就很合适。再比如我会突然想到一些点子,那就直接语音输入全部退给他,整理成结构,这种脏活累活就全都交给他。 它的另一个优势就还是在你的本地电脑上运行,比如说我远程连不上我的电脑了,我让他去帮我重启一下 todesk, 我 家的网络卡卡的,我也可以让他去直接重启我的路由器,甚至也可以去控制家里的开关,或者说电视投屏。 对啊,其实说来说去就这点事别的软件都能做,它还是一些洋点,但如果你把这东西全部串起来啊,都有一个入口来操纵的话,其实还挺爽的。 而且你要知道他现在还是一个初步的阶段,就之所以你现在觉得他没什么用,是因为他的生态还没有形成,而且他的出现其实已经在瓦解,各种互联网大厂去花了那么多年形成了一个壁垒了,我个人是依然看好的 他虽然有一些泡沫的成分,也有人说他去啊,是一些厂商去卖 taco 对 吧?故意的这么一个机会,就如果你保持理性啊,不想去参与这场闹剧,我觉得也没有关系,你这样大概去了解一下他的现状也就够了。 好,这期视频呢,我们就先录到这啊,我是大黑,希望以纯人工的方式向你去分享智能。那我们就下期再见。来吧,跟大家说再见,拜拜。

别被大厂忽悠了,现在各家风推的 oppo core 根本不是什么免费的 ai 工具,它就是一张 ai 时代的手机卡。你以为小米、腾讯、阿里 mini max 是 在给你送免费的软件,送免费的 token 吗?错!大错特错! 免费只是为了把你锁住。就像好多年前,运营商疯狂的给你送手机,他不是在做慈善,只是让你以后每个月都交话费、交流量费。 壳也是一样,今天让你免费用用,顺手离不开明天你所有的 ai 调用工具、插件、任务全都要在他这里花钱。 软件是免费的,流量要收费,入口是免费的,生态要收费,谁拿下了壳,谁就拿下了你未来十年的 ai 月租。看懂这一点,你就看懂了今年整个 ai 大 战的本质。

本期视频分享下我自己部署 openclog 的 实战经验。咱们不炒概念,只讲实操,以及基于实操的真实体会。关于部署环境,网上很多人都在推用 mac mini 或者去租个云电脑, 但我的结论是大可不必。我目前的最终选择是直接在家里闲置的主力 windows 电脑上装一个 linux 子系统来跑,为什么不选其他方案? 咱们先来盘盘这里面的坑。第一个大坑,租用云服务器。我最初上手时图省事,租了某大厂的云应用服务器,五十八块钱一个月,两盒二 g 内存点点鼠标,确实装的很快,但跑起来你才发现,这配置充其量只能算勉强续命。 你要想让它顺畅的跑起来,起码得四核八 g 的 配置,那月租直接飙到了两百二十块以上。最要命的是,云服务器的限制极其多,比如你想让它科学上网去查点 x 或者 youtube 上的信息,连接会非常不稳定,直接断了龙虾的触角。第二个大坑, 买 mac mini。 听说现在十六 g 内存 m 四 mac mini 的 二手价国内都被炒到了四千块以上。很多人花这笔钱仅仅是为了追求所谓的物理隔离,但这背后的代价太沉重了,你失去了用主力电脑上 ai 编程工具来维护它的能力。你把 opencloud 单独扔在 mac 里, 一旦他哪天挂了,你又不懂底层代码,就得重新回去苦哈哈的查资料排错,对咱们普通人的门槛太高了。所以进入正题,为什么我最后选择在主力 windows 电脑上装 linux 子系统?核心原因有三个, 一,底层兼容。 openclaw 本身跟 linux 是 原配,但如果硬装在 windows 系统里,会报各种离谱的错, linux 子系统完美绕过了这道坎。第二,系统级的环境隔离。装在子系统里的 openclaw 有 它自己完整的权限,除非我在 windows 主系统里特别允许, 否则它是绝对碰不到我主系统里的任何进程和核心文件的,完全能实现环境隔离,非常安全。第三点,也是最核心的,是为了适配我个人的情况。 我的主力电脑是不关机的,平时纯靠各种 ai 编程工具来开发写文案管系统,在 e 盘里积累了一大堆的流程规范文档,我需要 linux 里的 openclaw 能读这些文档来附用技能,还需要它能自动迭代更新。 这怎么解决呢?很简单,利用 linux 子系统的磁盘挂载功能,我单独给它开放 e 盘的读写权限,在风险绝对可控的前提下享受最大的便利。 而且因为我不太懂技术细节,如果子系统里的 open cloud 哪天运行出 bug 了,我可以直接在 windows 主系统里唤醒我的 ai 编程助理,跨系统去把它给修了。另外,只要在子系统里装个叫 vpn k i t 的 工具,它还能直接共享我主系统的代理, 科学上网极其丝滑。当然,这套方案真要落地,还是得解决一些技术细节。比如怎么把子系统那庞大的虚拟磁盘从寸土寸金的 c 盘完美迁移到 d 盘。 又比如,我平时是用 team 模式代理来跑 codex 与 antigravity 的, 跟子系统的虚拟网卡路由重叠了怎么破? 再比如最后怎么配置飞书或者 telegram 给它当嘴巴。不过没关系,以上这些坑我都踩过且解决掉了,所有的解决方案我都整理成了一份标准指令文档,即使你换台新电脑,只要把这份文档喂给你的 ai 编程助理,它就能帮你全自动搞定一切。 我是 cc, 分享那些不吹牛的 ai 实战经验,咱们下集再来扒一扒这只龙虾到底能不能当成 ai 员工来用。

如果你最近也在用 open cloud 跑项目,那么我想知道,这个月的 a p i 账单你看的心疼吗?是不是跟我一样,用的时候有多爽,付钱的时候就有多肉痛? 明明只是让他写了几个小项目,改了几版代码,成千上万的 token 哗哗就没了,月底一算账,几千块钱直接打了水漂。别慌,今天这条视频,我把目前全网主流的 callin plan 套餐都给你找来了。 从七块九的入门尝鲜到重度开发的旗舰套餐,哪家性价比最高,哪家不抢就能买,哪家最适配你的常用工具。看完这条视频都能明白,建议所有开发者先点赞收藏,免得要用的时候找不到了。 首先第一个也是目前入门价最低的之一,腾讯云大模型 coding plan。 腾讯云这个套餐核心优势就是两个字,便宜。 mate 套餐日常价四十块钱一个月,现在活动价首月只要七块九。 pro 套餐日常价两百块一个月,活动价首月只要三十九块九。 这个价格对于想尝鲜的朋友来说,几乎是零门槛。用量方面, lite 套餐每五小时最多一千两百次请求,每周九千次,每月一万八千次。 pro 套餐直接是 lite 的 五倍,每五小时六千次,每月九万次请求。对轻度用户来说, lite 的 额度完全够用, 重度开发者的话,买 pro 也能顶得住。模型方面,除了独家支持腾讯的混元全系列模型,还接入了 gmm 五、 chimi k 二点五、 mini max m 二点五这些主流模型、主流编程工具呢,几乎全兼容,像 opencloud、 coldbody、 cursor 这几个直接就能用。 唯一要注意的是,这个优惠价每天十点限量开,抢手慢,无想上车的朋友要定好闹钟。 接着第二个,阿里云百炼定制 plan, 阿里这个套餐跟腾讯的定价体系差不多, mate 套餐日常四十块钱一个月,新客首月十块钱。 pro 套餐日常两百块钱一个月,亲测首月五十块。用量上, pro 也是 light 的 五倍,跟腾讯持平。它的核心优势,第一是独家支持阿里自家的千万全系列代码模型,尤其是千万三 cold plus, 这个在代码生成和工具调用上的表现大家懂的都懂。第二呢,是对阿里云的服务器生态适配拉满,如果你是用阿里云服务器部署 opencloud 相关服务,用它会非常丝滑,而且配置教程很完善, colude code、 client 这些工具都有手把手的接入指南。不过呢,缺点跟刚刚说的腾讯一样,优惠价每天限量抢购,早上九点半开抢,热门时段基本很快就售清了。 下一个字节跳动的火山引擎方舟 coding plan 字节。这个套餐最大的亮点就是独家支持豆包系列代码模型,尤其是在国内代码模型里属于第一梯队的豆包 seed code, 而且现在订阅还能解锁自接刚出的 ark cloud 跟 open cloud 完美适配。价格方面, mate 套餐日常四十块钱一个月,限时特惠,首月九块九。 pro 套餐日常两百块一个月,限时特惠,首月四十九块九。 用量上, light 是 plud pro 的 三倍, pro 是 light 的 五倍,完全能满足重度开发需求,模型生态也很能打。除了豆包全系,它还接入了 kimi k 二点五、 glm 四点七、 deep sick v 三点二这些热门模型支持手动切换,也能开 auto 模式,智能调度,简单任务用轻量模型省额度。 复杂任务呢,就用旗舰模型保效果,非常智能。而且它对 collude code 的 适配做的特别好,翻翻教程非常详细,新手也能一步到位部署,不用踩坑。 第四个,百度千帆 coding plan 先说结论,百度这个套餐绝对是新手常先的性价比之王。 mate 版首次购买只要七块九,一个月首次续费二十块,常规也才四十块。 pro 版首次购买三十九块九,首次续费一百块。跟腾讯视频用量上, mate 是 每月一万八千次,请求 pro 每月九万次,跟腾讯云一样完全够用。最关键的是它对 opencloud 的 专属适配适历从配置文件怎么改 到 base 五 r l api key 怎么填,一步一步教新手,照着做就能搞定,完全零门槛。模型方面,默认用 kimi k 二点五,同时支持 deepsafe v 三点二、 g l m 五、 mini max m 二点五这些主流模型。唯一的小遗憾就是不支持百度自家的文星大模型,不过不影响日常使用。讲完了腾讯、阿里字节、百度四个大厂,下面我们来看看垂直大模型厂商的套餐。 第五个,先说智普的 g l m coding plan。 智普这个套餐核心就是冲着 g l m 大 模型的用户来的,如果你是 g l m 五、 g l m 四点七的重度用户,选它准没错。 grm 五在 coding 和 agent 能力上已经做到了开源模型的搜查使用,体感非常接近 cloud ops, 用来跑 open cloud 的 复杂任务,效果特别好。它的套餐分了三档, light pro max light 是 cloud pro 的 三倍用量, flower 是 light 的 五倍, max 是 pro 的 四倍,能覆盖从入门到重度开发的所有需求。 而且它支持智能调度、简单任务自动用轻量模型省额度,复杂编程自动切旗舰模型,非常省心。价格方面, mate 按月是四十九块一个月,按季更划算,一百三十二块一季度。 pro 按月一百四十九,按季四百零二。 max 按月四百六十九,按季是一千两百六十六。唯一要注意的是,它也是每日限量供应,每天十点补货,想入手的要卡点。 第六个是 minimax coding plan, minimax 这个套餐最大的特点就是档位多,选择灵活,从入门到顶级发烧友都能选到想要的档位。标准版分了三档, starter 二十九块一个月,每五小时四十次。 prom plus 四十九块一个月,二点五倍 starter 用量。 max 一 百一十九块一个月,七点五倍用量。还有极速版,从九十八块到八百九十九块, 满足高病发极速响应的需求。套餐的核心优势呢是 mini max 自家的 m 二系列模型,它在代码生成和工具调用上表现很稳,尤其是上下文的代码理解效果很不错。 缺点也很明显,只支持自家的 mini max 系列模型,不支持第三方模型。如果你只用 mini max, 选它没问题,想换模型的话就不太方便了。 接着第七个, kimi 编码相关权益这里要跟大家说清楚, kimi 其实没有单独的编码 plan, 它的编码功能是包含在 kimi 会员体系里的。 会员分了四档,从四十九块一个月的 indent 到六百九十九块一个月的 lego, 不 同档位对应不同的用量限额。优势在于 kimi k 二点五的超长上下文能力,这个不用我多说,用过的都知道,处理超大代码库,超长文档效果特别好。 缺点也是只支持自家的 kimi 模型,不支持第三方,而且不是专门为 coding 场景做的套餐,针对性不如前面几家。 最后一个,快手 quick cat coding plan 这个套餐可能很多朋友没听过,它是快手万晴平台出的,核心是自家的 cat code pro v 一 模型, 这个模型在 a a 榜单的非推理模型赛道拿过第一,前端生成的美感和实用性做得特别好,如果你是前端开发者,可以关注一下。价格方面,入门的 mini 套餐日常二十九块一个月,限时特惠,首月八块八,每五小时四十次。 pro max 最高的 max 套餐二百四十块,每五小时一千次。 pro max 重度开发也够用。缺点还是只支持自家的 cat 系列模型,不支持第三方,生态丰富度不如大厂。好了,八家套餐给大家说完了,肯定有朋友会问,这么多套餐,我到底该选哪个? 别着急,接下来我给大家一个保姆级的选购指南,分四个维度,看完你就知道自己该充哪个了。第一个维度看你的使用强度,如果你只是想尝鲜体验,每天用一到二小时,属于轻度用户, 直接闭眼充七到十块钱的入门套餐就行。腾讯云 night、 百度千帆 night 首月都只要七块九, 快手迷你首月八块八,火山引擎 mate 首月九块九。这些套餐的月度额度足够你每天跑五到十个中等复杂任务,性价比直接拉满,就算踩坑也没什么损失。如果你是重度开发者, 每天要用六小时以上,或者多终端多实力同时跑 open pro, 直接上 pro 及以上档位。 比如说腾讯云、百度千帆、阿里云、火山引擎的 pro 套餐,每月额度都是九万次,请求是入门款的五倍,还支持更高的开发, 多项目同时跑也不会限流,完全能满足重度开发需求。第二个维度看你的模型偏好。这个很简单,你平常用哪个模型最顺手?就选对应的套餐。常用混元选腾讯云, 常用千问选阿里云,常用豆包选火山引擎,常用 timi, 上下文选 timi, 会员常用 mini mess, 直接充他家的套餐。大厂的套餐基本都支持多款第三方模型,而垂直厂商的套餐大多只支持自家模型, 大家按需选择就行。第三个维度看你的工具生态。如果你是 cloud code 重度用户,优先选火山引擎方舟和阿里云摆列, 这两家对 cloud code 的 适配最完善,官方教程最详细,不用自己踩坑。配置,如果你是 qn code 的 用户,直接闭眼充阿里云百联原声适配体验拉满。 如果你是纯纯的 oppo pro 新手,优先选百度千帆,官方直接给了 oppo pro 的 专属配置试例,照着填就能用。第四个维度看你的预算,预算十块以内尝鲜腾讯云百度千帆的 light 套餐,七块九,首月首选, 预算五十块以内,月度稳定。用阿里云、腾讯云、火山引擎的 light, 续费款二十到四十块钱,一个月完全够用。 预算,一百以内,重度使用大厂的 pro 套餐,首月款三十九块九到五十块,这个区间性价比最高。最后跟大家总结一下, open cloud 这波热潮确实把 ai 编程的门槛拿到了前所未有的低, 但也让很多开发者踩了 api 账单的坑。而 coding plan 的 出现就是用包月订阅的方式,把我们的开发成本直接锁死, 让普通开发者也能毫无负担的用上最顶尖的 ai 编程工具。当然也要提醒大家,这些套餐的首月优惠基本都是一个认证主体,只能享受一次,而且大多不支持退订退款,大家入手前一定要看清楚规则,按需购买, 别盲目冲最高档位。好了,今天这期 coding plan 就 介绍到这里,欢迎大家和我分享。你用 opencloud 最多的场景是什么?你最看好哪家的 coding plan? 如果你还有什么私藏的高性价比套餐,都可以打在评论区一起交流。如果觉得这条视频对你有帮助的话,也别忘了点赞、关注、收藏、 转发给你身边正在被 a p i 账单折磨的开发者朋友。后续我还会持续更新 opencloud 的 使用技巧和避坑指南,我们下期见。

零元带你体验在云服务器上部署官方 openclo 首先我们用到的是腾讯云服务器,打开腾讯云服务器, 登录完之后,这里有免费试用。腾讯云服务器给我们提供了非常多免费试用的服务器,我们通过完成个人认证之后,就可以在晚上零点之后可以立即领取,领取之后我们回到首页,点击控制台,控制台这个位置 就有清亮应用服务器,直接给它点开,点开之后这里就是你领取的服务器,直接点开,点开之后首先我们需要给它重组系统,点击重装系统,点击使用应用模板 openclock, 输入自己的密码,无需备份,直接重装,点击确定,随后我们回到刚才服务器的开始, 点击这里应用管理,在这里可以配置你想使用的模型以及使用它的渠道有哪些模型优先建议选腾讯云 deepstack, 这里不需要调用 api key, 可以 直接一键增加并应用。随后这里有通道,通道中给了这几款应用的渠道,我们首选飞书, 点击手动配置,直接点击详情。进入飞书开放平台之后点击登录,登录完成之后点击开发者后台,在开发者后台去创建属于自己的应用,输入应用名称以及对他的描述,直接点击创建。 创建之后这六个凭证与基本信息这里就出现了 app id 跟 app script, 点击复制,再回到这里配置这里复制,再过来 ctrl 加 v, 直接增加并应用,这里就可以看到它是属于正在运行中。 here 目前 我们初级配用可以先不用到,之后自己想进阶玩法,想提升自己的 open class 的 时候再来处理相关 skills, 随后这里配置好之后,我们来到飞书点击增加应用能力, 增加机器人,这里显示出机器人之后即为成功。随后我们来到权限管理,权限管理我们需要开通几个权限,点击开通管理输入,我们需要给他的权限点击确定开通权限 继续添加,这里的权限是你给他能操作的,有哪些权限在之后的用途当中可以自行添加。 随后我们点击事件与回调,事件与回调部分,进入方式全部都选择长连接,要注意的是我这里是在给大家进行演示,实际你在保存之后,他这里是没有红色字的, 要是你这里没有点击一键添加并应用的话,那你这里就会选择红色。这里保存之后我们来到回调设置,回调配置当中也选择使用长连接接受回调点保存点回事件配调增加事件, 选择两个,一个是信息已读,另外一个是接收信息。随后我们在这里创建新的版本,比如说一点零,点零,这就是你的初步版本更新说明, 随后我们直接点击保存就可以了。随后我们重新打开这个控制台,然后直接点击进入, 进入之后需要给他扫个码,成功之后直接登录,登录进去,在刚才调出来的飞书,直接在这里搜索属于你的这个机器人,随便给他发一句话,然后他就会给你发这一段, 发这一段之后把最后这一段给他复制粘贴一下, 点击回车, 当这一部分出来的时候就是成功等待。

先投入三万六人民币,就能打到二十四小时印钞机。最近 opencloud 真的 太火了,火到有人花钱找人上门安装了。大家好,我是尚明君。 opencloud 不是 开云软件吗?怎么安装还要收费啊?打开购物软件,搜一下密麻麻的袋装服务,看的人目不暇接。随手往下一翻,发现 opencloud 袋装已经是一套成体系的服务了, 网上远程安装的费用从几块到几百块不等。比较神奇的是,对于选择这种袋装服务的客户群体来说,好像价格高一点比价格低一点更让人觉得靠谱。 像这家开价三百的远程安装服务,有超过两百人付款,而另一家要价八十,还花钱挂了广告,成交量却只有前者的一半, 平民玩家的部署费用如此。再往后翻到了所谓的企业级部署和炒股预测模型所需要的带装费用,轻则报价几千上万,夸张的有两百万的,不知道到时候是不是老黄亲自上门给我安装。 那你要说这安装费贵吧,现在的袋装服不仅给你安装 openclaw, 有 的还上门做饭,哎,这好像就有点香了,要是还肯往上加钱,还有更多特色服务。有些东西贵却是有它贵的道理。 其实 openclaw 这波不单单是让国内的用户疯狂,国外的韭菜涨势也挺喜人的。这个名叫 set up claw 的 服务商就是专门提供 openclaw 袋装服务的,包它从三千美元到六千美元不等。 在这个像模像样的官网上,详细介绍了 openclaw 是 什么,以及你为什么应该选择它们的服务,再加上不满意百分百退款,专业真诚,要不是余额不足,高低得下单,一个 三千美元着实有点贵。于是我再看看其他便宜的。一通搜索后,我找到了这个在一个叫 awesome openclaw 的 github 项目中,有个专门对比第三方袋装服务的列表,其中详细列出了市面上不同袋装服务的价格和服务内容,要价大概从十美元到两百美元不等,换算成人民币的话, 差不多刚好和国内的物价匹配的上购买力平价在这块发力了。便宜的只要九块九,贵的也能专门克制化。 open club 的 袋装服务可以说是老少咸宜,总有一款适合你。 但是只要咱们稍微在该项目中往上翻一翻,就会发现,它一开始就列出了 open club 详细的安装和使用步骤,甚至还有 open club 的 发展历史和对于硬件的最低要求。可以说你根本不需要花钱就能独立实现部署。 就算枯燥的文字看不下去,网上随手一搜也能够找到大量从零开始未泛级的详细教程。既然如此,为什么还有那么多人找代装服务呢?答案可能很简单,就是 open class 实在是太出圈了,火到一个完全不懂计算机技术的人也听过同时也想使用的程度 了。这就催生出了一个充满讽刺的韭菜悖论,越是对计算机一窍不通的人,越没有办法独立安装。越没有办法独立安装的人,越迷信这玩意是个电子摇钱树,也就越心甘情愿花钱找人 装在袋装卖家的嘴里。操作 open call 的 流程是这样的,安装睡觉醒来暴富,但真实客户体验到的流程却往往是,不会安装花钱袋装,装完不会用,花钱买教程, 操作完不赚反馈,花钱进高端群学习,到最后真正赚到钱的,是提供袋装服务和卖客的事情。如果只是外行被割韭菜,那顶多算个常规喜剧。但再往下挖一层,你会发现它背后可能还藏着一个赛博套娃的故事。 前几天我在 reddit 上看到个帖子,其中版主提到有人同时操控四百个机钱到处发 openclaw, 简直是印钞机 a g i 已经到来,再不用你就被时代淘汰了一类的帖子。 再回忆一下我自己经常刷到的用 openclaw 搞副业赚钱的视频,两厢结合,我一下误了,为什么袋装生意能这么火?因为这家伙有神态闭环啊!白天我发怎么用 openclaw 帮你赚钱吸引流量,晚上我就挂九十九块包安装用 openclaw 赢在终点线的单子来变现。更乐的是,我们都知道 openclaw 最擅长的事就是模仿人类完成重 的操作,也就是网络水军。所以搞半天我学 openclaw, 然后操作 openclaw, 不 停发铁,让更多人加入到学习 openclaw 的 过程中来,就能用后进者的钱来补贴先进入者。以前割韭菜的镰刀需要用手挥,现在这家伙也能全自动了。

opencloud 太火了,大家都想养一只电子虾帮自己干活,但很多人刚进坑就被成本劝退了。今天老兵带你算算,养一只虾到底要花多少钱? 第一笔是房租,最好的方案是家里的闲置旧电脑, windows, mac, linux 都行,把它当服务器用,成本只有电费。还有一种是租各种云服务器,一个月几块到十几就行, 这就是穷养。第二笔是伙食费,千万别用按量付费的 api, open klo 思考,一次就能跑几万头,捆几天就能把你吃穷。 必须买包月套餐,成本固定,随便吃。记住,模型决定了虾的智商,套餐决定了你的钱包,有了房和粮,还得有耐心。现在的 open klo 还是个玩具,不是员工,你需要陪他聊,叫他 do skill, 慢慢调教, 别指望他马上能替你上班,他现在能不给你捣乱就不错了。养虾是乐趣,不是生意,你的虾养活了吗?

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

来看一下 openclock 两天消耗了多少钱?十九万积分,看看明细,主要是在联网搜索大语言模型, 语音大模型还有内容处理,一共消耗的是二十万积分,差不多。看看积分怎么积分,这里我们可以看到一块钱是一千积分,那么二十万积分就是两天消耗了两百块钱,当然这和你的任务相关。你们觉得养一个 openclock 这样的费用怎么样?再见。

openclore 很 强,但我劝你真别跟风装了,甚至可以说百分之九十九点九九的人都犯不着去折腾 openclore。 当然尝鲜学习是没错的,如果看完视频大家还想试试,我们也在后面给了大家一些实用的建议。首先毫不夸张的说, openclore 是 今年目前为止最火的 ai 产品, 只要把它装在电脑上或者部署到云端,咱在聊天软件里动动嘴皮子,这个 ai 助手就能帮你完成任务。当然,前提是大大小小权限都给到位了。 又因为 colo 这个单词有小龙虾钳子的意思,所以 open colo 又被大火们戏称为小龙虾,网上各种服务也满天飞,只要花上上百元,就能找人来帮你装上最新最前沿、最炫酷的 open colo, 成为一个云上养虾人。光是上门小龙虾安装一次收费五百元,已经有人号称几天赚到了二十多万, 甚至腾讯直接在深圳搞了个线下活动,免费帮你装机龙虾直接火到超出了小马哥的想象,属于是一代人有一代人的鸡蛋要领了。 这一切看起来是个蛮不错的生意,但是我还是想说,求求各位,别再花那个冤枉钱找人代装 openclaw 了。说句大实话,如果你连 openclaw 怎么安装都搞不明白,那花钱找人代装纯属是赶着当韭菜。 当然,咱们不是要否定 openclaw 这个项目本身,相反,我觉得它很棒,甚至可以说它是今年最让我激动的开源项目之一。但是如果你想着装了龙虾就能立马帮你干活,那你只是在给自己挖坑埋雷。 有没有一种可能,你装不上 openclo, 那 是 openclo 在 保护你。首先,这玩意儿和过去那些 steam 袋装花钱装系统这些传统派的付费安装服务完全不一样, 安装成功还只是万里长征刚开始的第一步,后面的使用门槛其实高得离谱。刚装好的 openclo 就是 一个纯纯的白板程序,在它的预设内容里,只有一个名叫 sod 的 md 的 文件是完整的。这个文件只限定了最底层的底线,叫它温和友善,别干坏事。除此之外,它什么都不知道, 他不知道正在对话的用户是谁,不知道你有什么习惯,他甚至不知道自己是谁。这就导致你在指挥他的时候,就像在带一个连 excel 都没打开过的职场纯萌新。比如,我喜欢熬夜,凌晨三点我给他下指令, 今天上午十点提醒我一下,结果你猜怎么着?他直接把我把日程安排到了明天上午的十点。就为了这么一个破事,我得专门教他理解时间格式,教他去判断用户五进里的今天到底对应什么时间戳。他的出版输出几乎全是浆糊。你必须强迫自己拥有极强的逻辑性,把自己当成幼教去一轮一轮的引导宝宝才行。 想要一个张嘴就会给你递扳手的赛博管家?做梦去吧哥们,在他学会递扳手之前,你得先教他什么是扳手。那你说我花点时间好好教,把他教好了总行了吧?不好意思,这龙虾根本教不熟,你给他下的指令可能随时都会被忘掉。 前几天 mad, 他的安全总监都翻了车。他本想让 open globe 帮忙整理一下邮箱,帮忙看看哪些邮件是可以删的,哪些邮件是自己要看的,还特别叮嘱让 open globe 只能先看看邮箱不能操作。 是没想到自己油箱里的邮件实在是太多了,直接触发了 openclaw 的 上下文压缩功能。结果这一压就出问题了,模型把上面那句只能看看不能操作给直接忘记了。 然后 openclaw 就 开始了原地发疯,删起了它的邮件,不管怎么喊停也停不下来。另外,这个龙虾生活的网络环境也是凶狠异常。大家都知道 openclaw 之所以好玩,是因为社区里有无数开发者写了各种各样的 skills 插件,你想让它干嘛?丢个链接让它自己装就行, 看起来很爽很简单是吧?咱再也不用从头教 ai 怎么解压压缩包了。但问题是,你装进去的这些 skills 真的 安全吗?网络安全公司 corei security 研究了一下,结果发现在龙虾应用市场里,超过百分之十的 skills 都有问题,可以说是一不留神,可能你电脑里的隐私信息就会被 open clock 给陷入个底朝天。 我之前让自家的小龙虾去论坛上冲个浪,结果随便一刷就撞到了,一夜暴富了呀! 并且现在的 openclo 根本不是什么成熟的消费级软件,它就是一个充满 bug 和安全漏洞的实验品,整个项目里的 bug 和安全漏洞多到数都数不过来,随手一搜就能搜到一大堆,甚至连官方都发布了 openclo 的 安全风险提示。 总而言之,只要你的小龙虾跑起来了,那可以说是不管是系统 bug 还是提示攻击?或者是小龙虾自己发疯,它都有无数种姿势,能把你电脑里的隐私给扒的一干二净,而且它发疯花的还是你的钱。 openclo 可不是装完就能免费白嫖的东西。 吃龙虾,每一次他帮你干活、思考甚至只是挂后台监听你的指令,都会疯狂的燃烧你的钱包。腾讯那边的免费安装欧盟活动,前脚刚办完,就有人发帖说自己免费的额度已经给用完了,一天不到就倒欠了十几块钱。海外甚至还有网友睡了一觉,发现自己刚充了二十美元,就被这小龙虾给霍霍光了。 小龙虾把这笔钱拿去干啥了呢?拿去每隔半个小时叫自己起床一次,然后思考一下我是谁,我在哪,我要干什么这些低级的问题,每问一次消耗十二万头啃,差不多就是五块人民币。所以在这个荒诞的循环里,真正赚到钱的大概率,根本不是拿着 open call 准备大干一场的。 你是那些在淘金热里卖水和卖铲子的人,甚至可以说,这场淘金热里最大的铲子厂,就是那几家卖大模型的 api 巨头。 说实话,很多人想冲 openclaw 的 需求,也并不是真的有啥大项目偏要爱来帮忙,而是属于一种典型的错失恐惧症,也就是大家最近经常刷到的 fomo。 但化解这种赛博焦虑的解药,往往很朴素。正如冬泳怪哥说的那样,消除恐惧最好的办法就是去面对恐惧。放在 openclaw 这件事上也是完全一样。你对这个东西感兴趣,觉得它会改变未来,但应该做的绝不是赶紧掏钱找黄牛代劳,假装自己已经上车了。既然你认为它代表着未来的方向, 干脆就花个周末的时间亲自探索一下他的能力还有边界。哪怕你是个完全没超过代码的小白,哪怕你需要把终端里报的每一行错都复制到搜索引擎里去找答案,哪怕被卡在某一个环境配置上整整折磨了一个下午,这个跌跌撞撞去驯服这个小龙虾的过程才是最有价值的东西。 最后,如果你看到这大伙还是想试试 openclo, 我 们也给大家一些使用 openclo 的 安全小建议。最简单的一个就是信息隔离。为了保障自己的信息安全,我强烈不建议你一开始就把这玩意儿要装到自己的主力电脑上。不过 openclo 几乎不吃硬件资源, 你家里吃亏的 n 年老电脑都能跑 openclo。 所以, 如果你既不想泄露隐私,也不想花钱买云服务器的话,可以用家里的老电脑先试试。 其次就是在装陌生的 skills 之前最好做下安全审核,可以先装个 skill vader 来做个安全审查,这就相当于给你的 open globe 装了个火龙杀毒。 最后,建议大家装完 open globe 后,可以在服务器里再装个 cloud code 或者 codex kimi code 的 这些软件。用 open globe 的 时候,遇到问题先问问他们,绝必比自己捣鼓要方便得多。

今天给大家分享一下这个 open curl 踩坑的点和它的一些优点,重点是它的一些能力边界是我自己的一个看法,它可能不是那么准确,但是应该大差不差。首先第一个踩坑的点就是它降智,就是叉 gpt, 我 用的 codex 这个授权的模式,它有点降智,我是这样感觉到的。 第二个点呢,就推荐大家可以用那个阿里的会员 codex 这个计划,因为只要七块九就可以直接上手,直接用 kimi 的 吧。 呃,我不知道是我的错觉还是什么,它那个七块九的它速度会非常的慢,而且它的通用纤维三点五的 plus 版本也是感觉它是有点降质的,我之前拿它来去做一些网网页和这个图像的点击,它是定位不准的。 kimi k 二点五它应该是跑出来是准的, 嗯,所以说大家可以思考一下。然后我开了他那个一百块钱,两百块钱一个月的那个版本,他的速度非常快,而且那个 plus 三点五 plus 也是非常准的。呃,这就是第一个踩坑的点。 再就是大家做执行的时候一定要把这个东西打开,如果你不打开,你是没有这个这些他执行操作的,有时候他会回答你一个结果,但是他跑没跑你是不知道的, 这个东西就很很让人抓嘛,有时候你等了他半天,他告诉你我已经正在执行了,但是其实你等了一个小时,两个小时,他还是没有执行。我给大家看一下这个命令,就是这个命令 for boss on, 这个命令可以把他的这种操作的一些细节,他会把它打开,如果你不打开的话, 就会像之前一样,他告诉你执行了,其实没有执行,因为像现在的这些模型,它的这种指令遵循的还是有一点点差的,特别是国内的这种稍微小一点的模型,像 cloud、 cloud 这些模型可能会稍微好一点,但 cloud 很 容易封号。 呃,再就是他的这个能力边界,他在做网页抓取是特别好用的,可以给大家看一下,可以看到我已经把他做成了一个定时的任务,他每一天会去抓一下。呃,今天的一个 top 十的热榜,然后有详细的介绍,当然也可以让他再详细一点,都是可以的。 嗯,但是他像什么样的操作是不行的啊?比如说做一些抖音,抖音啊这些他是有限制的,你直接让他登录网页进行操作,其实他操作起来都不准,比如说回评论,他会限制你根本回不了评论。还有 我觉得最大的一个点就是我们的一些数据,我们会放在这个金山的在线文档里面,他其实也是抓不到的,因为他这个东西是不准的,这个东西也是不太好的。 还有就是这种这种如果他抓不到的话,他就会使用这种 ui 界面操作的方式截图,然后滚动的方式,这个东西也不好。嗯,推荐大家如果使用的话,可以使用这个飞书的这种多维表格啊,或者说这种 api。 但是大家如果没有使用习惯的话,肯定还是有一点欠缺的。 建议大家怎么样去做这样一个定时任务或者心跳机制?你可以自己做的事情,比如说像嗯,网页,你自己带着它做一遍, 一点一点的做,你别让它一次性去完成一个特别大的任务,它可能你后面就要调整的非常多,你可以一步一步带着它做,你先让它打开一个网页,然后让它搜索什么什么东西,然后去整理什么什么东西,你带着它做一遍之后,然后你把它叫它沉淀成这个 skills, 然后再把这个 skills 让它手动再跑通两次,跑通两次之后,你再去让它整理成一个定时任务,或者你那个心跳机制里面就可以加上这个 skills 了,这样的话它准确度就会高很多。 还有就是最大的一个问题,它的 u i 界面操作,它只能做这个网页的一些操作,它没有办法做一些 u i 界面的操作。呃,如果在国外的话感觉还是 ok 的, 但是在国内它非常封闭, 每一个基本上都是不打通的,每一个软件,每一个应用它都是不打通的,比如微信、飞书各种它都是不打通的。所以说你没有 u i 界面操作,那其实在国内使用还是有一点鸡肋的,除非是什么情况, 你本身办公化、数字化就做的很好的,比如说你直接就本身你就,呃,公司就在用飞书,而且用的非常不错的,然后结合上这个 open core, 它的效果还是蛮不错,能做非常多的事情。但是你之前完全没有做这种线上化的一些操作的话,其实做起来还是非常的困难。 ok, 呃,我也给大家汇报一下这个进度,因为我说了要开源一个 ui 界面操作的一个 agent, 呃,可以让 open curl 去执行这些操作。现在达到什么样的程度了呢?来给大家汇报一下, 昨天也跟大家说了一下,昨天已经完成了这种录屏,然后把它整理成轨迹,然后再用这个 agent s 三进行操作,操作了之后,呃把这个操作的也录屏录制成轨迹,然后跟之前轨迹进行对比,然后达到自净化的一个效果。呃,现今天做的主要的事情就是让 rpa 和这个 ui agent 就是 agent s 三,它们两个可以进行混合的执行。首先就是它们俩有一些固化的,用 agent s 三可以呃 进行判断操作,这是第一个功能。第二个功能的话就是 a v edge 和 s 三,它可以去做 r p a 错误之后的兜底,这个已经实现了,但是还有很多,比如说它的一些 bug 还是需要修的,估计今天是可以完成。 明天主要的工作可能就是把前面的录屏和这个 u i a 和这个 r p a 和 u i edge 的 编排把它弄好。 嗯,这就是这就是这个项目,这个这就是这个开源项目的一个进度,给大家汇报一下。最后总结一下,像 open core, 我 个人感觉哈也有可能是我使用不精的一个原因。 嗯,它是很好的一个东西,它也是很明确的一个方向,但是目前来讲它的这种功能和内容 和国内的情况他不是非常符合一些小公司或者我们个人使用。如果说我们是呃自己本身做这种工作流,自己的工作做工作流已经做的非常好了,那么还是非常适合的。 如果说想要用好,那真的得把这个飞书给先用好来,然后他才有用好的可能性。他有用,但是对普通人来讲不多,因为我们常用的一些软件系统他打通的就不够,我个人感觉他是最大的问题在这里。