这一个 openclaw 很多人说它的费用消耗特别高,在咱们国内的情况上来讲的话啊,其实已经是非常舒服的了。像主播用的这一款其实是一个套餐,它并不是按照 tucker 来去计费的,它是按照请求次数来去计费的,可以看一下 这一个可能就十几二十块钱,它能保你一个月,一个月的话呢,可能说平均一天也就一块钱、两块钱。 然后呢,他能做到的事情,其实这这些大模型,像,比如说他能给你提供的,对吧?千万、 kimi, mini, max 等等这些模型已经是啊,他他现在是在自动执行啊,我让他帮我找一些帖子, 自己弹回来了,已经是非常性价比非常高的了,而且这个不是我打广告啊,我这个用了也有半个月了,你们可以看一下,用半个月这个消耗量是真真实存在的啊, 对吧?但是的话,如果说因为他他首月新用户是有打折,如果说你让我下个月再续费的话,那我可能会去选择那个火山的火山他首月可能就八块钱这样子,这个首月他是七块九,七块九。然后呢,我是当时是用了 快用用满了我才去升级的这一个 pro 的 高级套餐,用的是真的非常舒服的啊。然后首先我建议大家如果是用这个阿里云百炼的 calling plan 的 话,用哪个模型呢?这下面有这些模型, 我问了豆包,他跟我说就是根据数据来讲的话,正常来讲综合能力最强的是这一个,但是啊,但是主播实测下来,大家要用这一个 代码的代码的,好吧,为什么呢?因为你在大龙虾他上面帮你干任何事情,他都是在后台基于基于什么东西来帮你干干的, 基于这些代码来去帮你完成的。你如果这个模型的代码能力不强的话,你跟他说什么?他的执行能力可能就是说有点稍微的不,不是很令人满意。 好吧,今天分享就跟大家分享到这里,就是一个关于 openclaw 的 一个 token, 是 用哪家平台的? 没有广告啊?没有广告,你们也可以去找一下火山的,火山它也有一个类似于这种 coding plan, 首月就是个位数,在你你要是再再听到那些说什么大龙虾,哎呦, 流量费好贵啊,不是流量啊, talkin, talkin 好 贵啊,咱们用不起对吧?直接把那个博主拉黑。 咱们在国内这种需求来讲的话,其实也用不到 open ai 那 些了,对不对?正常来讲的话啊,咱们普通人正常来讲,你要是说那些程序员什么的,或者说有深度研究的,那肯定是模型越强越好,这个是事实, 但是咱们仅仅只是体验来讲的话,对吧?好吧,他又跳过来了,他是确实是在这里执行的,你可以看一下, 我再让他帮我找一些同行的一些帖子,并且整理出来,这都是真实的数据啊,不是他自己生成的各种数据。好,今天分享就到这里。
粉丝5获赞267

哈喽,大家好,最近我们都叫 openclo, 非常火,但是使用它的一个托管花费可不便宜,所以最近也给大家整理了一批高性价比的一个 api 套餐。然后第一个的话是阿里最近推出的一个 codingplay 计划,然后它的价格是七块九每个月, 然后它应该是目前为止性价比最高的一款这个 cody 套餐。然后目前的话它是支持国内呃众多一线大模型厂商的模型,比如说像 呃千万三点五 plus 还有千万三 max 还有千万三 cody 以及 mini max 二点五,还有智普的 glm 模型五,还有 kimi 二点五。 然后第二个是最近呃自己的一个方舟计划,也是 callinplay, 然后它的价格是每个月八点九元,然后模型自由,并且支持接入 openclock。 然后目前的话我订阅的也是这款套餐,然后目前使用下来,目前使用下来感觉它的一个速度跟效率都还可以。 然后第三款的话是呃科大讯飞的星火大模型,这个也是呃科大讯飞最近推出的 openclo, 可以 免费调用, 免费调用它的一个推理模型,但是这个应该是有时间限制,有需要的小伙伴可以自行自取,评论区也有对应的一个订阅链接。

家人们养龙虾是不是特别耗费? tokyo? 现在机智下呢? open call, 呃,它是真实的去做浏览器自动化和本地的文件驱动,所以说 tokyo 耗费特别大 啊。我这边整理了几个,呃每天可以免费使用上千万 tokyo 的 api k 的 模型。第一个是 open note, 呃,它是一个海外的 a p i 的 聚合网站。 那我们最近呢,每天呃跑了一千万的 tokyo, 然后几百次调用都是完全免费的。 那它现在在那个龙虾的正榜上排行也特别高。对,大家基本上是一个可以看到现在是前四对第四位的视频。然后现在已经呃有七百二十三 building token 的 消耗了。对, 然后下个网站呢,是火山。嗯,火山引擎呢,其实就是自结旗下豆包的一个母平台,它上面支持自结自己的豆包的模型,然后还有集成的 jimmy 以及智普的 gm 系列。 然后呢,那个火山有一个写作奖励计划,大概每天呃你可以花费两百万投屏,然后次再返返回你两百投屏相一直免费。我建议呢,就是用 gatsby v 三零二版本去在龙虾里面进行使用。然后我之前是呃使用一些多包的,包括一点八,一点六等等,目前它的写作奖励计划只知道多包一点八,二点零还不支持。 然后第三个呢,其实是讯飞星辰。对,呃,它其实是一个模型的聚合商,它上面的呃 mini max 两点五加 m 五以及 kimi 的 k 二零五,其实目前都是免费的,不过马上免费期要结束到三月五号。目前的话呢,就是呃千万三点五,它其实目前也是免费的,可以看到。 嗯,目前它没有反馈具体的生效时间,我们可以先用起来,然后这个地方是英伟达的开发商网站。嗯,它提供每分钟四十四的一线模型的调用,比如说智普的 g m。 嗯,毕竟达子赚我们这么多显卡钱,它提供一些面向开发者的免费模型能力,其实我觉得蛮好的,希望对大家养龙虾有所帮助。

上篇咱们讲了 open core 加飞书的部署实战,接下来讲讲成本优化。我自己用 open core 处理任务, 一开始用库德 a p i, 结果月底开账单,贵的离谱。今天咱们聊一聊怎么用 coding plan 把这个账单打下来。先说说原因, open core 不是 普通聊天机器人,而是重度 ai agent, 它会同时做很多事, 记长上下文,自动拆任务,多轮规划,结果就是普通聊天一轮几百 token, overcrow 跑一个项目就可能是几万几十万 token 起步。 如果你还用克鲁德双厘这种价格天花板的旗舰模型,账单只会四个字,贵的离谱。咱们用传统 api 方案每百万 token 的 感受价差,克鲁德双厘四点五, 输入大约二十一元,输出大约一百零五元,体验好但是珍贵。 mini max 输入大约二点一元,输出大约八点四元,效果接近说你单价只有十分之一 g o m 四点七,输入大约两元,输出大约八元,单价也只有十分之一。同样百万投肯克鲁德要十几到几十块,国产模型只要一两块。新方案 coding plan 是 什么? 普通 a p i 像水电表,用多少算多少,按 token 收费。 token plan 是 专门给写代码工具设计的,包月流量套餐,固定月费换一大包编码请求额度给克罗德扣 overclock 这种重度工具用则算到每百万 token 经常只有普通 a p i 的 五分之一或者十分之一。 简单来说,原来一滴一滴买水,现在按箱买回家用。以下四家请随意使用 mini max coating prime 月费二十九四十九一百一十九三档,对应每五小时四十一百三百个 prime, 效果接近库尔德价格十分之一 g o m 首季度每月二十,续费四十,当便宜版的库尔德 kimi 三十九每月 阿里云百练 king 新课首月十块,续费四十,每月更是每五小时一千两百次。请求阿里云官方文档明确写了,可以直接给 opencr 用, 直接说方案。如果你用 opencr 加克鲁德索里的 a p i, 一个月输入两千万,输出两千万 token, 克鲁德账单大概每月两千五百块人民币,换成 mini max。 四十九, 每月账单从两千五百元降到几十块,省掉百分之九十以上。众多用户可以用 mini max 加 queen 双备份, mini max 四十九元当主力, queenlight 四十元当备用,合计八十九元每月,足够支撑整月高强度使用。最后说为什么双赢,对你来说,原来每月账单可能需要一百到三十美元,敢放心用 opencard 长时间跑任务, 从不敢用到放心用。对厂商来说,单价降了,但使用时长和代用次数上来了,收入从波动 a p i 计费变成稳定订阅,还能拿到更多真实数据,帮助模型迭代。这就是用户少花钱但多用厂商,单价略低但赚得更稳的双赢局面。 本期讲了三件事,第一,为什么 token 贵? overclocking 是 重度 agent, 单次任务消耗大。第二, coding plan 是 什么?包月套餐单价只有 a p i 的 五分之一到十分之一。 第三,怎么省? mini max、 g o m kimi 四家方案单单能从一两千元降到十几块。如果你没看过上集非书部署的内容,可以先去看看,建议收藏一下。 token 贵,大多数不是用错了 ai, 而是计费方式没有选对。

今天给大家分享一个比较便宜的普通小白都能用的一个大模型。我们知道我们在学习 ai 或者使用 ai 的 过程中,就会发现 它是一个巨大的氪金的东西,因为会消耗大量的 token, 很多大模型靠这个 token 的 消耗令来盈利来赚钱。今天分享的这个呢,就是阿里云的一个最新的叫扣丁普兰的 这个头,跟他这个主题呢,说是量大环保,支持阿里云的千万的三点五,还有 mini max, 还有 嗯 g m m 等等各种模型,他是按照消耗的次数调用的,次数就每月呢大概有一万八千次的这个调用额度,每月的这个套餐费用是四十块钱,现在打折啊,现在二十块钱 对于普通小白是完全够用的,因为很多人反映这个 投币量很少,而且比较慢,如果你只是说我掌握一下 ai 的 基本应用,跑一下简单的流程,知道这个 ai 是 干嘛的, 我觉得是完全够用,它还支持这个龙虾,还有支持可乐扣的。另外一个呢,就是我们在调用这个 api 的 时候,一定要记得是扣丁普兰的 api, 不是 那个百炼的 api, 因为百炼的那个 api 呢,它是后付费的,你消耗多少投币就扣多少钱。 我上个月签约的时候,当时结果 api 填的是那个百炼的,他一天就给我花费了一百块钱,当时把我吓坏了。我觉得阿里云他这个售后比较好,因为是今天那个售后小哥给我打电话, 我把这个事情给他说了,他说你是调用错了 api 了,今天就把那个 api 给改过来了,我觉得这个是比较划算,因为一个月就二十块钱,大家可以试试。

我引用了两亿的免费托盘来养龙虾,前两天发的关于免费养龙虾就是 open globe 的 视频火了,呃,很多朋友私信我,我也帮很多朋友解决问题。那今天答应大家出一个完整的视频教程,我是用的 mac os 的 系统,然后呢,接下来是以 mac 教学为准,而 windows 的 话呢,可能大家可以问问豆包或 tipisk, 一 步一步截图问它都能解决的。 那可以看到这里我是消耗的是零元,对,然后我之前的 a p i k, 嗯,网络速度也慢了,不好意思啊。对,你看到也是零元的状态。嗯,然后我们进入到那个 opencode 的 官方网站,对,它其实是 opencode 点 ai, 然后有个文档,上面呢,其实会有一些安装的说明, 因为我已经装过了。看,这是我的小龙虾的 space 状态,可以看到它是正常的一个状态。所以说我们这边重新带大家走一下那个新手引导的一个配置,然后其实我只要复制这个命令,然后打开终端里面, 然后输入这样一个重置的新数引导,那就相当于会进入到配置过程,它是麦上的终端,终端 app 搜索一下就可以了。然后我们重新进入引导,快速引导,然后更,这里因为我之前配置过,所以说会有之前的配置,那我们这里选更新配置, 到这一步呢,就会选 model, 就 模型的供应商啊,它这里有 open ai, 有 mini max, 也有谷歌,那我们是 open rota, 免费的模型就选 open rota, 这里有,然后大家可以看到有这样,这里有这样多非常多的模型,而我们的模型是什么呢?就是, 呃,叫做那个 jason 星辰就 stay fun 三 new flash 就 free。 呃,它其实是这样一个模型 id, 哎,复制一下。对,它现在在那个,呃小龙虾的榜单上,哇 啊,可以看到,就是已经消耗了一点五四五 t 的 图片,免费的。对,就是排名了很多天的第一。那么回到刚刚的配置界面, 呃,这里呢,其实是可以通过那个方向键就上下左右的上下来控制,因为它太很多,就是你一个一个找到肯定能找到的。但是呢,它这里提供了一个就是输入,对,输入 enter model。 那 我们这里选进去之后呢,把之前的这里删掉,因为要留一个 open road 的 默认的前缀,所以说我们这里,哎,对,输入进去, 这样就 ok 了。呃,我之前设置这里到这个环节呢,是设置那个我们用哪个 i m 去控制去连接?我们这里先跳过,然后这里的搜索呢?其实也可以先跳过, 然后跳过之后呢?就是,是不是那个呃,调调成近的,那我们这里选择一直跳过,然后这里是 no, 对, no, no, 这些是一些具体的一些设像,我们选 no, 但有需要的话呢,大家可以呃,就说 自己去设置。那我们只是今天先讲模型的过程,那我们选重启。哎,对,然后这个,呃,小龙虾的服务就在重启,我们刚刚重新走了一遍新手的设置。那,那我们现在等待它重启。对, 好,它就这里重启成功了,然后那我选择打开网页, open the web y, 哎,它就会自动打开网页,对,就刚刚的网页重置了,然后我们这里输入一个 states, 相当于就是可以看到它当前的一个状态, 然后返回一个当前的状态。 哦,好像说错了秘密了,应该是 s t a u t s? 不好意思 啊,反正没关系,它好像识别了。嗯,对,可以看到我这里配置的是基于新成的模型,因为 p i k 呢,其实我之前已经配置过了,所以说它,呃,不会让我重新再配置。 对,这里显示一些中文。对,然后这里的模型的配置呢?其实我们就回到 openroot 点 ai 这个网站,然后呢去创建一个新的 a p i k, 比如说我们今天是来自于抖音,嗯,点抖音,然后这里的信用额度限制呢,我们选个零点一美金,相当于其实花钱的话也 最多就七毛钱。然后这个额度的重置呢,我们不用不用管它永久都是零点一美金,就是七八毛钱,过期时间一年。那相当于我们就会有一个 a 四值大小按钮。很多朋友也都问我怎么复制, 哎,这就复制好了。这个 k 呢,其实是是在刚刚的配置环境里面,选模型的环境里面,它会让你有一步调配置的,因为我刚是已经配过了。然后呢,如果是你已经是正常的模型了,其实本质上你已经配过小龙虾的话,你在这里输,输 k 给他,然后输模型给他,然后把那个 open source 这个网站输给他,其实也能切换,正如正如我刚上一个视频讲的, 还有就是说,呃,我们在那个呃 open note 的 这个网站呢,它不光,它不光有很多的那个付费模型,它其实是我们在 mod 这里去输的话,你输 free, 它除了接下来三点五,还有很多免费的模型, 对,包括之前的智普的四点五的 air 是 免费的。英文答,有很多模型其实都是免费的,包括 open air、 gpt。 其实也有免费的模型开源的,包括千问。啊,这个千问三呢?其实是,这是一个专门用来编程的一个模型,也是免费的。其实有很多,大家其实可以是一个个去找。对, 然后技能商店的话呢?呃,腾讯最近两天出了一个,呃,中国版的 skill hub, 呃,它本质上呢,其实是在可融 hub 技术上呢,其实做了一个技巧战,呃,这个其实也不错的,然后,呃,你也可以去那个可融 hub 去下载一些技能。呃,腾讯这个专为中国用户呢,它会有个榜单, 你相当于就是你看这里有一段话,看见没有,相当于就复制下来。呃,发给小龙虾,对,他就会去检查,帮你安装这个技能商店,然后你就可以和小龙虾对话,去在里面找更多技能去安装了。我是之前已经安装过了。对,那我们今天就这样。

openclout 真的 太太太烧钱了!今天就分享一个超级省钱的方法,当你和 openclout 文本对话,甚至是遇到执行失败时,都会消耗真金白银。但如果你是 gpt plus 会员的话,就可以使用 gpp 套餐中自带的 codex 额度,等于是免费续命了啊! 因为 openclout 是 主流模型中为数不多可以在 openclout 通过登录使用的,而其他模型都需要使用 api, 也就是按量付费的模式。不得不说 gpt 的 会员还是很大方的, 想要快速升级的话,推荐这个充值站 ai plus, 一 二三,一分钟就能升级自己的账号。那具体如何接入 openai 的 额度操作流程我贴在这里了。

万万没想到,让当下最火爆的 open clone 帮我们赚钱,结果他却要我们先花钱给他充 talking! 本期视频就来教你白嫖上千万 talking 的 神操作!首先打开这个网站,下滑找到这个输入输出都是零元的 deep secret, 轻轻一点它就会弹出详情页,点击打开这个 a p i 文档后,直接在 post 栏下复制这串网站的域名 url, 然后我们打开电脑自带的命令提示, 以管理员身份运行后,我们下滑找到龙虾的 api 配置页面,把刚才的 url 域名复制到下面后,回车,龙虾就会问我们索要 apikey, 此时我们再回到刚才的网站,找到 apikey 秘钥栏,新建一个自己的 apikey 后,我们点击复制,然后粘贴到龙虾的 apikey 索要栏下,继续回车, 等它提示我们输入模型 id, 再回到 deepseki 的 详情页的最顶端,点击这个复制符号,模型 id 就 已经到手。 此时只用粘贴到输入窗口,然后回车,一个无限 talking 的 龙虾就已经配置完毕,此时随便给他发布什么任务,等他完成后,我们进入消耗后台,可以看到我们已经消耗了十二万的 talking, 却没有花一分钱。

二零二六年了,如果你写代码还在按 token 付钱,那你的钱包真是在滴血。现在的 ai 辅助编程,随手一个虫购就能跑掉几十万个 token, 按量付费简直就像坐着计费器疯狂跳表的出租车,看着心慌。为了抢开发者,国内各大厂商终于卷出了包月套餐。 我已经帮你把字节、阿里、智铺、 kimi 等九家主流厂商的 coding plan 底细全扒干净了。看这张表,字节方舟四十元就能通吃。 deepsea 和 kimi 的 旗舰模型性价比极高,阿里云 q、 n 三的代码表现确实顶, 但你要小心他后续涨价。不过别急着掏钱,这些包月套餐里藏着厂商不敢说的限流陷阱和模型降至猫腻,一旦踩坑,不仅没提效,反而会拖慢进度。咱们直接看最真实的测评结果。看完了总表,咱们先聊第一阵营, 多模型聚合派这类套餐最大的好处就是灵活,一个账号能调好几家的旗舰模型。字节方舟是目前的头号选手,四十块钱一个月能同时用上 d、 c、 v 三点二和 kimi 最新版,生态兼容性做得最好。百度千帆也是四十块, 它的优势在控制台切换模型,不用改代码,体验很顺。如果你预算有限,无问心穷,直接把价格打到了十九块九,虽然偶尔不稳定,但作为 deepsea 思考模型的低价入口,依然非常能打。如果你写代码需要反复对比不同模型的逻辑,选这几家准没错。 如果你追求极致的性能,那还得看字眼、旗舰派,这三家都有自己的护城河。先说阿里云的 q 文三 max, 他的代码逻辑在国产模型里是独一档的,处理那种烧脑的算法重构非常稳。但提醒一句,很多人反馈他首月四十块只是钩子, 续费可能会跳涨。再看月至暗面的 kimi code, 这是目前的常文本之王。二五六 k 的 上下文是什么概念? 它能把你整个工程几万行代码一次性全吃下去。无论是改陈年老 bug, 还是理顺复杂的调用链,目前只有 kimi 能接住这么大的量,而且响应速度极快。 最后是智普 ai 的 glm 五,它的工具链整合做的最全,能,直接调用二十多种编程工具。唯一的缺点是太火了,经常显示缺货,想用还得看运气。这三家怎么选?看逻辑找阿里,看工作量找 kimi, 求全能,找智普! 买套餐前,一定要看清厂商的数学题,很多厂商宣传五小时能用一万多次,对吧?这就是坑。 这就像早期的那种无限流量卡,看着是不限,但只要你短时间内多看了几个高清视频,立马给你限速到断网。在抠屏场景里,如果你正在进行大规模代码重构,连续点了几次生成,系统会判定你高频异常,直接给你熔断。 社区里很多人的真实月上限其实只有六百到一千次。记住,厂商给你的数字是上限,但决定你体验的是那个看不见的动态调节门槛。 为什么有些平台的 db、 cv 三点二用起来感觉特别笨?那是因为部分聚合平台为了省钱,给你偷偷换成了量化版模型。这就像是把一个学霸的脑子精简了,普通的填空题他能做,一遇到复杂的逻辑大题就彻底翻车。更恶心的是兼容性封锁, 有的厂商会偷偷检测你的调用来源。如果你没用他们自家的 ide 或者官方插件,而是用的 open core 这类第三方工具,后台直接就给你报风险错误。 如果你发现自己的代码 ai 突然不听使唤了,先查查是不是被降至或者被定向封锁了。最后说个钱的事,千万别被那些九块九甚至四十块的标价给骗了, 那往往只是首月的体验价。像有些大厂的套餐,第二个月续费直接就能跳到一百多块钱。 订阅的时候一定多点开那个资费详情的小资看看,最好是先按月订阅,把它的响应速度和病发限制实测一遍,觉得好用再考虑长线,别一上来就被大厂的招牌给套牢了。最后帮大家总结一下怎么选, 看中性价比和多模型对比,闭眼入字节方舟或者百度千帆。如果你要维护万行代码级别的大工程, kimi 的 长文本能力目前是唯一解阿里老用户或者是 q one 的 死忠粉,选百炼就行。但有一点千万记住,不管你最后定哪家, 都别直接包年,先花几十块钱订阅一个月,在你常用的编程插件里实测一下真实的响应速度和并发症。别等大面积重构代码卡死的时候才后悔,听我的,实测完再考虑长期续费。

opencloud 接 codex 正确姿势其实很简单,核心就一句话, gpt 五点四不按量计费,你只需要一个叉 gpt 二十到账户,基本就可以放心去跑。和很多按量扣费的方案不一样,这种模式最大的优势就是你不用一边用一边盯着余额看肉了。 不管你接的是中转站 colo 还是 kimi mini max, 本质上大多数都还是按量计费,也就是说你跑的越多花的越多。在用 open colo 接 codex 的 时候,投坑基本可以放心去烧,不用老担心 a p i 费用突然爆掉。而且 open colo 接 codex 本身也很简单,如果你装的是全剧版 open colo, 直接执行这条命令就行。 open clone models autologging 剪剪 provider、 open io codex 等。接下来浏览器会跳转,你登录自己的叉 gpt 账号完成授权就可以了。后面你再把配置文件按要求配好,参考我提供的两张配置图片,重启后就可以直接开跑。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

最近 oppo pro 爆火,很多人想用 a p i, 但又不想花钱买套餐,分享一个英伟达免费 a p i, 零成本就能用。首先打开官网, b o l d, 点 amazia 点 com, 没有账号的用邮箱注册一下,英伟达的网站很卡,实际注册没有这么流畅, 每一步都要等好久。这里选不选都可以,接着随便填个称呼提交,接着点右上角印证手机一个号只能绑一次。接着在首页找到更多模型,进去选择 epi 分 类,再筛选你想要的大模型。这个网站加载有点慢,耐心等一下就行。找到合适的模型,点进去, 点击右上角查看代码,把这三个关键信息复制出来。 base 模型 id 生成的 a p i t, 点击这里生成 a p i t, 然后复制下来。有了这三组数据,直接填进 open call, 就 能免费用上英伟达大模型了。想试水不想花钱的赶紧去试试!

兄弟们,上期教大家怎么在 nas 里面一键部署 openclaw, 以及怎么进入控制中心,以及目前默认使用的大模型是什么?那就有好兄弟要问了,我就不爱用免费的,我就爱用收费的,收费越贵我越开心,怎么办呢?好办,在配置里啊,找到 models, 点击第四个 model providers, 第一行呢,有个 enter, 点它到了下面这里啊,有个 customer 杠一名字,你可以随便改啊。 model provider api adapter 这里啊,选择付费大模型对应兼容的接口协议工具,然后在这里输入你付费大模型的 api key base url 啊,这里输入你的套餐专属连接,然后呢,在这里点击 add。 api, 同样选择付费大模型对应兼容的接口协议工具啊。 id 这里点击 add。 如果你的付费大模型指的是文本和深度思考啊,那就选择 text。 如果这是文本深度思考和视觉啊,那就再点一下 add, 选择 image 名字这里呢,就随便填写一下。然后呢,将 resending 打开,然后回到聊天啊,检查一下模型状态,输入你现在有哪些模型,看它的回复后啊,输入切换到 ok, 你 的收费模型就切换好了。为什么不输入给他,让他自己配着呢?因为这个模型啊,他可能有一点傻,他不一定会按照你的要求去输入你想要配置的模型 id, 可能会自动调用免费的 id, 然后呢,就导致小龙虾直接崩溃。那如果模型设置错了,小龙虾崩溃了怎么办呢?哎,别急,下期告诉你。

今天我们来看这个免费的 a p s。 那 像这个创创这类软件要是用 a p i 呢?你这个用量其实非常大了,所以说我们找了一个免费的 a p i 网站,包含了全球几百几千个这个免费的各种各样的 a p i 网站。你可以在这个 github 上搜这个 public a p s, 我 们可以右键把它翻译成中文之后,我们就可以在下面看到它的一些用处了,比如说这个 a p i 层的 a p i, 还有一些公共的各种各样的 a p i, 包括你要是看天气,看个金融,看个股市,甚至看个什么健康医学、运动测试什么,包括像一些提供各种各样的动物图片,或者说一些甚至有动漫出品,还有像反恶意软件等等等艺术设计之类哈。只要你是有需要的,你都可以在这里面看到 他的下拉翻页,你可以看到非常多,几乎用不过完,用不过来,那基本都是免费的,能给你节省大量的金钱,你就不用每次都去用这个大模型的,这个就是那些付费大模型了,你可以从这里面去找 api, 也也不错,其实。

你们等了这么久的 open cloud 净化指南终于来了,今天我带你从残血到满血,一条视频全搞定!先说一个残酷的事实,你装好 open cloud 之后,它其实是个残血状态,默认只有二十五个工具,记忆系统是瞎的。每天烧五十到一百美金 a p i 费用, 就像你买了一辆跑车,但是只开了一档。今天我教你怎么把它开到满血。第一步,安装你需要三样东西, 一个代码执行器,比如 tray 或 cursor, 一个大模型 api key。 推荐 minimax, 最省钱,一个飞书机器人,让 openclaw 能跟你对话。具体怎么操作?打开 tray, 新建文件夹,然后把我给你准备好的安装提示词直接粘贴发送, tray 会自动帮你完成百分之九十九的工作。 安装提示词我放在评论区置顶了。装好之后,第一件事,解锁满血工具默认的 coding profile 只有二十五个工具,发一句话给 openclaw, 帮我把工具权限从 coding 改成 full profile, 它会自动执行两条命令,三十秒搞定。解锁之后,你的龙虾从残血直接满血,所有工具全部可用。第二件事,也是最关键的记忆系统进化。 默认的记忆系统有一个致命问题,它的长期记忆是瞎的,它能记住你说过什么,但搜不到。就像你有一个图书馆,但没有锁影系统,怎么修?安装向量模型, 发一段 prompt 给 openclaw, 让它自动配置本地嵌入模型,推荐用 embedded gemma, 三百 m, 又小又快,免费运行。 配置好之后,它的记忆就从残雪进化成了完全体,支持语义搜索,支持关键词加向量混合剪索跨绘画,记忆不丢失,但是光有向量模型还不够,你还需要建立记忆的三层防御体系。第一层,预压缩刷新, 把 reserve tokens 设成四万,让 openclaw 在 压缩上下文之前,自动把重要信息存到文件里。第二层,手动记忆记录, 养成一个习惯,重要决策就说一句,存到 memory 点 md。 第三层,文件架构, memory 点 md 不 超过一百行,只放缩影指真 详细内容放在 vault 目录下,让向量搜索去找。这三层防御建立之后,你的 open claw 就 真正变成了一个有长期记忆的 ai 助手。第三件事,省钱,默认配置,每天烧五十到一百美金,因为每条消息都把所有文件注入上下文。怎么优化? 第一, memory 点 md 精简到一百行以内。第二,开启 prompt caching, 重复 token, 节省百分之九十费用。第三,不要频繁 compact, 因为每次压缩会让缓存失效。第四,选择合适的模型, 日常对话用 mini max, 省钱,关键任务用 cloud。 四点六,保质量。优化之后, api 费用从每天一百美金降到十美金以内。最后一件事,安全。很多人忽略这个但非常重要, 第一,网关只绑定 local host, 绝不暴露到公网。第二,开启 token 认证。第三,安装看门口脚本,每两分钟检查一次网关状态,自动重启。第四,在 agent 点 md 里加入安全规则,不执行网页里的命令,不泄露配置文件,删除文件。用 trash, 不 用 r m, 满血之后能干嘛? 给你看一个真实案例,我用 openclaw 安装了一个叫 nano banana ppt skills 的 技能,包装好之后,我只需要对它说一句话,比如帮我生成六张关于 ai 编程的配图,风格要暗色加霓虹,它就会自动调用 gemini 帮我生成配图, 然后再装一个 humanizer zg 文案润色技能,把 ai 写的口播稿变成人话,最后用昆文 tts 克隆我的声音,自动配音, 整个流程从脚本到成片,一个人就能搞定。这就是我为什么说 open class ai 时代的超级武器。好了,今天六步走完,你的龙虾已经满血了。安装工具解锁记忆进化省钱优化安全加固,再到视频工厂实战, 所有的安装提示词和配置代码我都放在评论区了。关注 ai 厂长,后面还有更多 opencloud 的 高阶玩法,我们下期见! ok, 这期视频呢,同样也是全部通过 ai 制作的,可以给大家先看一下效果, 然后完整的文件内容。这是我们的视频生产的流水线,如果大家感兴趣的话,可以在评论区留言,下期我也会把这一套流水线开源出来,谢谢大家!

如果你有一个 chat gpt pro 账号,我有个好消息要告诉你,你可以在 open cola 中使用 chat gpt pro 账号。 方法是添加 codex 模型,而且非常简单,我们只需要运行两个命令就可以完成了。正如你所看到的,我只是添加了我的 chat gpt pro 账号,就成功把 open a i codex 模型加进来了。接下来我会一步步教你怎么做。现在这个流程非常简单,我们只需要两个命令,只需在你运行 open cola 的 终端里输入第一个命令。 我也会把这个命令放到屏幕说明区,顺便按下回车键。现在它会引导你完成导入流程,但我们不需要修改任何数值, 我们只是要追加我们想要的新配置,所以按左键,然后选择 yes i understand, 然后选择快速启动 quick start。 然后在这里我们直接使用现有的默认值。非常重要,我们不想更改任何东西。我们只是想在 open class 上追加一个新模型,所以我选择保留现有值。然后这里非常重要, 你会看到它给了你一个 u r l, 它提示你在本地浏览器打开这个 u r o l, 所以 我要复制这个 u r l, 然后粘贴进去并按回车。接下来会要求你登录你的 openai 账号,所以我现在进行登录。登录后,你需要确认你想用 g p t 登录 codex, 所以我点击继续,然后会打开一个非常奇怪的页面,但不用担心,一切都是正常。你唯一需要做的就是复制地址栏里的 url, 然后回到运行 openclot 终端,按照提示操作粘贴重定向 url, 我 就粘贴进去并按回车, 这样基本上就选定了配置。现在这里我不改任何东西,因为我不想新增 bot。 我 选择不,因为我只想处理 chat gpt 配置。 按回车键,然后我将重新启动网关。重启网关非常重要,因为这样网关才能识别你新增的模型。但这里我选择稍后再做, 因为我们还需要运行扫描命令。接下来我们要运行的扫描命令是这个,我也会把命令放到说明区,然后按回车。这个命令会覆盖配置, 并添加 openai codex 作为默认模型。所以现在技术上, openai codex chat gpt pro 账号已经在使用中。为了测试它是否工作,我在终端里输入 opencloud ui, 打开界面, 然后你会看到下面显示 agent main open ai codex。 我 也可以问他,嘿,你当前使用的默认模型是什么? 然后你会看到他回答,是的,我当前使用的默认模型是 open ai codex gpt five point three codex。 就 这样, open ai 已经添加, 你基本上可以免费使用,因为你有 gpt pro 账号。如果你有任何问题或遇到困难,在评论区留言,我非常乐意帮助你。如果您觉得视频有帮助,请点赞并订阅。已查看更多类似内容,感谢观看,下个视频见再。

当一千万免费 tokens 的 首批龙虾饲料耗尽,您的创意是否面临停机?别让算力成本成为创意的天花板。现在 tokens 充值只需几秒钟就搞定!首先登录超算互联网平台,找到导航栏的叉频道,点击模型 api 充值余额后即可使用。重点来了, 现在限时续用价格仅需零点一元即可购入百万 tokens。 极致的方便是为了让流程更顺滑。 极致的普惠是为了让每一个人都能用得起算力。三步操作不到十秒,我们把复杂的流程留给后台,把纯粹的方便和普惠留给每一个屏幕前的你。超算互联网,让普惠算力触手可及!

今天 mini max 股价暴涨百分之二十,因为他们发布了 m 二点七,一个能自己训练自己的怪物!更疯狂的是他们直接掀桌子了! 二十九块钱的入门包邮套餐额度从四十次直接暴涨到六百次! m 二点七的可怕在哪?以前的 ai 是 你让他干啥他干啥,现在是他自己查文件设计,实验任务执行,自己拍 bug。 官方说他已经能承担研发团队百分之三十到五十的工作量。他不仅仅是个工具,已经成了一个懂得自我进化的工程师。 这么牛的模型,赶紧进入咱们的 open collab! 但注意, open collab 官方还没适配,安吧电器别急,老兵教你手动模改!我已经把配置代码写好了,直接复制发给龙虾,让他自己修改。底层的 ctrl 文件代码我放在评论区置顶了,赶紧让你的龙虾进化吧!