什么?你问我怎么拿下官网一折的 opencall api? 那 兄弟我不得不给你吹一波了,之前我斥资大几百用 opencall 做一个产品服务器,订阅一下 ai, 订阅一下 模型调用,还踏马要单独掏 api 的 米?东西还没做出来呢,一个月光工费就几百块打底了,那我可不乐意了啊,这波 api 价格和钱包存亡战,必须干到底! 我啪啪啪翻遍全网,踩了好几个黑中脚,被拉闸了无数次,最后还真让我找到一个企业级平台,不但价格基本上系官网的一角左右,关键廉价还稳定的一批。这时候我就纳闷了,凭什么比官网便宜这么多?别是缩水的吧?后来调研了一下,其实逻辑特别简单, 你自己去官网买 a p i, 那 是零售价,人家一分不要。但这种聚合平台是跟厂商大批量拿头,肯拿到的是企业批发价,所以非常便宜,而且用户主要是企业,所以稳定性有保证。最方便的还得是它把 g e d d cloud j m i 这些主流模型全整合到了一个接口里, 你不用给每个抢箱,单独注册账号,不用海外信用卡,不用退役网络一个屁全部搞定,用多少付多少!兄弟们,这波必须随我冲锋,看看效果,那省下来的米,它不香吗?
粉丝7获赞11

兄弟们接, gpt 五点四绝对是 oppo 量子性价比最高的模型, gpt 五点四给出来答案绝对比 mini max 和 kimi 给出来的好太多了。可以这么说, gpt 五点四绝对是目前性价比最高的选择了。天呐,我一直都是用的量子四点六,但是那个成本实在是太高太高了, 我必须用量子四点六那种俯模型,再接一个 mini max 作为一个俯模型来完成所有的任务。但现在呢?这个 gpt 五点四真的 随便用,但是唯一一点就是你在部署的时候啊,要在终端里面用代码改一下他这个端口,想省钱又想获得很牛逼的大冒险,这个能力的朋友赶快去试一下吧!这个吉利克斯绝对是你最佳的选择。

大龙虾没有 api, 就 像跑车,没加油,再强也跑不起来。今天教你用最低成本,合理配置,给他加满燃料。官网,二十美元一个月,太贵了,国内扣定 plan 只要一折,二十到四十块钱就能搞定。但有个关键点要注意,这些套餐都有每五小时的用量限制。什么意思? 就是每五小时刷新一次额度,还有些有每周限制。如果你像我一样白天上班,晚上集中写代码,那这个限制对你影响很大,可能刚写到信头上,额度没了,要等刷新。所以选套餐要看你自己的使用习惯,分散使用的话,五小时限制影响不大。集中使用的话,要选额度高的套餐。我们不单只是可以用在欧根可老大龙虾上, 一起使用这个套餐。 a p r 我 整理了七家平台的对比表,大家看图,价格、用量、模型都在这里,大家按需选择,大家可能纠结选哪个? 其实真不用纠结,各家的模型能力都差不多, mini max 二点五,英文语境表现好, d、 c 性价比高,天文代码能力强。 这些模型在宽的扣子上都能用,差异没你想象那么大。我的建议是先挑便宜的用,不满意再换。所以不用太纠结,先跑起来最重要。一般玩家买个包月套餐就够用了,省心。如果非要体验那种顶级模型的丝滑流畅,我这边也有稳定低成本的解决方案,放在了我的主页胖虎 ai 军火库里边,直接安排了兄弟们。

在 openclaw 中接入 deepsea, 用极低成本驱动强大的 ai 智能体。接下来我将手把手教你完成配置。 首先访问 deepsea 开放平台,登录后进入 api key 界面,创建一个新的 api key。 deepsea 提供两种模型, deepsea chat 适合通用对话。 deepsea reason, 也就是 rise, 适合深度推理任务。打开终端,运行 on board 命令,选择 custom api key, 填入你的 api key base url 填 a p id deepsafe 点 com 注意末尾不要加斜杠 f 一 模型 id 填 deepsafe chat 即可。如果你偏好手动配置,也可以直接编辑 config 文件,设置好环境变量 provider 配置。 最后把默认模型指向 deep seek。 deep seek chat 配置完成后,运行 gateway restart 重启服务,然后发送一条测试消息。如果回复中提到 deep seek, 说明链路已通。几个实用建议,需要深度思考时,可以用斜杠 reason 临时切换到 r 模型。 复杂任务建议设置超时时间。 deep seek 的 成本仅为 gpt 四五的十分之一,非常适合二十四小时自动化任务。就这么简单。凭借 open ai 协议的原声兼容 open claw, 让你可以轻松接入 deep seek, 享受高性价比的 ai 能力。

大家好呀,今天咱们来聊聊两个最近很火的 ai 工具, aolama 和 openclaw, 是 不是经常有人把它们搞混,以为是同类竞品?其实啊,它们就像电脑的主机和操作系统,各有分工,还能完美配合呢。 先说说 aolama, 它其实是个模型运行引擎,简单讲就是帮你把 llama、 sammiestro 这些大模型下载到本地,然后顺畅地跑起来。你可以把它想象成大模型的发动机,负责提供计算能力和基础对话功能。 如果你只是想在本地聊聊天、写写文案,或者需要调用 a p i 开发点小工具,那欧莱玛就很合适,而且对电脑配置要求不算太高,八 g b 内存就能入门,隐私性也有保障。那 open cloud 又是什么呢? 它更像是一个会动手干活的 ai 助理,它自己不直接运行大模型,但它能理解你的任务,然后规划步骤,调用各种工具,甚至直接操作你的电脑。比如帮你整理文件、自动发消息、控制浏览器、搜资料,这些都是它的强项。 就像一个数字员工,能把复杂的工作流自动化。不过它对硬件要求稍高一些,十六 gb 内存会更顺畅。最关键的是,这两者不是二选一的关系哦。 alama 是 底层的大脑, openclaw 是 上层的执行者。 openclaw 可以 调用欧莱曼的 api, 让本地模型不光会说话,还能动手做事。这种本地模型加本地执行的组合,就能实现全离线、高隐私、全自动的 ai 体验了。总结一下就是, alama 让你在电脑上跑模型,他只会说话, openclaw 让模型帮你做事,他会动手执行,你是更需要一个安静的思考者,还是一个能干的行动派呢?或者你已经开始琢磨怎么让他们联手干活了,评论区聊聊你的想法吧!

全网都在吹的能真正帮你动手干活的 ai open 壳,我硬着头皮部署了整整一个月,说实话,对我来说是一个实打实的基围产品。我不否认它和普通的 ai 真的 不一样,别的 ai 只会跟你聊天画饼,但是它真的能帮你动手干活,整理文件、爬数据甚至写代码。 听起来是不是很有用,但它最大的死穴就是它的能力和性价比不能兼得。如果你想让它处理稍微有点难度的活,就得接入 gpt 四这种 api, 那 烧钱的速度是肉眼可见的,一天大几千块都是很正常。想省钱用免费的本地模型,说实话两万块钱以下的电脑根本跑不了什么像样的模型。最后他直接变成一个笨笨的机器人,啥都干不明白, 你就只能让他干简单且重复的很基础的工作。那只让他干简单重复的活,又根本没必要花这个时间和钱去部署他随便一个免费的 a 都能搞定。我自己部署一个月,你猜我用他干的最多的事情是什么? 就是每天晚上让他帮我找几套行业新闻,早上发给我。除此之外,他对我的生活真的没有太大帮助。我想和跟我一样的朋友们说,如果你现在还没有装 oppo cola 的, 真的一点都不用焦虑。因为现在这个版本 我说实话 bug 都到离谱,然后偷看消耗的巨快,部署起来对新手也非常不友好,而且还有很多的安全隐患。 我可以很肯定的说,未来六到十二个月,这个产品一定会有质的飞跃,甚至还会有比它更好用更简单的同类型产品出来,你根本就没有错过什么时代的红牛,也不用被网上的内容制造焦虑。 如果你生活里现在就已经有大量的简单机械重复的工作,那你可以试试它。如果没有,完全不用跟他们装,我觉得真的没必要,可以再等等。

和大家分享一下,就是如果你也是呃准备养龙虾的话,肯定是要买几个大厂的那个,嗯, api 的 那个包月服务的, 腾讯的,他挂了,一个四十,一个两百,然后十点钟有个秒杀,那个秒杀你基本不要想了,基本抢不到,我抢了两天没抢到, 而且他平常那个四十的我今天平,我今天看了一下也买不到,好像应该十点钟的时候,我明天看一下抢抢不抢得到,但是他那个两百的就一直两百,包月的就一直有人卖。呃,那个 阿里啊,他那个四十两百的都买不到,我今天试了,然后就字节了,字节是可以买到的,他那那个聚合的 api 的 接口。但是,但是啊,这里面一定要注意一个事情,就是 他那个 api 的 聚合的接口,他的服务器只在国内。 你如果你和我一样也是把龙虾养在外面的服务器的话, 那你真的就不要买那个自己的那个 api 的 聚合的接口我今天就买了,然后我让我的龙虾测一下速,卧槽,延迟 最少的都八九秒,那肯定用不了啊,只能这个我回头养一下自己自己出的那个虾试一下,玩一下。 所以你现在买套餐的话,呃,只能看早上的时候抢腾讯的那个四十的包,或者抢下阿里的那个四十的包, 不然的话你如果是用那种计费的真的耗不起。我今天我这几天随便用一下都用了几十块钱了。我是买了 dvd 的 和那个 呃,叫做硅基流动的 a p i 的 接口,真的你不买包的话不行的,你要养龙虾的话,所以这几个大厂现在就是这么个情况,你在国内的话,其实最好买的话 是买字节的那个吧?字节他的包模型又比较丰富,但是如果你的你是云上阳下,服务器又在外面的话肯定不行的。好了好了,大家分享一下。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

你们等了这么久的 open cloud 净化指南终于来了,今天我带你从残血到满血,一条视频全搞定!先说一个残酷的事实,你装好 open cloud 之后,它其实是个残血状态,默认只有二十五个工具,记忆系统是瞎的。每天烧五十到一百美金 a p i 费用, 就像你买了一辆跑车,但是只开了一档。今天我教你怎么把它开到满血。第一步,安装你需要三样东西, 一个代码执行器,比如 tray 或 cursor, 一个大模型 api key。 推荐 minimax, 最省钱,一个飞书机器人,让 openclaw 能跟你对话。具体怎么操作?打开 tray, 新建文件夹,然后把我给你准备好的安装提示词直接粘贴发送, tray 会自动帮你完成百分之九十九的工作。 安装提示词我放在评论区置顶了。装好之后,第一件事,解锁满血工具默认的 coding profile 只有二十五个工具,发一句话给 openclaw, 帮我把工具权限从 coding 改成 full profile, 它会自动执行两条命令,三十秒搞定。解锁之后,你的龙虾从残血直接满血,所有工具全部可用。第二件事,也是最关键的记忆系统进化。 默认的记忆系统有一个致命问题,它的长期记忆是瞎的,它能记住你说过什么,但搜不到。就像你有一个图书馆,但没有锁影系统,怎么修?安装向量模型, 发一段 prompt 给 openclaw, 让它自动配置本地嵌入模型,推荐用 embedded gemma, 三百 m, 又小又快,免费运行。 配置好之后,它的记忆就从残雪进化成了完全体,支持语义搜索,支持关键词加向量混合剪索跨绘画,记忆不丢失,但是光有向量模型还不够,你还需要建立记忆的三层防御体系。第一层,预压缩刷新, 把 reserve tokens 设成四万,让 openclaw 在 压缩上下文之前,自动把重要信息存到文件里。第二层,手动记忆记录, 养成一个习惯,重要决策就说一句,存到 memory 点 md。 第三层,文件架构, memory 点 md 不 超过一百行,只放缩影指真 详细内容放在 vault 目录下,让向量搜索去找。这三层防御建立之后,你的 open claw 就 真正变成了一个有长期记忆的 ai 助手。第三件事,省钱,默认配置,每天烧五十到一百美金,因为每条消息都把所有文件注入上下文。怎么优化? 第一, memory 点 md 精简到一百行以内。第二,开启 prompt caching, 重复 token, 节省百分之九十费用。第三,不要频繁 compact, 因为每次压缩会让缓存失效。第四,选择合适的模型, 日常对话用 mini max, 省钱,关键任务用 cloud。 四点六,保质量。优化之后, api 费用从每天一百美金降到十美金以内。最后一件事,安全。很多人忽略这个但非常重要, 第一,网关只绑定 local host, 绝不暴露到公网。第二,开启 token 认证。第三,安装看门口脚本,每两分钟检查一次网关状态,自动重启。第四,在 agent 点 md 里加入安全规则,不执行网页里的命令,不泄露配置文件,删除文件。用 trash, 不 用 r m, 满血之后能干嘛? 给你看一个真实案例,我用 openclaw 安装了一个叫 nano banana ppt skills 的 技能,包装好之后,我只需要对它说一句话,比如帮我生成六张关于 ai 编程的配图,风格要暗色加霓虹,它就会自动调用 gemini 帮我生成配图, 然后再装一个 humanizer zg 文案润色技能,把 ai 写的口播稿变成人话,最后用昆文 tts 克隆我的声音,自动配音, 整个流程从脚本到成片,一个人就能搞定。这就是我为什么说 open class ai 时代的超级武器。好了,今天六步走完,你的龙虾已经满血了。安装工具解锁记忆进化省钱优化安全加固,再到视频工厂实战, 所有的安装提示词和配置代码我都放在评论区了。关注 ai 厂长,后面还有更多 opencloud 的 高阶玩法,我们下期见! ok, 这期视频呢,同样也是全部通过 ai 制作的,可以给大家先看一下效果, 然后完整的文件内容。这是我们的视频生产的流水线,如果大家感兴趣的话,可以在评论区留言,下期我也会把这一套流水线开源出来,谢谢大家!

opencloud 接 codex 正确姿势其实很简单,核心就一句话, gpt 五点四不按量计费,你只需要一个叉 gpt 二十到账户,基本就可以放心去跑。和很多按量扣费的方案不一样,这种模式最大的优势就是你不用一边用一边盯着余额看肉了。 不管你接的是中转站 colo 还是 kimi mini max, 本质上大多数都还是按量计费,也就是说你跑的越多花的越多。在用 open colo 接 codex 的 时候,投坑基本可以放心去烧,不用老担心 a p i 费用突然爆掉。而且 open colo 接 codex 本身也很简单,如果你装的是全剧版 open colo, 直接执行这条命令就行。 open clone models autologging 剪剪 provider、 open io codex 等。接下来浏览器会跳转,你登录自己的叉 gpt 账号完成授权就可以了。后面你再把配置文件按要求配好,参考我提供的两张配置图片,重启后就可以直接开跑。

兄弟们可以先看看我的使用数据,两千万 token 花了三块一毛五,算下来一毛五分一百万,哈哈,太牛逼了!我现在真的觉得 api 价格打下来以后,很多玩法一下就通了, 而且这还是高智商 gpt 五点四万本,这性价比真的有点夸张。单说价格稳定性还有模型聪明程度, 对比我之前用的 kimi 真的 是舒服太多了。而且 gpt 五点四,你跟他多聊几轮就能感觉出来理解力、执行力,还有那种连续干活的稳定性,智商明显高出很多很多。 我接下来演示一下,看看让 openclaw 现场做一把 ppt 实际到底能烧多少托梗,但是我的模型没有接入图片视频,大模型只能作为参考。顺带问一句,有没有大佬懂 grog 怎么接入龙虾 纯小白,需要具体的流程,感激不尽,下面开始演示。用小龙虾做 ppt 能收多少钱,我目前已经用掉了三点一五元,现在我开始向他发送 ppt 制作指令。 ppt 已经制作完成了,经费已经跳到了三点三四元,总共花费是一毛九分钱, copy 一 项显示可能有延迟没力可调时间,总共花了五分钟左右。另外 ppt 的 制作质量我感觉还是可以的,反正比我做的好多了。 这份 ppt 后续只要继续微调,基本就可以使用了。后续我应该会继续沿用这套 api 方案,如果各位大佬找到有更便宜的可以推荐一下,非常感谢!

家人们养龙虾是不是特别耗费? tokyo? 现在机智下呢? open call, 呃,它是真实的去做浏览器自动化和本地的文件驱动,所以说 tokyo 耗费特别大 啊。我这边整理了几个,呃每天可以免费使用上千万 tokyo 的 api k 的 模型。第一个是 open note, 呃,它是一个海外的 a p i 的 聚合网站。 那我们最近呢,每天呃跑了一千万的 tokyo, 然后几百次调用都是完全免费的。 那它现在在那个龙虾的正榜上排行也特别高。对,大家基本上是一个可以看到现在是前四对第四位的视频。然后现在已经呃有七百二十三 building token 的 消耗了。对, 然后下个网站呢,是火山。嗯,火山引擎呢,其实就是自结旗下豆包的一个母平台,它上面支持自结自己的豆包的模型,然后还有集成的 jimmy 以及智普的 gm 系列。 然后呢,那个火山有一个写作奖励计划,大概每天呃你可以花费两百万投屏,然后次再返返回你两百投屏相一直免费。我建议呢,就是用 gatsby v 三零二版本去在龙虾里面进行使用。然后我之前是呃使用一些多包的,包括一点八,一点六等等,目前它的写作奖励计划只知道多包一点八,二点零还不支持。 然后第三个呢,其实是讯飞星辰。对,呃,它其实是一个模型的聚合商,它上面的呃 mini max 两点五加 m 五以及 kimi 的 k 二零五,其实目前都是免费的,不过马上免费期要结束到三月五号。目前的话呢,就是呃千万三点五,它其实目前也是免费的,可以看到。 嗯,目前它没有反馈具体的生效时间,我们可以先用起来,然后这个地方是英伟达的开发商网站。嗯,它提供每分钟四十四的一线模型的调用,比如说智普的 g m。 嗯,毕竟达子赚我们这么多显卡钱,它提供一些面向开发者的免费模型能力,其实我觉得蛮好的,希望对大家养龙虾有所帮助。

哈喽,大家好,最近我们都叫 openclo, 非常火,但是使用它的一个托管花费可不便宜,所以最近也给大家整理了一批高性价比的一个 api 套餐。然后第一个的话是阿里最近推出的一个 codingplay 计划,然后它的价格是七块九每个月, 然后它应该是目前为止性价比最高的一款这个 cody 套餐。然后目前的话它是支持国内呃众多一线大模型厂商的模型,比如说像 呃千万三点五 plus 还有千万三 max 还有千万三 cody 以及 mini max 二点五,还有智普的 glm 模型五,还有 kimi 二点五。 然后第二个是最近呃自己的一个方舟计划,也是 callinplay, 然后它的价格是每个月八点九元,然后模型自由,并且支持接入 openclock。 然后目前的话我订阅的也是这款套餐,然后目前使用下来,目前使用下来感觉它的一个速度跟效率都还可以。 然后第三款的话是呃科大讯飞的星火大模型,这个也是呃科大讯飞最近推出的 openclo, 可以 免费调用, 免费调用它的一个推理模型,但是这个应该是有时间限制,有需要的小伙伴可以自行自取,评论区也有对应的一个订阅链接。

open curl 连续九天没有更新,全网都在问,出事了还是在憋大招?今天答案出来了,是大招,而且很猛。三点二二,预览版刚刚上线,这 次更新的核心不是加功能,是补窟窿。先说安全,如果你在 windows 上跑 open curl 之前有个漏洞,你可能不知道,攻击者只要构造一个特殊的 file 路径,在你加载媒体文件的时候就能把你的 windows 登录凭证悄悄发出去。 三点二二,把这个口彻底堵死了。另一个更隐蔽的漏洞是 unico 的 零宽字体,攻击者可以在审批提示里塞入不可见的字体,让你看到的命令和实际执行的命令不一样。对公网部署用户,这版是必须更新,不是建议更新。 插件层面是一刀切换,写就 api, opencl extension api 直接移除,没有兼容层,没有过渡期,所有第三方插件必须迁移到新 sdk。 同时插件首选分发渠道从 npm 切换到 claw hub 官方维护审核更严。模型方面,默认模型切换至 gpt。 五点四, mini max 升级到 m。 二点七,新增通过 google vertex ai 调用 claw 的 通道。新一版 open claw 传递的信号很清楚, 从快速迭代堆功能转向认真做工程。当前为预览版 beta, 正式版即将发布,关注新智园,秒追 a s i。

最近 oppo pro 爆火,很多人想用 a p i, 但又不想花钱买套餐,分享一个英伟达免费 a p i, 零成本就能用。首先打开官网, b o l d, 点 amazia 点 com, 没有账号的用邮箱注册一下,英伟达的网站很卡,实际注册没有这么流畅, 每一步都要等好久。这里选不选都可以,接着随便填个称呼提交,接着点右上角印证手机一个号只能绑一次。接着在首页找到更多模型,进去选择 epi 分 类,再筛选你想要的大模型。这个网站加载有点慢,耐心等一下就行。找到合适的模型,点进去, 点击右上角查看代码,把这三个关键信息复制出来。 base 模型 id 生成的 a p i t, 点击这里生成 a p i t, 然后复制下来。有了这三组数据,直接填进 open call, 就 能免费用上英伟达大模型了。想试水不想花钱的赶紧去试试!

今天给大家分享一个比较便宜的普通小白都能用的一个大模型。我们知道我们在学习 ai 或者使用 ai 的 过程中,就会发现 它是一个巨大的氪金的东西,因为会消耗大量的 token, 很多大模型靠这个 token 的 消耗令来盈利来赚钱。今天分享的这个呢,就是阿里云的一个最新的叫扣丁普兰的 这个头,跟他这个主题呢,说是量大环保,支持阿里云的千万的三点五,还有 mini max, 还有 嗯 g m m 等等各种模型,他是按照消耗的次数调用的,次数就每月呢大概有一万八千次的这个调用额度,每月的这个套餐费用是四十块钱,现在打折啊,现在二十块钱 对于普通小白是完全够用的,因为很多人反映这个 投币量很少,而且比较慢,如果你只是说我掌握一下 ai 的 基本应用,跑一下简单的流程,知道这个 ai 是 干嘛的, 我觉得是完全够用,它还支持这个龙虾,还有支持可乐扣的。另外一个呢,就是我们在调用这个 api 的 时候,一定要记得是扣丁普兰的 api, 不是 那个百炼的 api, 因为百炼的那个 api 呢,它是后付费的,你消耗多少投币就扣多少钱。 我上个月签约的时候,当时结果 api 填的是那个百炼的,他一天就给我花费了一百块钱,当时把我吓坏了。我觉得阿里云他这个售后比较好,因为是今天那个售后小哥给我打电话, 我把这个事情给他说了,他说你是调用错了 api 了,今天就把那个 api 给改过来了,我觉得这个是比较划算,因为一个月就二十块钱,大家可以试试。

嘿,欢迎来到这期视频,今天我们来聊一个让很多小白头疼的话题, open core 的 配置文件,别怕,我保证讲完你也能搞定。 首先, open core 的 配置文件叫做 open core 点杰森,默认藏在你电脑的用户目录下,路径是 open core 斜杠。 open core 点杰森拨浪号代表你的家目录。 这个文件用的是杰森 five 格式,比普通杰森更友好,你可以在里面写注是末尾,多一个逗号也没关系,而且这个文件不是必须的,如果没有 open class 会用默认配置自动运行。 配置文件主要分四个模块,第一是 agents, 用来配置 ai 助手的行为。第二是 channels, 配置接入渠道,比如飞书 telegram。 第三是 gateway, 配置网关的端口和认证方式。第四是 session 管理绘画策略。 重点来了,模型配置在 agents 里面,你可以设置主模型和备用模型格式式,提供 entropic, cloud senate 四五, 还可以配置一个模型白名单,只允许用户切换到指定的几个模型。注意, api key 绝对不能写在配置文件里,应该用环境变量,比如设置 andropic 下划线 api 下划线 key, 或者运行 openclaw configure 命令来安全的存储密钥。 opencloud 支持热加载,也就是你改完配置文件不用重启,大部分改动会自动生效。但如果改了端口号这类关键配置,还是需要重启网关,运行 opencloud gateway restart 就 行。 修改配置有四种方式,第一直接编辑文件。第二用命令行,比如 openclaw config set 来改某个值。第三,打开控制台界面,访问本地一万八千七百八十九端口。第四,运行 openclaw config 交互式向导最适合新手, 如果你要同时运行多套配置,可以用环境变量 openclaw 下划线 config 指定配置文件路径, openclaw 下划线 profile 指定环境标识,这样状态目录会自动隔离。 好啦, openclaw 配置文件的核心就这些,记住配置文件放在斜杠, openclaw 斜杠用杰森 five 格式, apikey 用环境变量大部分改动热加载生效有问题评论区见,我们,下期再见。

用这个 oppo 可乐,我是真的用的快没招了啊,用的我真的快吐血了。我靠,我折腾了快一个多月啊,现在其实就连一些最简单的功能他都没法实现。我,真的,你网上还有些人说靠他赚钱的,我现在就是让他给我做个表格,他都做不了。 举个例子吧,你看就是你看我给他发图片,这是我们顾客前面备注的名字,后面是添加的日期,我把图片扔给他,我说就是你做一个表格,你把添加日期改成我后面备注的日期,你看 我添加日期顶多三月二三月十八号,我不知道为什么他会添加日期,他会写成三月十九,三月二十。我觉得他这个图片识别功能有点问题吧, 你怎么叫他改,怎么叫他调,他都调不了。我说你这不乱写了,他就是一直跟你对不起,他跟你道歉 啊,然后就一直跟你说他补好了补好了,然后你点进去,他始终还是这个样子,一点反应没有。卧槽,我这真的被他折腾没招了。 我用的是那个机迷,你官方的 a p i, 我 用的是三点一,三点一 f。 那 学,我现在就准备去开一个 gbt 的 polo 那 个订阅账号,然后到时候用账号授权登录,然后切五点四 polo 大 模型,我来看一下那个能不能帮我做个表格登记的工作啊?卧槽,真的是我被折腾吐血了。我靠。

哈喽大家好,欢迎来到我的频道。如果你还在为你的小龙虾装了一堆 skill, 却不知道用哪个,或者看着 call up 上一万多个插件眼花缭乱,那今天这期视频就是给你省的。 我不讲大道理,只告诉你这十个 skill 装上去具体能干嘛,全是干货,直接抄作业。首先第一名 skill vetter 安全守门员,装任何插件前先把它装上, 它的作用就是给你的新插件做安检。装陌生 skill 之前自动扫描有没有读取 api 密钥,访问本地文件,这类危险行为,把恶意插件扼杀在摇篮里,这年头安全第一。第二名, find skills 搜索神器, 以前找个插件还得去翻仓库,太麻烦了,有了它你直接打字说我想找个能抓网页的 skill, 他 自己就去翻库了,找到还会告诉你咋装,主打一个动口不动手。第三名, memory setup 记忆大王, 没装它之前,小龙虾是鱼的记忆,聊完就忘装了它,你的使用习惯偏好它都能记住,下次聊天不用重复自己的背景信息, ai 才会越用越懂你。第四名, self improving 自我进化这玩意特有意思, 你用着用着如果纠正了它一个错误,它会自己记小本本上,下次同样的问题就不会再犯。简单说,这是一个能用时间换智商的神器。 第五名, summarize 全能总结,扔给他一个 b 站链接,一篇公众号长文,或者一个几百页的 pdf, 他 几秒钟就能给你吐出核心摘要。现在信息爆炸,省点阅读时间,多刷会视频不好吗?第六名, web content fetch 有 些网页特别是微信公众号文章不好复制,装塔,他 能绕过各种限制,把正文内容给你扒下来,转成干净的 markdown 格式,为给 ai 做下一步处理,搞研究必备。第七名, nano pdf 你们有没有这种经历?老板发来个 pdf 让你改几个字,你只能干瞪眼装了这个你直接说把第二段那个错别字改一下,他自己就动手改了,咱就不用为了改俩字再去开那臃肿的 adobe 了。第八名, humanizer 去 ai 位 现在的 ai 写东西一股套话味,动不动就值得注意的是,这个 skill 专门趣味,把 ai 生成的内容改得更像真人说话,发朋友圈,写小红书,文案用它过一遍,从此告别 ai 低能儿。第九名, nano banana pro 全能画图 不用单独开 mid journey 了,在对话框里直接打字,让它画图,甚至让它给现有图片换个背景,改个风格都行。支持四 k, 日常做封面,搞配图,它一个就够了。 第十名, proactive agent 主动服务这个最牛,装完它,你的 ai 就 从被动应答变成主动服务。 你可以让它每天早上九点帮你巡检服务器状态,或者定个闹钟提醒你带伞,这才是真正的智能助理。以上所有插件都可以在 github 或 clubhub 中找到并下载,你还有哪些私藏的神仙插件?欢迎在评论区留言分享,别忘了一键三连,下期见!