刚刚 ai 圈又炸锅了,有个叫平起平局的榜单出来了,专门用来测试哪个 ai 模型,用来养虾最好用,你们猜怎么着?国产模型这次真的赢麻了, 大家可以看一下数据,在成功率排行榜上追迷你三 flash 排第一,成功率有百分之九十五点一,但是第二名是谁?是 mini max 二点一,成功率是百分之九十三点六,第三名更离谱, timi 二点五,百分之九十三点四。在前三名里面,有两个都是国产的模型,就问你服不服? 而且不仅成功率高,在速度方面,国产模型也杀疯了, mini max 二点五,直接超越 jimmy 登顶速度榜第一。以前都是老外吹自己的模型快,现在咱们中国的模型不仅聪明还快。当然有人可能要问,在价格方面呢, 目前在价格方面, g b t 五 nano 确实是最便宜的国产模型,大概是人家的三倍,但是三倍的价格换来这么高的成功率和速度,它不香吗?而且国产的模型不仅响应快,服务稳,而且体验感直接拉满。这一次的平起班单,国产模型真的站起来了, 在成功率前三就占了两,速度第一也是国产的。这步操作,我只能说国产模型 y y d s。
粉丝647获赞6618

打死我也没想到, open curl 最适合的模型是这个,最近出来了一个小龙虾的评测精准, peter 也是为他点了个赞,他是专门用于评估小龙虾在一些实际的场景,到底他的效果怎么样, 今天我们来看一下。首先他的评测任务里面有二十三个,然后基本上都是日常常见的一些任务,然后他就评估了非常多的,我们直接来看一下他的排行榜,打死你也猜不到。 最适合的是这个 jimmy 三 flash 这个模型,它的准确度达到百分之九十五。然后第二个是这个 mini max m 二点一,但是 mini max m 二点五已经出来了,但是它没有评估。可以看到像这个 oppo 的 四点六,四点五,还有 jimmy 三 pro 都排在后面, 还有 kimi, kimi 也排在了第三位。最最重要的是这个 jammy 三 flash 排在了最前面,我不知道它是为什么,最最重要的它的成功率是最高的。还有其他的一些评测榜单,这个就不说了,因为它完全没有考虑成功率,它没有一个综合的榜单,我们直接看它的准确率。但是毫无疑问的, 这个 jammy 三 flash 它的价格也是很便宜的,而且速度也是肯定是很快的。但是有没有 mini max 应该是比 mini max 要稍微快一点的,因为本身不光是模型的问题,还有一些服务器的问题。这个 jammy flash 肯定是更快的,而且它的准确度也高,成本也低, 虽然还是没有这个 mini max 更低,因为它是有一个汇率差存在,所以说 mini max 会更便宜点。这个 kimi k 二点五也是真真是想不到。 其实这个项目还可以拿来做一些什么?这个基本都是开源的,其实还可以拿来做一些模型的评估,评估了之后可以拿来做这种模型的路由, 什么模型适合做什么样的任务,什么模型适合做什么样的任务,同时兼顾准确度的情况下,又兼顾了他的一个成本和速度,这个还是有的做的,有这样的,如果有这样的一个项目,他应该应用场景还是挺大的。

大家好,在你装完 openclip 之后啊,第一件事要做的事情就是去选择一个模型,那模型作为 openclip 的 大脑,它起到一个非常关键的作用,那这么多模型,那他们之间有什么区别呢? 那为什么你的模型只能识别文字,不能识别图片呢?那本期视频呢,就跟大家讲一下不同的模型之间能力的区别,以及怎么去配置模型。那对于一款模型来说,它的能力有接收信息,那信息类型啊,有可能是文字,也有可能是图片, 也可能是视频、音频或者其他就是你发的信息的内容可能包含这些类型。那么大模型在接收到你这些信息之后,他对你的信息进行回复,也有可能有这些类型,比如说他回复文字,给你回复图片,给你生成一张图片,或者说做出来一个视频, 或者说做出来一个音频音乐,那么也有可能是进行一个网页的搜索,你让他调用了搜索的工具进行一个网页的实时搜索, 那么这这两个东西就是一个输入和一个输出,那不同的模型之间的差异啊,就表现在接收和回复这个信息的内容区别上。那么 open core 官方呢, 截止目前也统计了一个模型的一个使用的一个排行榜,那么这个排行榜里面的模型的排名,不是说我们传统意义上那种模型的一个综合排名,它更多强调的是在 open core 里面的任务的完成的成功率和这一个排名,大家可以看一下, 就是平均的一个排名,就是比如说第一的是 gemini flash, 那 么第二的是 mini max 二,二点一,那么对于 mini max 它现在已经发布到二点五了,但是二点五的表现是在这个排行榜是比较差的, 这个也是非常奇怪的。那么前面还有这个 kimi 的 k 二点五,就这些模型在任务完成的成功率是比较高的,所以这也可以作为啊模型选择的一个参考。 接下来我们就来说一下不同模型在接收信息和返回信息之间的差异,大家可以去选择。就是你在完成任务的时候,为什么有些模型处理的不好,那比如说我们 dbisc, 那目前 v 三点二版本它只支持一个文本的输入和文本的输出,那么对于千万三点五 plus 来说,它能接收文本,也能发图片,它也能去理解这个图片是什么。比如说在我的这个 openclip 的 这个非书的聊天里面,我上传一张图片,那模型来识别一下图片中的文字, 如果你的配置的模型它不支持这种啊图片的识别,那么它出来的结果就是跟实际的结果是有很大的差异的, 那么可以看到它识别出来了这个图片里面的所有信息是完全非常准确的。那么在刚刚的演示里面,我们可以看到千万三点五 plus 它是有一个图片理解能,所以大家在用的时候一定要注意自己的业务的场景 啊,选择正确的模型。那么这里边除了图片理解呢,这边还有一个网页搜索,就是说它本身模型它本身支不支持这种搜索这种内容,因为对于模型来说,知识库它是有一个截止时间的,比如说你可能你 模型的训练数据可能只是截止到二零二五年,但是你现在搜索二零二六年的,那就有些模型他是具备这样的网页搜索能力,他就可以调用这种 实时搜索能力,那么有些是不支持的,那就要配置这样的 m c p, 官方也出了这样的工具,比如像豆包系列,二点零最新的模型也是一样支持文本和图片,那么他这边也是可以单独去开通网页搜索的能力啊。 那我们可以看一下,就是啊这几款国产的,比如说 mini max m 二点五、 m 系列和这个智普的五点零,他们这个图片的识别是需要单独去配置 mcp 的, 不然的话他是没办法去识别的。 那 timi k 二点五的话是原生就支持图片识别,那么国外的模型,比如说 colossal 四点六和 jpeg 五点四,还有 jimmy 的 三点一 pro, 那 么它们都支持图片识别,也支持这种啊网页的实时搜索,那算是这个综合能力算是比较好。那其他的比如说你要去让模型去申请个图片, 那基本上我们现在用到的这主流的这个啊主模型啊都不具备,那么你就可以去调用他们专门的图片模型。比如说像千万,他有专门的万象系列的生成图片的,那么都包括有纪梦相关的模型,那么像 jimmy 的 话,有专门的这个深图的模型也是可以的。就是这些 又需要去单独去配置,在你去生成图片的时候去告诉他去调用这个模型去做这个事情,那像这个火山,这个 cds, 二点零系列都是可以去生成视频的,那么这个就是一定要知道,就是一款模型,它不是万能的, 你可能需要不同的模型来配合去完成你的业务的场景,所以一定要一定要弄清楚你的业务场景里面涉及到了文本、图片、视频、音频, 就把这个东西先想明白了,再去找对应的模型配置好,就才能去把整个东西,整个东西串起来。选好模型之后,很多模型厂商都会有两种购买方式,一种叫做按 token 购买,就是 按用量购买,用多少啊你就付多少,这种方式是比较自由的,它是不受任何限制的。那么第二种就是按这种 coding plan, 就是 套餐的方式,那这种套餐是什么样子呢?一般是有 有限制,比如一个月能用多少次,然后一周能用多少次,然后五小时能用多少次,它是有一个这样的一个限制,会每隔五小时会刷新,每一周会刷新,然后总流量是不超过啊,每个月总流量那么像智普啊, mini max, 豆包,还有这个千万 都出了相关的这种啊这种代码的套餐啊,就是可以可以编码,又可以用在 openclo 里面,那每一个套餐这个量是不一样,大家一定要注意去看,它可能在官方的介绍里面会说啊多少多少次请求,但是要换成就是你的一次对话,就是你跟 openclo 对 话一次,可能要 调用很多这样的一个请求,那么这样的次数是没有他说那么多的。最后呢,就是我们选择好了模型之后啊,我们怎么去配置?第一种方法就是啊原声的就是它 openclo, 它本身你在配置的,你在安装的时候它是有模型的一个列表的,比如说你输入这个 openclo config menu, 那 么 到这一步的时候,你选择这个 model, 就是 你需要去配置这个模型这边的话就会选择很多啊,它本身的支持这个 pro i 的, 就是它本身已经内置了这这些模型的链接,那么你点进去之后,你就可以去输入你的 a p i t, 或者说输入你的这个认证授权的一个链接啊,那这能快速的去完成。那还有一,还有一些它可能是不在这里面的,比如说像千万千万的这个 codeplain, 还有一些其他的这种模型的配置啊,那么你就可以使用这种 cc switch, 那 这款软件,那这款软件呢?有一个单独的一个菜单,那么点进去之后你可以去进行配置,也是一个图形化的界面。那接下来就是这种比较繁琐的,就是去编辑这个这个 配置文件,那这个是 openclip 的 一个啊,总的一个配置文件,那这里面的话,你就要去修改这个 providers agents 里面的内容。一般是 如果你选择哪个模型厂商的话,它会提供这样的配置文件修改的,这个啊完整的字幕串,你直接去给它修改掉就行了。那么如果你自己改这个接线文件,因为这个接线文件非常大, 嗯,不太方便了,你可以借助这个 ai 编程工具,比如像 tree 啊,像 cos 啊去帮你去修改它,它这边是可以去给你修改,而且可以去给你修复可能修改出来的问题啊。 那除了这上面的方法之外,那就可以用它自己的这个外部端里面的设置里面找到这个 modus 的 节点啊,但是它这个说实话非常非常难用啊, 我觉得用上面的方法都比它这个官方这个界面用的会可能会更简单一点。那你如果配置完之后啊,最好是重启一下,那么你在页面上可以点去重启,或者说输入这个 open curl, get away restart 这些命令去重启,重启完之后,那么你就可以去使用新配的模型了。 ok, 那 本期视频到这,希望这个视频对你有所帮助。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

今天给大家分享一个项目,让你用最少的钱去用上最好的模型来使用这个 open curl, 因为我们都知道这个 open curl 小 龙虾,它的性能很好,而且非常有意思,但是它的 token 消耗太恐怖了, 如果你要用 open i 的 这种 codex, 五点二,五点三这种模型的话,或者用 cloud 的 这些模型的话,它可能跑一晚上,你明天就欠费了。 今天来给大家分享的这个项目是什么?可以让你把这些 cloud code, 把这种 etgrity 这种应用 它里面的会员额度给它套成 token 来使用这个 open curl。 当然你如果要用在其他地方也是可以的,比如说你想用这 codex 这个模型去在 cloud code 里面使用也是可以的。这个项目本质上就是一个怎么样把这些会员的 token 给它套出来, 把它弄成一个标准的 a p i 的 格式,标准的 open i, a p i 的 格式,让所有的这种应用都可以去调用。 ok, 我 们来看一下,我直接给大家看一下出来的结果是什么样。提起来这个服务,就可以直接到这个网址里面去配置了,这是它的一些仪表盘,你可以配置上你的这些会员 ai 提供商是什么? 一般我们用的话,用这个 codex 的 会比较多一点,像其他的是这种 jammer 或者 ideographic 的 cloud pro, 这种会员基本上就不用考虑了,因为在国内是非常容易被封的, 所以说基本上是不用考虑的。所以为什么要用这个?它的二十美金 plus 这种会员它有一些渠道,它会比较便宜,并且最近最划算的是什么?去买那种 team 的 账号, team 的 母账号,它还可以拉四个子账号,只要几十块钱,它相当于你一共有五个这种 plus 的 二十美金的会员账号,然后你有五个 codex 的 使用量,你只要登录授权, 登录了之后,它的这个网址里面有一个 token, 你 就直接复制到这里面提交就可以了,它可能会报错,但是不用管它,你直接砍看这个配额管理,这后面就可以,只要它这儿是有的,都可以使用, 就是正常可以使用的。还有这些配置面板这些,这个提起来也很简单,大家用 cursor 或者说用 cloud code 直接全选 给它复制,让 cloud code 的 去给你做配置就行了,就 cloud code 的 这些直接给你做配置就行了,但是它还是有些坑,但是 cloud code 呢?这 coser 这些它自己就能解决,它需要自己去配置一个 key, 这个 key 随便是什么都可以。还有一个坑就是我这 cloud code 第一次登录的时候,它把这个这个东西它搞错了, 他以为不需要这个后缀,他一直告诉我这个,我让他检查,他检查了半天才知道他是要要这个的才能登录进这里,提起来也是非常方便。总体来讲这个项目还是非常不错啊,他可以把这种 codex 可以 套出来,甚至你可以把你的端口 去做个内网穿透,或者搭在服务器里面,这个项目你就可以去卖 token 了。我也用这个 codex 这个模型在我的 cloud code 里面去跑了一遍,它是真的有点慢。 codex 这个模型,但是它的准确度这些没太大问题了,感觉跟 cloud code 是 没有本质的区别的,但是效果都还是蛮蛮不错。

新手想玩 openclo, 到底选哪个平台的小龙虾最合适?怕买贵又担心不会安装?今天一分钟就给你讲明白,记得先收藏起来。先给纯小白科普一下, openclo 本身是免费的,咱们花钱呀买的其实是平台的一个服务器,还有模型的使用权, 不用自己折腾本地部署和对接 a p i 那 重点来了,六家主流平台对比,我将从收费模式、价格、安装难度等维度来帮你筛选出最合适你的 openclo。 首先是腾讯云和阿里云的 openclo, 它们采用的是服务器加模型收费的模式,优点是便宜,这里推荐阿里云的 openclo, 只需要十八块钱就能够拥有一只自己的小龙虾,但缺点是需要折腾两次付费流程。而且考虑到很多人连服务器是什么都没有搞明白,非技术人员呢,就可以直接 pass 掉这两种了。直接看下面四种就好了。 kimi clo 先排除, 因为它太贵了,且不说功能和其他几家相比起来大差不差,光订个会员就需要一百九十九块钱,直接就是一个劝退了。从价格上来讲,我更推荐火山引擎,它有九块九体验七天的一个套餐,别看时间只有七天,我 敢打赌百分之九十的人呢,在装了 oppo nano 不 到七天就会放弃了,如果是想尝鲜的话,这是一个不错的选择。最后是扣子跟 mini max, 也是我最推荐的两个, 质量其实差不多,一个四十九块钱,一个三十九块钱, mini max 会更便宜一些,但扣子的生态更完善。这里有很多大神已经做好的 skill 呢,可以给 openclaw 来调用,大家可以根据自己的需要来进行选择。这六个主流平台的 openclaw 安装指南,我也整理了一份完整的文档,点个关注轻松获得。

人人都在养龙虾,但哪个模型最适合 opencloud 啊?别急,龙虾之父亲自推荐的龙虾壁纸榜来了。这个榜的名字叫 pinchbench, 它从成功率、速度、价格等维度评估全球大模型对 opencloud 的 适配程度。关键是前三名咱们国产模型就占了俩。 那这个榜单是怎么进行评估的呢?跟传统大模型的版本不同,它更像是 a 准的能力测试,主要是测试不同大模型在真实工作流中的业务能力。 它包含了二十三个真实任务,比如日程管理、调用 a p i 完成操作、写邮件、写文章、做研究等等。接着有的任务是由脚本自动检查完成情况, 有的是由幺幺幺评审,有的是二者结合。从结果来看,中国模型在成功率和速度上都表现出色,只是价格上落后了一点点。比成功率,第一名是 gemini 三 flash, 后面紧跟着 mini max m 二点一和 kimi k 二点五。 比速度, mini max m 二点五最快超过 jammin、 拉玛等模型。比价格, gpd 五 nano 最便宜,而国产模型中最便宜的 mini max m 二点一排名第五。 pinchbang 还做了个性价比的四象线图。成功率高且便宜的八个模型中,国产模型就占了一半,小模型也占了一半。也就是说,模型不是越大越好。那些偏 a 准、优化或推理效率更高的,而且更划算的模型,更适合用来养虾。你用的是哪个呢?

今天给大家分享一个比较便宜的普通小白都能用的一个大模型。我们知道我们在学习 ai 或者使用 ai 的 过程中,就会发现 它是一个巨大的氪金的东西,因为会消耗大量的 token, 很多大模型靠这个 token 的 消耗令来盈利来赚钱。今天分享的这个呢,就是阿里云的一个最新的叫扣丁普兰的 这个头,跟他这个主题呢,说是量大环保,支持阿里云的千万的三点五,还有 mini max, 还有 嗯 g m m 等等各种模型,他是按照消耗的次数调用的,次数就每月呢大概有一万八千次的这个调用额度,每月的这个套餐费用是四十块钱,现在打折啊,现在二十块钱 对于普通小白是完全够用的,因为很多人反映这个 投币量很少,而且比较慢,如果你只是说我掌握一下 ai 的 基本应用,跑一下简单的流程,知道这个 ai 是 干嘛的, 我觉得是完全够用,它还支持这个龙虾,还有支持可乐扣的。另外一个呢,就是我们在调用这个 api 的 时候,一定要记得是扣丁普兰的 api, 不是 那个百炼的 api, 因为百炼的那个 api 呢,它是后付费的,你消耗多少投币就扣多少钱。 我上个月签约的时候,当时结果 api 填的是那个百炼的,他一天就给我花费了一百块钱,当时把我吓坏了。我觉得阿里云他这个售后比较好,因为是今天那个售后小哥给我打电话, 我把这个事情给他说了,他说你是调用错了 api 了,今天就把那个 api 给改过来了,我觉得这个是比较划算,因为一个月就二十块钱,大家可以试试。

别再瞎用 openclaw 了,别人用 ai 啊,一分钱不花,你却在疯狂地烧 talk。 今天一条视频告诉你, openclaw 到底能连哪些大模型, talk 又该怎么薅?哪几个模型便宜又好用? openclaw 能连的模型啊,就三类, 国际大厂 g b t cloud, 国产头部空一千万 g l m kimi, mini max, 还有本地的 alama 开源模型,零成本啊,随便跑,想省 talk 啊?记住三招, 第一,新用户免费额度全领一遍。 deepseek 百链智普注册呢,就能白拿几百万的 token, 每月还有赠送的额度。第二,简单任务,用低价模型,复杂任务呢,再上高端。 第三,本地跑开元模型,一分钱不花,如果追求性价比,日常清量啊,用 deepseek 加千万 flash 免费额度就够你用了。中等任务呢,选 mini max g o m 四点五,便宜又稳,复杂推理直接上 cloud, 索尼 g p 四 o 迷你效果顶价格还不心疼?逻辑通了,你一个人就是一家二十四小时无人公司,关注我带你用 ai 早点下班!

今天聊一聊,部署了龙虾之后,你应该选哪一种大模型?现在主流的计费方式有三种,第一种是按 token 计费,第二种是订阅值,第三种是本地部署,那本地部署的话,其实就不需要我们每个月去交这个月费了。 首先来看第一种按 token 计费,通俗的理解, token 呢,就是我们说一句话里,这个话里有多少个词,原有多少个字。我们打个比方,比如说一句话里有二十个字,那么按 token 的 话, 一般大模型厂商会给每一个字标一个单价,那么如果每一个字值一分钱,一个二十个字的句子就需要两毛钱。 但是我们用龙虾的时候都知道,龙虾的思考非常的复杂,他不可能只跟你用一句话,或者简简单单的二十个字就完成了一次请求,所以你会看到龙虾的思考啊,虽然他没有说出来,没有声音,也是好托坑的, 而且他思考的越复杂,好的托坑越多,这就是为什么很多人啊,他的龙虾开着跑了一晚上,第二天钱包就没了。 第二种是订阅制,常见的呢,有每个月,比如说六美金或者大陆的供应商啊,可以看到每个月四十块钱这类套餐呢,他会规定你每个月的请求次数,这是什么意思呢?就是你的龙虾思考一次, 还要调用一次大模型,那这算一次请求,这一次请求包含了多少 token 都没关系,它只是算你一次的请求量。所以这种特别适合程序员的同学,因为我们在写代码的时候呢,每一次的请求可能涉及大量的代码往返, 我要放大量的现有代码和需求上去,同时呢,服务器也会返回大量的代码回来,这一来一回,如果走脱困的话,他就会非常的贵。第三种,本地部署啊,我看起来他只需要在我们本地的机器上装一个开源的大源模型就可以了, 那么所有的思考呀,计算都是在我们自己的机器上来做的,因此呢,也就不存在什么给大模型公司交构肯或者订阅费的一个问题。 但是本地部署有一个问题,就是一般的机器很难支撑起来大参数量的模型啊,当你部署的模型参数量不够呢,这个模型的智商就不够, 他会显得很笨。第二点就是参数量小的模型呢,他很有可能没有办法调用本地的工具,所以这种情况更适合于我们,适合于我们的团队作业,或者对于数据的安全要求特别高的情况。因为你如果在本地部署模型呢, 你的龙虾数据存储和计算都是在本地,也就解决了数据可能泄密的一个隐患。模型的订阅方式对模型的能力没有影响,比如如果你用了阿里的模型,那么按 token 或者按月订阅, 他调用的模型都是一样的。那好,你可能马上要问了,到底哪个模型更好呢?其实没有所谓的最好的模型,你要选择最适合你工作场景的模型。我建议大家可以提前用豆包, 用阿里千万以及用腾讯的还原模型。比如我个人的体感会认为千万的模型更适合编程,豆包呢,特别适合来写文章,尤其是做公众号文章的这种拣写质谱呢就会比较综合, 所以最后给大家的建议就是,如果你刚开始上手龙虾,其实可以试一下按 token 计费的方式,让龙虾完成一个小的任务, 这样费不了多少钱,同时你又能感受到龙虾跟传统的这个豆包啊,或者其他的 chatbot 的 区别。当你稳定的使用了龙虾一段时间之后,知道每天让它处理哪些东西, 它跑的这个任务呢很固定了,消耗的播放量也比较多,那这时候你就适合换成按月计费的这种方式。今天的分享就到这里,嘿嘿,有好的故事欢迎告诉我。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

装了 openclaw, 但发现它什么也干不了,甚至有点笨。那是因为你还没有去 clawhub 给它装 skill。 clawhub 上有一万七千多个 skill, 我 从下载量前三十和我自己高频使用的做了交叉筛选, 只推荐这十个,装完至少强三倍。第一个 skill writing, 安全审查员,他会在你安装任何 skill 之前扫描安全风险检查红旗标识、权健范围和可疑模式,能检测 prom 的 注入工具、逃毒、隐藏恶意代码。建议在装任何其他 skill 之前先把它装上。第二个自我进化 skill, 它是 cloud 交互下载量第一的 scale, 解决大模型失忆症。它会自动把每次的错误日期、成功经验和你的编号存到本地数据库,下次遇到类似问题,直接调用历史经验实现,越用越聪明。这个 scale 的 价值不在于第一天,而在于第三十天, 用的越久, agent 越像你的数字分身。第三个, tablie search ai 专属搜索引擎,让 agent 学会上网搜索,而且搜出来结果是 ai 友好的。 不同于传统搜索引擎返回一堆链接, tabl 直接返回干净的结构化内容, agent 拿到就能用。第四个 summarize, 全格式内容,摘药专家,网页、 pdf, 图片、音频、视频,什么格式都能一口吞下去给你摘药。 我的日常用法是 tabla 搜索加 summary 总结,先搜到相关页面,再把整篇内容压缩成五百字未给上架文,效率翻倍。第五个, find scales, 寻找 scale 的 scale, 用自然语言告诉 agent 你 需要什么技能,它帮你找到并安装对应的 scale, 不知道装什么的时候直接问他就行。六个 using superpowers 来源于 superpowers, 这个强大的插件,核心理念是让 agent 严格按照先查 scale 再行动的规则做事,杜绝偷懒和无距离探索。如果你发现 agent 不 用你装好的 scale, 就 自己瞎搞, 这个 scale 能帮你管教他。第七个, react 最佳实践技能的性能优化圣经 worst one 方共同团队出品, react 和 next 最佳实践前端开发者必装。 第八个前端设计技能,帮你写出更有设计感的前端页面。按 zorbike 官方出品强制 agent 先做设计思考,再写代码,把从能跑就行提升到设计合格。第九个, github github 全流程操控,让 agent 直接操作你的 github 仓库, asos prci 一 条命令搞定。最后一个浏览器操作技能,让你的 opencloud 像人一样打开网页,点击按钮,填写表单,截图画面。最后帮大家总结一下。

最适合 oppo 酷路的一个天选基座模型,我想除了阶梯五点四应该没谁了吧?一个优秀的一个 ag 的 基座模型, 我的理解是需要三个方面都比较优秀,一个是代码能力,一个是世界知识,一个是多模态理解。当这三个都能达到 s o t a 的 时候,那它几乎必然是一个最流的 ag 的 模型。当然还有一个重要的因素,那就是使用的一个价格。在过去的话,酷路的 oppo s 四点六,它几乎是 ag 的 模型的一个代名词,因为它在上述三个方面都特别的强, 但是它的一个使用价格真的很高,所以使用起来真的很肉疼。而这一次 g p t。 五点四的一个出现,真的就补齐了这个短板。 g p t 五点四,它在代码能力方面是和 g p t。 五点三 code x 是 齐平的,然后在世界知识方面,它比 g p t。 五点二要更加强大,同时它还能使用订阅额度,二十刀就能让你使用的超级爽。可以看这张图,在八个评估指标里面, 五个它都是达到一个最优的。总结一下, g p t 五点三,更强的一个视觉支持,加上更多的一个工具模型调度能力 机,超级便宜的 codex 额度,这四样加在一起,这就是一个完美的 code cool 的 一个天选基座模型,所以现在在使用 open cool 的 你们,可以尝试把模型换成 gpt 五点四,我相信你会发现一个新的大陆。

养龙虾最新调用榜出来了,国产模型这次冲得很猛, open club 这波不是跑分,是实打实被掉了八点八,八万一次,两个月三百四十四个模型,这个量已经够看出真实偏好的。现在月榜前三是 kimi, k, 二点五, step 三点五, flash、 mini max、 m, 二点五,前三已经全是国产, 这说明真正吃到掉用量的已经不是老牌币源独跑前十模型里,国产一共吃掉了百分之五十三点八,这不是一匹黑马,是一整排国产模型都在往前顶。 更狠的是,月榜还是 kimi 第一,但单日冲刺已经是 step 更猛,国产模型在真 a 阵台里已经开始反超了。你用什么模型充当你的大脑?评论区答疑,见到就回!关注扎克,聊 ai, 紧跟 ai, 巨象思考!

家人们养 openclaw 龙虾,选模型不用愁了,专属评测榜单 pinchbench 火遍全网,龙虾之父亲自推荐。更惊喜的是,国产模型直接杀疯,成功率速度霸屏前排,实力惊艳老外。 这个实时更新的榜单超靠谱,从成功率、速度、价格三大核心维度评测全球模型,精准匹配 openclaw 需求。成功率上,谷歌 gemini 三 flash 举手,国产 mini k 二点五紧随其后, 包揽二三名。速度方面, mini maxm 二点五直接登顶,超越杰曼莱拉玛,比上一代提速百分之三十七。价格上,国产模型稍逊一筹, gpt 五 nano 性价比拉满国产最便宜的 mini maxm 二点一,约威奇三倍。 但综合性价比榜单里,八个优质模型,国产就占了四个。榜单由 qioai 打造,含二十三个真实任务测试开源,可自定义评测,更贴合实际工作流,小模型也能吊打大模型。

一个月的深度使用告诉你,用 opclock 不要再傻傻地跟风部署本地模型了。就拿这台四卡力一百三十二 g 的 milli 来说,本地 部署 mini max l r 三零 b 模型使用遇到复杂问题一样不行,就别提那些几十倍的小模型了,真的要用开通几十块的 codeignal 才是明智之选。 用欧本科奥是让他帮你解决问题的,不是你教他解决问题,他解决问题的能力就是你所使用模型的参数量。其实比以下的模型相当于安排了一个中学生来帮你处理任务,你觉得他能处理好吗?

你会发现,现在上手 openclaw 的 门槛越来越低,但真正让人头疼的其实是后期的养虾消耗,也就是跑模型 api 的 支出,到底用哪个模型才划算?最近, pinching 专门发布了一个针对 openclaw 的 模型评测榜单,他们的测试方法非常硬核,不跑虚的分数,直接把模型丢进真实的打工环境里, 让他们去自动发邮件、写代码做调研,然后用自动化脚本和裁判模型综合打分,直接算出真实的任务成功率。 榜单看下来有两个核心结论,论绝对实力,头部依然是海外大模型位居前列,排名前三的分别是 crowd、 oppo 四点六、 oppo 四点五和 gemini 三点一,属于追求极致性能的理想选择。 论性价比,榜单做了一张直观的散点图,如果你看向左上角的高性价比象限,会发现国产模型非常亮眼, mini max、 m 二点一、二点五以及 kimi 在 性价比上有着显著的优势。除了这两点,你还可以在榜单里直观对比各个模型在速度、成本、一致性等维度的偏向,按需挑选非常匹配你工作流的那一款。 如果你最近觉得家里的小龙虾干活效率一般,消耗又偏高,强烈建议对着这个榜单给他换个高性价比的脑子试试。

正在使用 openclaw 的 小伙伴们要注意了,就在刚刚啊, openclaw 的 全球模型调用榜单正式出炉,国产黑马揭秘星辰、史蒂夫三点五 flash 正式登顶!而且这次榜单的前五名啊,咱们国家的模型直接包揽了其中的三名, 除了揭秘星辰,还有 mini max m 二点五和 kimi 的 k 二点五,两个模型把一众海外昂贵的币源模型都甩在了身后, 这意味着什么呢?意味着咱们的 ai 应用的门槛被彻底踩碎了。这款模型呢,采用的是 m o e 的 架构,处理任务时只激发了部分参数,速度快到每秒三百五十个 tock, 而且它的成本极低啊!以前呢,我们使用 g p d 四写每日工作记录和邮件,每个月呢,就要花费上千元的 api 的 调用费用。 后来呢,我们直接换到了这种高性价比的国产模型,配合我们搭建的自动化工作流,现在啊,几十个账号一块发布,每天自动回复几千条咨询,成本降低到了原来的十分之一。那么很多人可能会担心啊,因为便宜没好货吗? 这模型足够聪明吗?其实啊,对于企业百分之九十的日常任务,比如说客服的回复,文案的改写, 然后数据的整理,这些国产模型的能力啊,其实也完全足够了。真正的壁垒呢,从来不是你用了多贵的模型,而是你有没有把行业的经验投喂给他。我们团队呢,现在就有一套三十个维度的数据投喂的方法论,能够帮你把这些高性价比的模型呢,训练成懂你业务的数字员工, 不管模型怎么变,你的企业的知识库才是你的核心资产。当模型不再是瓶颈,企业之间的竞争力啊,就只剩下一个维度, 谁能够更快地把 ai 这一样翻过去,把技术变成实实在在的生产力?我们这边呢,整理了一份大模型落地到行业的全流程的 sop 文档,有需要的可以来说一下。

千万别一上来就给你的 openclaw 大 龙虾街上最顶级的 ai 模型!我们群里有个朋友刚装好 openclaw, 兴奋的跑了一晚上定时任务, 早上一看 api 账单直接扣了五百多块钱,心痛的差点把电脑砸了。为什么会这么烧钱呢?你要知道,大龙虾和普通的聊天 ai 完全不一样, 大龙虾在你睡觉的时候也在持续的吃粮食,吃蒜粒,你的精肺在不断的燃烧,原因是他的心跳机制,每隔几十分钟,他就要在后台自我思考一下我现在该干嘛。如果你连他发个呆,查个日程都用 colo 的 opus 或者 gmp 五这种顶级的大脑的话, 那简直就是在用高射炮打蚊子,钱全烧在无效的运转上面。今天教你一招我独家的穷鬼配置套餐,能够把大龙虾一天的运行成本压缩到十块钱以内。秘诀就四个字, 高低搭配。大龙虾日常的巡逻、收发消息、整理文件,这些低端的工作的智能体验,你就给他配置国产模型,比如 deep sea, 或者节约行程,速度极快,几百万托克呢,也就一瓶水的钱,这样子大龙虾连续工作七天,也就一个外卖的钱啊,非常划算。 只有当大龙虾遇到复杂任务或者做深度决策的时候,通过配置路由,让它自动去调用 cloud 四点五这种顶尖的模型。这样子搞下来,你的 ai 既有顶级架构师的脑子,又有廉价打工人的执行力。 这套大龙虾高低配路由配置文件我已经写好给测试跑通了,你拿过去直接复制替换掉原来的设置就行。老规矩,在评论区留下一句大龙虾,我后台直接发给你,关注江无为,带你花最少的钱,养最强的黑员工。