如果你关注 ai 圈,你一定听说过这只最近在技术圈内横行霸道的小龙虾。开源 ai agent openclaw 作为今年的现象级开源项目, openclaw 的 github 星标已经标到二点八万加,甚至有人开始上门帮人安装龙虾赚钱,成了开发者圈最离谱的副业之一。 open 阔三点七发布不到二十四小时,三点八稳定版已经上线,迭代速度堪称疯狂。但问题来了,养龙虾到底用哪个大模型最强?这两天,一个专门评估大模型养虾能力的精准测试 pinch bench 终于出现了。 更有意思的是,这个榜单一发布就被 openclaw 作者 peter 亲自转发点赞。 pinch bench 在 真实的 agent 任务下进行跑分。在龙虾三点八上线后,养虾排行榜也迎来了一轮洗牌。 任务成功率方面, cloud open 四点六取代前任冠军 gemini, 以百分之八十二点五的任务成功率领跑之前排名在二三位的国产模型 mini max 的 mini max m 二点一跃至暗面的 kimi k 二点五滑落至第八和第六位。 执行速度方面, gpt 四 o 拿下速度冠军。从榜单来看,轻量级模型普遍手速更快。而在成本榜单上, gemini 二点五 flashlight 展现出了极致的性价比,单次成本仅零点零二美元,让 ai 帮你干活。听起来很美好,但背后其实是 token 在 疯狂燃烧。 不少养虾专业户每个月在 token 上的花费高达一千至两千美元,由此,性价比之王们的含金量也就不言而喻。落在官方推荐区间的模型,直接用就对了。综合来看, kimi 智浦 mini max 千万的模型依旧能打。 随着龙虾三点八的更新,国产模型大概率也会有新的优化动作,期待值已经拉满。问你来了,你开始养龙虾了吗?评论区聊聊你现在用的是哪个模型?
粉丝8684获赞8.2万

如果你还在到处求安装龙虾的教程,我来分享一下我花一分钟在飞书上一键部署的方法,并且服务器免米来手把手教你们怎么玩。首先打开飞书,直接搜索框,输入妙搭,点进去就能看到一键部署龙虾的模板。官方已经把底层架构都给你写好了, 你只需要点击一下创建,然后点允许,给个权限。接下来神奇的事情就发生了,不到六十秒,部署完成,点击立即对话,龙虾助手就上线了,小白也能直接部署,完全不用费劲。 而且这个龙虾自带了很多能力,比如搜索网页都是内置权限,不用多轮对话去教它,直接问就行了。我随便测试了两个场景,反馈速度还是可以的。最重要的是 token 问题,基本上官方也解决了,四月一号之前每天官方刷新一百万 token, 所以 还卡在龙虾部署第一步的朋友们,先用它试试效果,直接上手用起来。

用龙虾机器人真的很不介意本地部署大模型,我这个内存直接跑满 一百二十倍七十倍的还算比较流畅,但是很弱智,这个告诉一百二十倍非常丝滑,但是有点弱智。龙虾基本上每十分钟消耗十几 k 的 taco 也不算多,现在运行的是千万三两百三十五 b 就 很卡, 两百五十六内存快占满了,这个回复速度也比较慢,用在线大模型会好很多。这么半天了还没有回复,有啥想问的留言交流吧,拜拜。

龙虾 open 可乐用本地算力可以吗?这位朋友有数据安全洁癖,一定要用本地算力做龙虾大模型要极致性价比方案,价格控制在万元以内。那这台机器又请出了咱们的老朋友特斯拉 v 一 百三十二 g 版,刚好可以跑最新的千万三点五三十五 b 版本。那你要问为啥装双显卡, 因为它还需要另外一张显卡,跑知识库的引杯的模型,不用知识库时还能给龙虾加速内存。其实十六 g 就 够了,不过它上到了 ddr 四六十四 g 哦,因为它是金融行业,为了防止龙虾抽风装在了虚拟机里,而且使用时它会同时开 n 个虚拟机, 都调用宿主机的大模型。没错,这就是很多人口中的洋垃圾配置。但是万元以内的本地算力不用洋垃圾还能用什么呢?配置我放评论区里了,有需要的自取。

找别人去部署,收费都已经达到了五百元一次,我们也是首次来使用这个大龙虾,在完全小白的情况下,来看一下这个大龙虾我们能不能通过 ai 的 方式全自动部署到我们的电脑里面, 然后去使用它。据说这个大龙虾可以完全操作我们的电脑,完全释放我们的双手。好,废话不多说,我们先来使用 ai 将大龙虾 尝试着去自动的进行部署。桌面上我们那个网页是一个终端的形式,我们新建了一个龙虾文件夹,然后打开了一个终端, 完全基于网页上,我们选择部署大龙虾的 ai 工具是使用 coder, 使用它的模型 autemeter 极致模型,一点六 x 翻倍。首先发给 coder, 我 们先描述一下关键词,最近火爆全网的 open curl 可否部署到我们的系统上,回车看一下这个模型,我们就选择这个刀刻的方式去部署好,回车 来提交这个答案。扩展了网络上的教程以后,问我们使用哪种 ai 来对接 open klo? open klo 它只是一个 ai 网关,说白了它就是一个壳, 核心还是使用 ai 的 智能模型 ko 的 给出了五个步骤,预计应该是一分钟 可以完成。按照 code 给出的提示,我们来通过这种方式 token 的 方式直接访问这个链接,就可以登录 openclo 来看一眼它的这个网页端的效,前面有 code 的 模型和 openclo 之前在调试时候的对话, 然后左边是菜单栏,接着来问一下他,你都可以做什么?点击发送,这样 open close 就 会调用对接的谷歌 gemini 模型来进行回复,好给,除了回复,他可以做很多事情,运行终端,搜网页,抓网站内容,控制浏览器, 各种任务,发送消息什么的都可以做。这些任务的执行我们就不再测试了。这就是我们第一次使用 open klo, 甚至不知道这个发音对不对的情况下,通过扣嘚纯聊天的方式 对 open klo 进行的部署。如果你也喜欢这种聊天的方式去部署 open klo, 可以 访问加运点 set, 参考里面的文章。

今天聊一聊,部署了龙虾之后,你应该选哪一种大模型?现在主流的计费方式有三种,第一种是按 token 计费,第二种是订阅值,第三种是本地部署,那本地部署的话,其实就不需要我们每个月去交这个月费了。 首先来看第一种按 token 计费,通俗的理解, token 呢,就是我们说一句话里,这个话里有多少个词,原有多少个字。我们打个比方,比如说一句话里有二十个字,那么按 token 的 话, 一般大模型厂商会给每一个字标一个单价,那么如果每一个字值一分钱,一个二十个字的句子就需要两毛钱。 但是我们用龙虾的时候都知道,龙虾的思考非常的复杂,他不可能只跟你用一句话,或者简简单单的二十个字就完成了一次请求,所以你会看到龙虾的思考啊,虽然他没有说出来,没有声音,也是好托坑的, 而且他思考的越复杂,好的托坑越多,这就是为什么很多人啊,他的龙虾开着跑了一晚上,第二天钱包就没了。 第二种是订阅制,常见的呢,有每个月,比如说六美金或者大陆的供应商啊,可以看到每个月四十块钱这类套餐呢,他会规定你每个月的请求次数,这是什么意思呢?就是你的龙虾思考一次, 还要调用一次大模型,那这算一次请求,这一次请求包含了多少 token 都没关系,它只是算你一次的请求量。所以这种特别适合程序员的同学,因为我们在写代码的时候呢,每一次的请求可能涉及大量的代码往返, 我要放大量的现有代码和需求上去,同时呢,服务器也会返回大量的代码回来,这一来一回,如果走脱困的话,他就会非常的贵。第三种,本地部署啊,我看起来他只需要在我们本地的机器上装一个开源的大源模型就可以了, 那么所有的思考呀,计算都是在我们自己的机器上来做的,因此呢,也就不存在什么给大模型公司交构肯或者订阅费的一个问题。 但是本地部署有一个问题,就是一般的机器很难支撑起来大参数量的模型啊,当你部署的模型参数量不够呢,这个模型的智商就不够, 他会显得很笨。第二点就是参数量小的模型呢,他很有可能没有办法调用本地的工具,所以这种情况更适合于我们,适合于我们的团队作业,或者对于数据的安全要求特别高的情况。因为你如果在本地部署模型呢, 你的龙虾数据存储和计算都是在本地,也就解决了数据可能泄密的一个隐患。模型的订阅方式对模型的能力没有影响,比如如果你用了阿里的模型,那么按 token 或者按月订阅, 他调用的模型都是一样的。那好,你可能马上要问了,到底哪个模型更好呢?其实没有所谓的最好的模型,你要选择最适合你工作场景的模型。我建议大家可以提前用豆包, 用阿里千万以及用腾讯的还原模型。比如我个人的体感会认为千万的模型更适合编程,豆包呢,特别适合来写文章,尤其是做公众号文章的这种拣写质谱呢就会比较综合, 所以最后给大家的建议就是,如果你刚开始上手龙虾,其实可以试一下按 token 计费的方式,让龙虾完成一个小的任务, 这样费不了多少钱,同时你又能感受到龙虾跟传统的这个豆包啊,或者其他的 chatbot 的 区别。当你稳定的使用了龙虾一段时间之后,知道每天让它处理哪些东西, 它跑的这个任务呢很固定了,消耗的播放量也比较多,那这时候你就适合换成按月计费的这种方式。今天的分享就到这里,嘿嘿,有好的故事欢迎告诉我。

小龙虾是一个 an 景嘛?它是专门做服务的,它为什么这么火呢?它现在可以嫁接到 ai 大 模型上面,大模型功能非常强嘛,它参数越多,它的功能性越强。它现在小龙虾通过 a p i 的 方式接管大模型,所以它就变成了 ai 自身技能的这样的一个工具嘛。它的优势就在这,然后它可以通过 an 景就是小龙虾这样的一个引擎去接管大模型的 a p i, 所以 说这就变成了一种非常好的一种组合嘛。