我们下周六想要实现的一个目标,把 open curl 是 部署在云端对吗?对,是的,部署在云端。哎,那它跟就是现在有的像 kimi curl 啊,包括飞叔好像也听说要接入 open curl 了,也有 q curl, 那 我们的这部分操作跟这些大厂推出来的这些云 curl 有 什么区别吗?其实的话,他们各个大厂推出来这种一键部署的 curl 都是属于一个纯开箱即用的这么一个机制,它就相当于把所有小龙虾需要用的一些基础的环境或者说一些技能它都给你配 设置好,然后你直接按他们各厂的个类似萨斯订阅制的这种工具,直接一键安装就可以去使用了。但是因为本身他们也是各大厂自己去开发的这个工具吗?所以他们一定是基于自身的那个业务啊模型以及他们的功能去做一些限制和规划的,就肯定他的一些数据或说他的 使用频率肯定也受限于各个厂商,而且也只能使用他们自己对应的模型吗?是,如果说你想用到国内各大厂一些优质的模型的话,其实你可以自己去买 些 coding plan 这样子,像比如说字节啊,或者说是阿里云的那个摆列,它其实都有一些配套的套餐,可以配很多不同的国内优质大模型,就可以换着用,就不会有这种大模型选择上的一些步骤。
粉丝19获赞74

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

你知道养一只龙虾究竟要花多少钱吗?如果你没有算过经济账,我真的劝你千万不要一时冲动就想着去养一只龙虾。我们首先来说那种一心想要部署自己的 open club 的 人,他也分两种情况来看,第一呢,就是选择本地部署,也就是把 open club 部署到你自己的电脑上。 当然,想养好一只龙虾,你总得有一个像样的虾龙吧?那现在最主流的配置呢?就是低配版的 mac mini 四千三起步了,高配版直接上到一万,这还不算完?如果呢,你不想自己折腾,找一个靠谱的袋装师傅是几百到七千块钱不等,那到这硬件加安装,你最少已经花出去五千块钱了。 我们再看云端部署的这帮人哈,他直接使用阿里云、腾讯云这样的平台提供的一键部署服务,就不需要复杂的配置环境了,比较适合新手去布置 openclo。 但是呢,你需要租一个云平台,轻量使用的话,月成本是在五十到两百块钱,重度使用的话,一个月可能要花到上千元。 那选择以上的两种部署方式,你就可以完成你的 opencloud 部署了。恭喜你在这获得了一张养虾资格证。 但是真正的烧钱游戏呢,也才刚刚开始。这两种部署方式的 talk 消耗都是需要单独计费的,你就把这个 talk 哈理解为是 ai 世界里的电费。 简单来讲,你每跟 ai 说一句话,它都得按字数给你收费,中文的一个字要耗一到两个 talk。 而 openclaw 每次启动,光热身就得吞掉几千甚至几万个 talk 了。什么意思?你的车还没有起步呢,五块钱的油钱就已经没了。 有开发者实测过去,刊写一份简单的调研报告,算力成本大概是十块钱左右,极端情况下六个小时就会花掉一千一百七十二块钱。还有人第一个月就烧了一点八亿头,肯账单就得两万多。那当然呢,还有第三种部署方式,也是现在比较流行的,就是选择 kimi kong max kong 这样的包月订阅服务。 它是一种一键打包的服务哈,也是现在被国际媒体评价为是美国所有云计算巨头都没有做到的事儿。 以 kimi koala 为例,它的会员费呢,是分为四档的,四十九、九十九、一百九十九、六百九十九,每月权限等级越高呢,就能够并行处理的复杂任务越多。从一百九十九的等级,你就可以开始养龙虾了。 这个方式好聚好散呢,你不需要自己去部署 open koala 的 开源项目了, kimi 和 mini max 已经帮你在大模型当中部署好了 open koala, 但是它们不单独售卖云平台的租赁服务,也不会去计算按量计费的 top 成本,直接给你一键打包到这个月订阅费里。 那以上三种方式哈,无论你选择哪一种,这么看下来,他都不是零门槛零成本的。所以我劝你千万不要陷入到龙虾焦虑里,不要被那种刷屏的龙虾神话洗脑, 也不要觉得别人都在用了,我不养一只是不是就落后了?你得先算清楚这笔账,想清楚自己的实际需求,再决定要不要入坑。最后呢,给你附上了普通人养虾指南,记得截图保存哦!

今天聊一聊,部署了龙虾之后,你应该选哪一种大模型?现在主流的计费方式有三种,第一种是按 token 计费,第二种是订阅值,第三种是本地部署,那本地部署的话,其实就不需要我们每个月去交这个月费了。 首先来看第一种按 token 计费,通俗的理解, token 呢,就是我们说一句话里,这个话里有多少个词,原有多少个字。我们打个比方,比如说一句话里有二十个字,那么按 token 的 话, 一般大模型厂商会给每一个字标一个单价,那么如果每一个字值一分钱,一个二十个字的句子就需要两毛钱。 但是我们用龙虾的时候都知道,龙虾的思考非常的复杂,他不可能只跟你用一句话,或者简简单单的二十个字就完成了一次请求,所以你会看到龙虾的思考啊,虽然他没有说出来,没有声音,也是好托坑的, 而且他思考的越复杂,好的托坑越多,这就是为什么很多人啊,他的龙虾开着跑了一晚上,第二天钱包就没了。 第二种是订阅制,常见的呢,有每个月,比如说六美金或者大陆的供应商啊,可以看到每个月四十块钱这类套餐呢,他会规定你每个月的请求次数,这是什么意思呢?就是你的龙虾思考一次, 还要调用一次大模型,那这算一次请求,这一次请求包含了多少 token 都没关系,它只是算你一次的请求量。所以这种特别适合程序员的同学,因为我们在写代码的时候呢,每一次的请求可能涉及大量的代码往返, 我要放大量的现有代码和需求上去,同时呢,服务器也会返回大量的代码回来,这一来一回,如果走脱困的话,他就会非常的贵。第三种,本地部署啊,我看起来他只需要在我们本地的机器上装一个开源的大源模型就可以了, 那么所有的思考呀,计算都是在我们自己的机器上来做的,因此呢,也就不存在什么给大模型公司交构肯或者订阅费的一个问题。 但是本地部署有一个问题,就是一般的机器很难支撑起来大参数量的模型啊,当你部署的模型参数量不够呢,这个模型的智商就不够, 他会显得很笨。第二点就是参数量小的模型呢,他很有可能没有办法调用本地的工具,所以这种情况更适合于我们,适合于我们的团队作业,或者对于数据的安全要求特别高的情况。因为你如果在本地部署模型呢, 你的龙虾数据存储和计算都是在本地,也就解决了数据可能泄密的一个隐患。模型的订阅方式对模型的能力没有影响,比如如果你用了阿里的模型,那么按 token 或者按月订阅, 他调用的模型都是一样的。那好,你可能马上要问了,到底哪个模型更好呢?其实没有所谓的最好的模型,你要选择最适合你工作场景的模型。我建议大家可以提前用豆包, 用阿里千万以及用腾讯的还原模型。比如我个人的体感会认为千万的模型更适合编程,豆包呢,特别适合来写文章,尤其是做公众号文章的这种拣写质谱呢就会比较综合, 所以最后给大家的建议就是,如果你刚开始上手龙虾,其实可以试一下按 token 计费的方式,让龙虾完成一个小的任务, 这样费不了多少钱,同时你又能感受到龙虾跟传统的这个豆包啊,或者其他的 chatbot 的 区别。当你稳定的使用了龙虾一段时间之后,知道每天让它处理哪些东西, 它跑的这个任务呢很固定了,消耗的播放量也比较多,那这时候你就适合换成按月计费的这种方式。今天的分享就到这里,嘿嘿,有好的故事欢迎告诉我。

我已经用了一亿的免费 tokyo 来养龙虾,可以看到这是一点五九亿的 tokyo, 然后四千四到用零元。我用的是这个新送的三点五 flash 的 模型,是用的 open rota 的 平台。对,前几天那个给大家分享免费养龙虾视频火了,然后今天做一个具体的视频之上,很多朋友在后台私信我。 呃,那首先呢,其实是我们去呃搜索这个今日星辰的三点五模型,找到这个 free 有 免费版。呃,进去之后可以看到它这里有个模型 id, 这就是它的模型 id, 我 们要复制下来。呃,其实要给弄一下。呃,可以看到就是它现在在 opcode 的, 就是调用排名非常高。呃,看到就是。呃, 昨天是第一名。对,昨天是第一名,今天是第二名,前几天也拿过。可以看到这排名非常高,前几天也拿过很多第一。然后我们回来之后呢,其实是在自己的这个。呃。 api k 这里。呃,进入到 api k, 嗯,去新建一个 api k, 你 可以填银行卡,然后再去填这一个信用额度,可以填一个零点一美金。 看到我,哎,我这里填了一个零点一美金项链,一旦有付费的行为,那就最后花七毛钱,这个 api 就 断掉了。嗯,对,然后再过一期时间去设置一下。然后呢,这个 api 呢,是一次性只能复制的,相当于这个也要给到龙虾,然后把 openroot 的 这个地址,就是直接把网站扔给他,然后再把魔仙 ak 扔给他,再把你 app apk 扔给他。对, 假如你当前有那个本地 l m 驱动的话,就是把这个配置上,它自己会去连接上新的模型。那然后你再去那个龙虾里面去调用这个对话的话,就可以看到自己的一些调用数据了,对,有某一天的用量特别大,都是免费。

最近 ai 界掀起了养小龙虾热,但是有谁知道养着这个龙虾多费钱? opencall 本身完全免费,收费只来自你接入的大模型 api。 一、 核心收费逻辑,小龙虾本地开源免费,本地部署无任何费用算力 token 收费,小龙虾只是指挥中心, 干活全靠背后大模型,你用什么模型,怎么计费,完全由模型方决定额外成本,本地运行电费,电脑损耗,云服务器部暑月费约六十到三百元。二、主流模型 token 收费,按一百万 token 公算 gpt 四 o 约一百到一百五十元。 wild 三、 opus 约一百二十到一百八十元。工艺千问文心一言约三十到六十元。 deepseek minimax 约十到三十元。免费模型,如 q n 七 b llama 三、本地版零元。 三、小龙虾烧钱有多猛?普通聊天一天几元到几十元,自动任务成文党一天几十到几百元很常见。复杂 a 诊多工具调用,单日上千甚至上万都有可能,隐藏消耗心跳机制,记忆重试机制,闲置也会烧头啃。四、 省钱方案一、优先用免费低价模型,本地开源模型,国内低价 a p i 二、控制任务复杂度,少开记忆,少用多工具缩短任务量。三、按量套餐,选平台包月套餐,如腾讯云 coding plan, 首月约八元,次月约二十元,无限 token 在 线次数。 四、本地部署,用自己电脑跑轻量模型,零 token 费,一句话记,小龙虾免费模型按 token 收费,想省钱就用低价免费模型加本地部署。还有,养小龙虾有安全风险,使用需谨慎。

玩龙虾终于不用再花钱了,你看,我配了两个模型,一个是 gpt 的 五点三,一个是 gpt 三。我的主模型用的是 gpt 五点三啊,因为这个的配额呢,是走的这个方式啊, 免费的时长配额,然后从这选 gpt。 然后第二个模型的话呢,是 gpt 三啊,这个模型 主打的是响应快,低延时,然后调用的方式是 a p i d k, 这样的话呢,就比较方便。一个主要免费用来日常沟通啊。然后另外一个的话,因为 gmail 的 话,他写文案各方面的话我比较喜欢,所以特殊情况之下我用 gmail。 总之订阅了 gpt 的 话呢,就直接不用再花钱了。太好了,想要了解的朋友呢跟我说,我教你。

我同事给龙虾换模型的时候给它换死了,遭遇了跟我之前遭遇的一样的事。现在三月七号版本更新之后已经升级了,也就是说你换模型的时候它会自动 fall back。 如果你有叉 gpt plus 订阅的话,那推荐你用一下 codex 的 那个模型,因为它免费啊。在你这个订阅费里面,你可以用 token, 然后作为一个接盘的 codex, 这个 authorization 有 十天的限期。嗯,这是我的龙虾告诉我的,我今天刚好是最后一天,那么我就重新又登录了一遍,这个整个的过程你也看到了, 我给他绑定好之后跟他说下一次 fallback 的 顺序就是 cloud 挂了,然后 codex 顶上, codex 不 行了,用 kimi 顶上,用两个是订阅 token, 先在前面使用,然后后续的采用充值的 api, 不 然花不起这个钱啊。 三月一号之前的那个版本,我换模型的时候就给它换死了,那这次就不会再发生那样的事情了,所以我直接让龙虾做了一个框找,也就是十天提醒我一次,我这个 codex 要到期了。然后另外呢,就是把它这个 fullback 的 顺序给它设置好了。

股友们,腾讯刚扔了个重磅炸弹,龙虾全国免费安装,十七个城市工程师上门服务。听到这,你可能要问我,一个普通用户,腾讯这么兴师动众,到底图啥?这跟我有什么关系? 别急,这事你要是只看表面就亏大了。这不仅仅是免费装个软件,这是腾讯在 ai 时代下的一盘超级大棋。 今天我就用几分钟时间,给你把这背后的门道讲清楚,让你看懂这波操作到底利好谁,咱们的钱袋子该往哪放?首先,咱们得搞明白这个龙虾到底是个啥?它其实不是一个产品,是一群产品的昵称。 最核心的那个叫 openclown, 你 可以把它理解成一个超级智能的数字员工,它能自己看屏幕、动鼠标、敲键盘,帮你干那些重复枯燥的活。 但问题来了,这东西虽然强大,对普通人来说,安装配置门槛太高了,以至于电商平台上上门帮你装一次得花好几千块钱。腾讯这次就是把这个最大的门槛一脚给踹翻了,官方派人免费帮你装, 这说明什么?说明 ai 智能体这个东西,已经从一小撮即刻的玩具开始走向咱们老百姓了。这是一个巨大的市场拐点。那腾讯砸钱砸人跑遍全国当装机小哥,他的商业逻辑在哪?难道就为了做慈善吗?当然不是, 这背后是一套精准到可怕的三步走战略,第一步也是最直接的,叫锁定算力。你想啊,这个数字员工要想七乘二十四小时干活儿,最好把它放哪?放自己电脑上,电脑一关,它就歇菜了。 最稳妥的办法是把它放到云上去,腾讯云顺势推出了一个叫 lighthouse 的 轻量应用服务器,一键就能把你的龙虾部署到云端。广发证券有个测算说,这种应用普及开两年内能带来百分之二十五的新增算力需求。 什么叫算力需求?就是云服务器是 g p u, 是 光模块。你可以把腾讯想象成一个卖铲子的人,大家都来淘金,他就稳稳地收着铲子钱,这直接利好谁,首当其冲就是腾讯自己。还有就是像尤克德这样第一时间推出部署镜像的云厂商,股价已经涨了一波了。 第二步叫持续收过路费。龙虾在云上跑起来,不是一锤子买卖,他每做一个任务,每调用一次大模型,都在消耗 token, 你可以把 token 想象成电费,只要龙虾在工作,就得交电费。腾讯混元大模型,还有像 minimax、 智谱这些第三方模型,都等着收这个持续性的电费呢。 大模有个报告说, minimax 深度绑定 open call 之后,年化收入从一亿美金飙到一点五亿,两个月就涨了百分之五十,这就是 ai 时代的发动机为例。 第三步也是最有想象空间的,叫重构生态入口。你注意看,腾讯这次带的龙虾产品里,有两个狠角色,一个叫 work buddy, 一个叫 qcloud。 这两个东西能让你直接在微信或者 qq 里远程遥控你的电脑干活。 你想想,如果未来我们习惯了在微信里一句话就让家里的电脑帮你整理文件、下载电影,甚至发邮件,那微信就不再只是个聊天工具了,它变成了我们操控整个数字世界的超级遥控器, 围绕着这个超级遥控器,会生长出无数的应用,就像当年苹果的 app store 一 样,腾讯正在搭建一个叫 skill hub 的 技能社区,里面有上万个技能,这就是 ai 时代的应用商店。掌握了技能的分发权,就等于掌握了下一个十年的黄金赛道。说到这儿,你肯定热血沸腾了,想赶紧去布局,但先别急, 这产业链里有金矿,也有陷阱,我帮你把最核心的几个受益环节,这是最确定的。卖产人 除了刚才说的云厂商,那些提供 gpu 算力租赁的公司,像宏景科技、协创数据,因为需求太旺盛,最近都在涨价。还有背后的光模块三巨头,中际续创、新益盛、天福通信,那是给算力中心铺高速公路的订单,根本停不下来。 国产芯片这边,龙鑫中科已经用自家的芯片跑通了龙虾部署含五 g 海光信息也得盯着点儿。第二块是大模型和应用, 这是最性感的淘金客,金山办公的 wps, 如果接入了龙虾,以后做 ppt, 可能真就一句话的事,中控技术在工业领域,拓维信息在深腾生态里都很有看头。第三块可能很多人都忽略了,就是安全。 工信部已经发过风险提示,说龙虾这类 ai 智能体权限很高,容易被黑客攻击,所以谁能给 ai 上个安全锁,谁就是刚需,像北信服这种安全老大哥也不会缺席。 所以你看腾讯这招免费装机,表面上是在服务用户,实际上是在下一盘很大的棋。他通过解决一个最痛的痛点,把自己变成了 ai 时代的水电煤供应商, 他锁定了算力,绑定了模型调用,还顺带手培育了一个全新的生态。这波浪潮可能比你想象的要来得更快更猛。对于我们投资者来说,看懂这背后的要来的更快更猛。对于我们投资者来说,看懂这背后的 k 线图,重要的多好!觉得有收获的家人们别忘了点赞关注,咱们下期见!

养龙虾彻底火了之后呢,现在市面上各种国产龙虾突然多到炸裂,今天呢,于是我就带大家快去逛一圈,看一下目前比较有代表性的几款国产龙虾到底是什么路数,顺便呢也聊聊价格。先说月之暗面的 kimi 哥,这个龙虾呢,就有点像一个网页版工具箱,不用装环境也不用呢折腾代码, 直接在浏览器里面就能用,底层用的是 kimi k 二点五的模型,里面已经内置了几千个技能,像整理文件、查资料、自动化办公这些事情,它基本上都能直接接手。它还有一个比较有意思的功能,叫做蜂群智能体,简单理解呢,就是可以让多个 ai 分 工合作一起干活, 有点像一个小团队合作,他能揭露飞书去跑一些极限任务。不过呢,他的价格确实不算友好,基础版一百九十九一个月,高级版要六百九十九一个月的价格呢,已经接近不少软件一整年的会员了,在国产龙虾里面算是比较贵的那一档。然后呢,我们再来看腾讯的 qq, 腾讯最大优势呢,其实不用多说,就是生态, 他可以直接和 qq、 微信这些产品打通,比如你在手机上面呢,发布一句指令,电脑端就可以自动开始执行任务, 相当于你用手机就能远程指挥自己的电脑去干活,整个体验呢,有点像给电脑装了一个随叫随到的助手。而且呢,他还有自己的技能库,很多自动化操作呢,都可以直接调用。目前呢还处于现身免费阶段,所以用的人非常多。接下来呢是自己的阿克拉克这个产品呢,走的就比较务实, 深度适配飞书,背后用的是豆包 c 的 二点零系列模型,它最大的特点其实就两个字,不够便宜。 lte 版呢,一个月只要八块九毛钱, pro 版呢,不到五十块,而且还是火山 callinplay 里面的附带功能,功能上呢,没有特别明显的短版,整体感觉呢,就像一辆性价比特别高的家用车, 可能不是那种豪车,但是呢,日常使用起来呢是非常划算的。再说一个讨论度也不低的龙虾,主打部署速度,基本上呢十几秒就能跑起来,算是非常快的那一类。 它也继承了飞书钉钉自动化能力呢,比较完整。价格呢是月费三十九和一百一十九两档,也不贵,整体体验比较均衡,也没有什么特别惊艳的地方,但也没有明显短板,属于比较稳的那一类。而且这个月费模式呢,不会额外产生托管费用,用起来呢相对比较安心,不用担心不小心把额度跑爆。然后呢是小米的 mico, 这个产品的思路呢就很小米,重点放在生态联动上,比如呢,可以直接控制米家设备,调灯光,开空调,甚至根据短信内容帮你安排出行计划,生成健康建议。听起来有点像把 ai 助手直接塞进整个智能家居系统里面,不过目前呢,它还在小范围的封测阶段,需要邀请才 能使用,而且呢,只支持小米十七系列的几款手机,大多数人呢其实还体验不到。另外在复杂功能的成功率上,目前还需要继续打磨。再来看一个比较即刻向的项目, zero pro, 它是用 rust 写的,主打轻量和速度,资源占用非常低,从技术的角度来看,其实挺漂亮,但问题也很明显,它更像是一台改装赛车,性能很强,但普通用户呢,可能很难真正的用起来,更多还是开发者和技术玩家在折腾它。有网易做的 rapstar ai, 也叫有道龙虾,官方定义呢,是一个全场景的 ai 个人助手, 可以七成二十四小时帮你处理各种任务,比如说写代码呀,处理文档啊,数据分析啊,甚至做一个小游戏项目,它同样可以支持接入飞书等应用,目前呢,也是免费测试阶段。最后呢是智普的 autoclole, 不 过呢,大家都叫它澳龙, 很多产品呢,都说自己开箱即用,但是真正做到开箱即用的其实并不多。像 autoclole 呢,就是我目前见过本地部署呢最简单的一款龙虾,我们点安装之后呢,基本上就可以直接生成一个可以兑换的 oppo 了,不用命令行,也不用配置 api, 甚至比很多软件扫码都用还简单, 还支持进入任意模型的扣金 plan 或者是 api, 也可以一键直连飞书。不过呢,它的付费模式有点特别,没有包月会员,只有充值积分,用一次扣一次,如果你习惯了订阅制,可能会觉得用起来没那么爽,所以总的来看呢,现在的龙虾其实还处于一个非常早期的阶段,功能呢,吹省酷, 但安全性、稳定性、权限控制这些关键问题其实还需要不断的打磨。所以呢,于师傅给大家建议其实很简单,先按需尝鲜就行,别必要一上来就砸大钱买最贵的版本,毕竟呢,这个赛道变化实在太快, 一个月时间呢,可能会出现一批完全不同的新产品。如果你只是普通玩家,可以先试试免费版或者比较便宜的云端版本就够用了。如果你是比较喜欢折腾的极客玩家,那就可以先去研究一下本尼部暑的 openclock russ 的 这种偏技术上的项目。

刚刚,智普发布了全球首个专为龙虾场景深度优化的大模型, g l m 五 turbo。 这个模型可是二零二五年以来智普首个必然模型,专门强化了工具调用、常练录执行这些龙虾场景刚需能力 评测。数据呢,也是硬气啊,用端到端的 z club 半指一测,在 open club 场景里比老款 glm 五强了不少,关键任务呢,还压过了多家主流模型。不过最让人关注的是,这个模型刚发布就涨价了, api 价格呢,直接上调百分之二十。要知道,这已经是智普近期的第二次涨价了, 二月呢,刚推出 glm 五时就涨过一波,现在 glm 五 turbo 在 那些基础上呢?再涨百分之二十,算下来呢,可能要比最早的 glm 四点七贵百分之八十三。 二零二六年一季度,智普 a p i 价格快翻倍了,但是市场反应倒是挺积极的,股价呢也在涨。为了让用户用得起啊,智普还推出了龙虾套餐,个人用户三十九元就能买三千五百万 tokens 的 体验月卡,企业用户九十九呢,就能够拿到一亿 tokens 的 进阶月卡。 另外,安全这一块呢,也没落下,专门搞了一套企业级的安全管理体系,给用模型的企业上了多重的保险。现在这个模型呢,已经在 openroot、 美团这些平台上线了,连机械革命的龙虾盒子也要全球开售。涨价还是能卖爆,本质呢,是市场认效果, 现在大模型不是能用就行,得实实在在能替人干活。 g m l 五 turbo 在 龙虾场景的能力提升,用户愿意为销量买单, 而龙虾套餐更聪明,用用低门槛,把个人用户和企业呀都圈进来,既赚流量呢,又赚口碑。安全体系在布局中呢,也戳中了企业的痛点,大模型越好用,数据安全呢,越敏感。这一步啊,算是提前给合作方吃了一颗定心丸。从之前的编程套餐到现在的龙虾套餐,似乎明摆着是要从卖模型转向卖数字劳动力。 毕竟啊,以后衡量 ai 价值的不是多少人在用,是他替人干了多少活。那么,大模型的价格战是不是要翻篇了呢?因为能够解决具体问题,有实力的模型,以后的定价权啊,只会更稳啊。

一个问题啊,就是现在到底是哪个模型我用起来比较省钱, ok? 呃,最近一直分享的都是免费的 open crawl 的 用法啊,因为大家开始想的是, 呃简单应用嘛,但是实际上我们上手用的话,肯定还是要考虑一个付费模型,那么到底用哪种付费模型比较好呢?有很多朋友就在提出一些建议啊,然后我今天跟朋友去讨论了一下,他现在是养了八只龙虾,然后他的经验是 在我们国内最好还是用一个叫阿里考勤的这样的一个模型,那么这个模型它每月的这个费用呢?是三十九块九啊,阿里就是阿里的考勤这个模型, 那么模型好和坏我们怎么去平衡呢?那么很多网友可能会去看别人的视频,有一些是国外的方案,比如说他用在 terrigram 上, whatsapp 上来评估的,这个对我们国内来说完全没有意义啊。那我们就是要看,就是我们在国内去跑 自己的国内应用啊,我们跑在飞速上这样的应用我们怎么样去消耗是吧?你好的模型当然就是一个贵,第二个就是好的模型他思考的比较细致,那个深入,那么他费的 top 是 必然就会多啊。我们日常的, 平常的,我们在国内的飞速上的这样的应用,到底什么样的模型比较好?我朋友的验证呢,他用过几个模型下来就是,呃,阿里的 这个 coding, 现在三十九点九的这个模型是比较好的,当然就是如果我们看绝对的这样的一个模型的这个费用 mini max 的, 它的绝对的那个费用会比 kimi 二点五的费用还要 低一半左右。嗯,在我们国内呢就是。呃,目前呢就是这几个情况,大家可以去尝试一下。 这个是个综合的考虑啊,并不是说就是单价便宜就好,就是你可能实测下来哪个比较省钱? 呃,我这里有几个观点啊,抛给大家,不知道大家认不认同我的观点,如果有更好的观点,大家可以这个在评论里面给出建议。 ok, 我 今天分享到这里啊。

我 open clout 的 时候一定要用 clout, 官方推荐 clout, 它是有原因的。今天我试了一下用 gpt 一 百二十 b 的 那个模型,它果然不行,我让它加入一个 scale 进来,就如果我用的是 clout, 它就直接加入进来了,但是我用的这个模型,它不会跟我说它做不了这件事,它是跟我说它没有权限, 他找出了四条原因,告诉我怎么去解决,但是这个问题根本就不存在,是他自己幻想出来的。所以如果我按照他的思路去调这些东西,就是一顿乱调,根本什么用都没有。这也是很多人问我 skill 怎么安装,然后我跟他们说你就直接跟可乐说就可以,但是他们说完之后安装不了,就是可能以为是有什么 呃,其他的操作需要操作,但其实根本没有,就是跟他说但一定要用可乐模型才可以。这种模型他自己能力 没有的前提下,他不会跟你说是因为他的能力不足,他装不了这个 skill, 他 是给你找出来一堆的原因,把这个原因找出来是一些错误的原因,去误导你,让你以为是这些原因。如果要用这种模型,这个只是装一个 你能看出来的问题,如果你看不出来的问题,他这样去误导你,就会导致你在用的时候,你以为是某一件事做不了,或者某一件事出了什么问题,但其实根本没有出那个问题,就是因为他的能力弱。

哈喽,大家好,我是龙虾差不多两个多月了,这期视频我想简单的介绍一下我如何为龙虾选择一个最适配的模型。今天我会按照计费方式、 token 刷新机制、价格和性能这四个维度来横向给对目前最流行的五个模型提供商。首先要确定的就是你到底是一个轻度用户还是一个硬核用户。 原因很简单,因为龙虾跑一个任务,它的后台实际上会有几十次的模型调用,你以为你只发送一条消息,实际上会刷量你二三十次额度,复杂任务甚至可能达到五十次以上。这就是为什么大部分人会吐槽龙虾吃偷坑的原因。 因此我一直在强调,大家尽量去选择 coing plan, 而不是按量计费。原因很简单, coing plan 是 一种包月套餐,它是一种兜里机制,因此它不会出现那种如果你选择按量计费,一不留神,一晚上就烧掉一座房的情况。 所以说大家首先要判断一下自己到底是哪一类的用户,然后再去选择对应的套餐。第二点就是 token 计算的猫腻,其实这里面有非常玄乎的东西,为什么呢?我会给大家揭秘一下, 每一个 coin plus 实际上都会带有五小时刷新。刷新这个词听起来不错,但是这东西有一些秘密没有人告诉你。比如说百炼火山和 g r m, 虽然都有五小时刷新,但实际上它们有个月度总量上限,也就意味着,你如果密集的跑几天,把你的整月额度全部用完之后,你会发生什么呢? 剩下二十多天,你只能不断地碰到 api rate limit 这个错误提示,就是说你的用量已经用完了,那么 kimi 实际上它是一周刷一次,所以说你会出现一种情况,可能你周一周二刷的比较狠,那你后面以前也用不了了。 所以说这里面唯一个就是真正的所谓五小时刷新,实际上只有 mini max, 就是 mini max 是 没有所谓月度总量这一概念,它就是按照每 老老实实按照五小时刷新一个机制,你只要五小时内用,虽然你五小时内用完了,但是你五五个小时之后你又获得了全新的头壳用料。所以从这个角度,那么五小时刷新这个概念下,还是 mini max 最划算。价格我为什么放在后面?因为很简单, 我认为你既然选择了使用龙虾,那肯定是为了提高工作效率。不论是你用来工作、学习还是处理日常事物,我相信你更看重的是它的能力,而不是价格。但是我们依旧要讨论一下。 这里其实百炼有一个 light 和 pro 版本,一个是四十,一个是两百,它的优点就是它的模型比较全,但是就像我刚才说它是按照调用次数来扣额度的, 那么龙虾重度用户每个月能实际跑的人数会比你想象中的少。另外一个火山方舟,它目前有个所谓的首月九块九套餐,这个是比较划算的,但是它下一个月它的续费 它就比较贵了,所以我大推荐大家去官网上看一下。还有一个就是 kimi, kimi 其实它分的比较细,它有四档,从四十九到六九九, 我说的就是它的七天刷新。我真的比较想吐槽,因为我最早其实用的是 kimi, 但后面不选择用的主要原因就是因为它的七天刷新,真的我有点遭不住,因为可能我用的比较快,我前两天就用完了,我要等一周才能等到它刷新。接下来就是 mini max, 它是 档位分的最多最细,并且它是最不含糊的,它有从二十九,它甚至到八九九都有,它有 入门的二十九 uplus 四十九,额度会翻二点五倍,还有个 max 一 百一十九,再翻三倍。还有极速版,你可以用它的 high speed mode, 这个模型其实是非常适配这个龙虾的,因为它速度执行速度非常快, 从这个价格的角度,我认为 mini max 是 最最不含糊,就是最靠谱的,所以大家可以自己去调研一下,去官网。接下来是性能, 实际上模型的性能直接影响了你的龙虾使用体验,那么我认为又快又好是对一个模型的最好褒奖。那么有没有一个模型同时可以满足快和好呢?有的就是 mini max。 首先二点五的上下文窗口是一百万头克,也就意味着龙虾执行起来的上下文问题, mini max 可以 很好的解决,那么快你可以走极速版,也就是它的 high speed 的 模型,就算是高峰期也不降速任务,不卡壳。实际上在我漫长的使用过程中, mini max 是 唯一一个在一天的表现都非常非常好的一个模型。那么综上来看呢?实际上上下文够长,速度够快,额度机制最适合的也就是 mini max 这一家了。那么最最关键的是,我需要给大家亮出来一张图,请看这张截图。 mini max 是 龙虾创始人 peter 的 官配模型,所以我更理由有理由选择 mini max。 那 么综上所述呢, 给出一个我自己的结论,就是我中间切换了不少国内外的模型,那么综合来看,无论是性价比、能力,响应速度各方面,我认为 mini max 在 使用过程中是最适合弄瞎的。 当然你有也有可能有不同的看法,那么我也欢迎你在视频下方留言,我们来一起讨论。 ok, 今天视频就到这里,谢谢大家。

如果你一直想安装大龙虾,但总被这样的代码小黑框和传说中高昂的 token 费用劝退,那么这条视频就是拍给你的。 很多人一上来就卡住了。敲命令、搭环境、推模型,光看教程就想关掉了。但现在你完全不需要那种复杂的方式安装,直接用 mini max 的 一键云端部署,几分钟就能把龙虾跑起来。我们首先打开这个网站,然后点这里,进来之后点这里立即部署, 立即开始点一下升级,在这里根据自己的需求选择一个定位方案,然后默认配置。下一步 完成之后,就可以在这个聊天框给你的龙虾安排任务了。例如,我想让龙虾每天自动帮我写好短视频文案,我先让他丰富一下技能,自己安装一些短视频文案相关的 skills。 然后我把自己的文案给到他,让他学习我的风格,又把这两个对标视频的文案给到他,让他模仿里面的内容和开头。等到文案调试满意之后,我让他每天十点定时执行相同的任务。这样一个了解我风格的文案助理就制作好了。最后说明一下重点, 为什么安装大龙虾我推荐用 maxclock 呢?除了安装部署特别简单以外,更重要的是它默认配置好了 mini max 二点五模型。这个模型的优势不是参数有多大,而是性价比很高,真的很适合普通人入门。龙虾的创始人 peter 也推荐过这个模型。