你还在为养龙虾发愁吗?市面上的教程是不是太多太复杂了呢?如果现在还没养到虾呀,不妨试试 max lock, 不 需要部署服务器,不需要复杂操作,各种专家库 skill 已经给你准备好了,开箱即用,简单点点鼠标就能搞定。 作为国内第一批是到龙虾的大模型厂商 mini max, 他 家模型也为龙虾创始人多次点赞。那今天就来教大家如何快速上手养一只自己的专属龙虾。打开 mini max, 左边有个 maxclock, 点击进入之后就可以看到官方已经准备好了很多预设配置,可以根据我们需求来进行选择,不知道怎么选择,可以选择默认配置就可以了。然后点击准备好了,就这么简单,你的 maxclock 专属龙虾就搞定了。 接下来我去飞书后台创建个应用,拿到 appid 和 appsecret 之后,在 maxclock 对 话框中,根据对话框提示输入 appid 和 appsecret, 并要求连接飞书, 再根据 maxcloud 的 对话引导,一步一步完成连接成功之后就会像我这样和飞书对话测试一下。比如我发送一个你好, 如果飞书有回应的话,就说明配置成功了,然后就可以愉快的连接飞书玩耍了,可以轻松实现定时提醒、资讯推送,就像一个二十四小时运行的智能助理,光有龙虾还不够。龙虾是载体,真正的灵魂是 skill。 比如我想他帮我分析一下我正在用的软件是否存在安全漏洞。国内比较常用的漏洞收集网站分别是 cve 和 cvnd, 普通人遇到这类问题啊,基本上都是用搜索引擎直接搜索,但是啊,用过搜索引擎的朋友肯定都懂,搜索出来结果呢,杂乱不准,质量参差不齐。 现在我只需要告诉 maxclock, 从 c v e 和 c v n d 两个常用的平台去查询对应的软件版本以及漏洞说明,然后我再给 skill 明确需求,比如要查询软件名称和软件版本, 对比我现在版本号是不是已经存在漏洞,还要告诉我漏洞是什么类型,严重程度,是否被利用的风险,最后还要给出修复建议,以及软件的官方网站在哪里都要一并找到。那稍等片刻呢,就可以看到 maxclock 根据我的要求,帮我手搓了一个专属的漏洞,查询 skill。 那接下来我拿我自己常用的这个极压缩软件来考考我们龙虾, skill 不 到一分钟,结果就出来了,可以看到我的专属 skill, 告诉我我正在使用的极压缩软件存在高危漏洞,还有漏洞影响的版本,漏洞类型,严重程度,修复建议。 那更重要是它提醒我,这个漏洞啊已经被其他人在利用了,应该立刻升级。手搓好我们的专属 skill 之后啊,只需要告诉 max curl 帮我一键发布 skill 到 curl up, 就 可以轻松的分享给更多人使用了。 几句简单对话,只需要告诉 max 了我们需要做什么,他就可以帮我们搞定,是不是很简单呢?更进一步,我还可以告诉他,帮我定制一个定时任务,每天上午十点搜索最新的 c v e 和 c v n d 漏洞情况,根据漏洞严重程度生成报告并发送到我的飞书, 那第二天早上工作时话,就可以轻松掌握当天的行业安全动态。除了丰富的 skill, 在 mini max 左侧这里还可以找到探索专家,里边有更多的实用玩法等待你的探索, 比如整理文档、写 ppt、 转写行业研报等等。 mini max 新推出的 maxclock 简直是普通人的养龙虾神器。另外,在使用龙虾过程中啊,我们还需要关注 talkin 费用消耗问题。在这方面, maxclock 优化了上下文压缩,提升了 talkin 效率,不用担心 talkin 消耗太快。 感兴趣的朋友呢,可以去体验一下,用好 ai 一定可以提升你的工作效率。好了,以上就是本期内容,我是斌亮,觉得帮助的话呢,还请点赞关注,获取更多的使用 ai 小 技巧。
粉丝10.1万获赞133.5万

养龙虾最新调用榜出来了,国产模型这次冲得很猛, open club 这波不是跑分,是实打实被掉了八点八,八万一次,两个月三百四十四个模型,这个量已经够看出真实偏好的。现在月榜前三是 kimi, k, 二点五, step 三点五, flash、 mini max、 m, 二点五,前三已经全是国产, 这说明真正吃到掉用量的已经不是老牌币源独跑前十模型里,国产一共吃掉了百分之五十三点八,这不是一匹黑马,是一整排国产模型都在往前顶。 更狠的是,月榜还是 kimi 第一,但单日冲刺已经是 step 更猛,国产模型在真 a 阵台里已经开始反超了。你用什么模型充当你的大脑?评论区答疑,见到就回!关注扎克,聊 ai, 紧跟 ai, 巨象思考!

运行 openclock 到底需不需要使用 mac mini 主机?今天我用吃灰了大半年的 mini m 四的十六 gb 盖板进行了测试。 操作系统我已经升级到了二十六点三最新版,可以看到在刚刚登录系统且未运行任何其他软件的情况下,系统内存就已经被占用了大约十 gb, 这意味着留给大模型的运行空间仅有区区六 gb 资源,非常紧张。 大模型的运行软件我依旧使用了喜闻乐见的羊驼欧拉玛模型,使用的是千问三点五的九币和四币两个参数版本,可以比较好的适配目前的硬件资源。为了了解 mac mini 对 新版千问模型的支持情况,我运行了两个模型的性能对比测试。首先测试的是九币模型, 运行速度是十三 token 每秒,而四 b 模型的运行速度则是大约十九 token 每秒,区别并不大,不过应该可以满足基本的对话需求。下面开始测试。 openclaw 是 全新安装的 macos 版本,版本号是二零二六年三月二日。 在后台把模型设置为千问三点五的九币模型之后,我开始了第一次对话。首先要求龙虾机器人上网搜索今天全球最新的股市新闻。由于是全新安装的环境在思考,大约等待五分钟后,对话框提示需要配置 web search 的 api。 我 按照提示信息将提前准备好的 api key 输入了对话框,并要求他帮我写入后台配置文件。又是长达数分钟的等待, 机器人回复 a p i 的 配置信息已经更新好了,需要重启网关,但是很不幸,网关在重启时提示失败,提示无效的配置文件。很显然,由于模型的能力问题,配置文件的设置有误。好在新版龙虾提供了一个修复命令,我在运行后,网关终于再次成功启动了, 于是我要求龙虾机器人继续帮我搜集全球股市信息。对话框随即陷入了长时间的等待。期间我还关注到 mac mini 的 cpu 温度已经上升到了七十多度,说明后台在进行非常忙碌的数据计算。 不过好在大约十五分钟后,机器人给出了答案,虽然信息很简略,但是非常有条理,并没有明显错误。 于是我再次提出了下一个问题,要求机器人对中国 a 股进行点评分析。不幸的是,在长时间的等待后,页面弹出大模型无响应的错误, 说明后台硬件资源已经完全耗尽,于是我尝试将模型改为了四 b 的 版本,降低资源消耗。但是在我继续等待一段时间后,模型超时的错误再次出现,于是我只能彻底放弃下一步的其他测试。至此,经过我大约三个小时的深度测试,基本可以确认 使用盖板。 mac mini 运行龙虾机器人毫无必要,其有限的硬件性能无法满足基本的对话要求,特别是在单个对话动辄就有可能调用几十万 token 的 情况下。所以推荐的正确做法是选择旧版本更廉价的 mac mini 主机,比如 mac mini m 二, 或是我已经闲置吃灰很久的软路,由主机再配合外部大模型一起工作,才是迷你小主机的正确龙虾使用方法。如果你也有类似的使用经验,欢迎在评论区分享您的心得。

很多朋友刚养上 opencloud 龙虾,就直接冲最贵的 cloud 四点六,还没用明白呢,账单就几百块钱。今天就给大家聊聊应该怎么给龙虾选啊这个口粮和这个 token。 给龙虾选口粮呢,得按照任务难度来选择。第一,如果是干脑力活啊,比如说深度的写代码,拆解复杂逻辑,那这个时候得吃最好的。那首选肯定是 cloud 四点六,它是目前龙虾最顶级的大脑和口粮,贵点,但是干活稳,效率高。那第二个呢?比如说干这种 体力活啊,像搜全网的新闻整合日报啊,播报天气啊这些的,那换成 kimi 二点五或者 mini max 就 够了。这些国产口粮呢,中文理解快,然后便宜,常温门能力也不错,性价比很高。所以如果是新手,还是建议直接充五十元 kimi 的 算力,先跑通流程, 如果他干活能让你满意就继续用,不满意再换,反正龙虾的口粮是可以随时换的。那现在大家的龙虾在吃什么口粮呢?一天花多少钱啊?可以分享一下。

哈喽,大家好,我是龙虾差不多两个多月了,这期视频我想简单的介绍一下我如何为龙虾选择一个最适配的模型。今天我会按照计费方式、 token 刷新机制、价格和性能这四个维度来横向给对目前最流行的五个模型提供商。首先要确定的就是你到底是一个轻度用户还是一个硬核用户。 原因很简单,因为龙虾跑一个任务,它的后台实际上会有几十次的模型调用,你以为你只发送一条消息,实际上会刷量你二三十次额度,复杂任务甚至可能达到五十次以上。这就是为什么大部分人会吐槽龙虾吃偷坑的原因。 因此我一直在强调,大家尽量去选择 coing plan, 而不是按量计费。原因很简单, coing plan 是 一种包月套餐,它是一种兜里机制,因此它不会出现那种如果你选择按量计费,一不留神,一晚上就烧掉一座房的情况。 所以说大家首先要判断一下自己到底是哪一类的用户,然后再去选择对应的套餐。第二点就是 token 计算的猫腻,其实这里面有非常玄乎的东西,为什么呢?我会给大家揭秘一下, 每一个 coin plus 实际上都会带有五小时刷新。刷新这个词听起来不错,但是这东西有一些秘密没有人告诉你。比如说百炼火山和 g r m, 虽然都有五小时刷新,但实际上它们有个月度总量上限,也就意味着,你如果密集的跑几天,把你的整月额度全部用完之后,你会发生什么呢? 剩下二十多天,你只能不断地碰到 api rate limit 这个错误提示,就是说你的用量已经用完了,那么 kimi 实际上它是一周刷一次,所以说你会出现一种情况,可能你周一周二刷的比较狠,那你后面以前也用不了了。 所以说这里面唯一个就是真正的所谓五小时刷新,实际上只有 mini max, 就是 mini max 是 没有所谓月度总量这一概念,它就是按照每 老老实实按照五小时刷新一个机制,你只要五小时内用,虽然你五小时内用完了,但是你五五个小时之后你又获得了全新的头壳用料。所以从这个角度,那么五小时刷新这个概念下,还是 mini max 最划算。价格我为什么放在后面?因为很简单, 我认为你既然选择了使用龙虾,那肯定是为了提高工作效率。不论是你用来工作、学习还是处理日常事物,我相信你更看重的是它的能力,而不是价格。但是我们依旧要讨论一下。 这里其实百炼有一个 light 和 pro 版本,一个是四十,一个是两百,它的优点就是它的模型比较全,但是就像我刚才说它是按照调用次数来扣额度的, 那么龙虾重度用户每个月能实际跑的人数会比你想象中的少。另外一个火山方舟,它目前有个所谓的首月九块九套餐,这个是比较划算的,但是它下一个月它的续费 它就比较贵了,所以我大推荐大家去官网上看一下。还有一个就是 kimi, kimi 其实它分的比较细,它有四档,从四十九到六九九, 我说的就是它的七天刷新。我真的比较想吐槽,因为我最早其实用的是 kimi, 但后面不选择用的主要原因就是因为它的七天刷新,真的我有点遭不住,因为可能我用的比较快,我前两天就用完了,我要等一周才能等到它刷新。接下来就是 mini max, 它是 档位分的最多最细,并且它是最不含糊的,它有从二十九,它甚至到八九九都有,它有 入门的二十九 uplus 四十九,额度会翻二点五倍,还有个 max 一 百一十九,再翻三倍。还有极速版,你可以用它的 high speed mode, 这个模型其实是非常适配这个龙虾的,因为它速度执行速度非常快, 从这个价格的角度,我认为 mini max 是 最最不含糊,就是最靠谱的,所以大家可以自己去调研一下,去官网。接下来是性能, 实际上模型的性能直接影响了你的龙虾使用体验,那么我认为又快又好是对一个模型的最好褒奖。那么有没有一个模型同时可以满足快和好呢?有的就是 mini max。 首先二点五的上下文窗口是一百万头克,也就意味着龙虾执行起来的上下文问题, mini max 可以 很好的解决,那么快你可以走极速版,也就是它的 high speed 的 模型,就算是高峰期也不降速任务,不卡壳。实际上在我漫长的使用过程中, mini max 是 唯一一个在一天的表现都非常非常好的一个模型。那么综上来看呢?实际上上下文够长,速度够快,额度机制最适合的也就是 mini max 这一家了。那么最最关键的是,我需要给大家亮出来一张图,请看这张截图。 mini max 是 龙虾创始人 peter 的 官配模型,所以我更理由有理由选择 mini max。 那 么综上所述呢, 给出一个我自己的结论,就是我中间切换了不少国内外的模型,那么综合来看,无论是性价比、能力,响应速度各方面,我认为 mini max 在 使用过程中是最适合弄瞎的。 当然你有也有可能有不同的看法,那么我也欢迎你在视频下方留言,我们来一起讨论。 ok, 今天视频就到这里,谢谢大家。

自从 openclock 火了之后,为何这两台 mac 主机会深受仰向人的青睐? 这台十六 g 内存的 mac mini m 四主打的是一个极致性价比,体积小巧星愿零噪音加超低功耗,简直就是全天候干活的 ai 打工圣地, 很适合拿来做养虾池。现在玩 openclock 极度烧头啃。相比传统 pc 耗显卡且高功耗,这台五百一十二 g 内存的 max studio m 三 out 因为苹果独一份的统一内存特点,五百一十二全能拿来当显存用, 用它跑一些高参数的本地大模型,反而成为了极具性价比的方案,拿来做龙虾饲料厂就能勉强保住虾不会被饿死。 新款的 macbook pro m 五 max 将采用全新的 funtion 架构,专门为接下来的 ai 时代做好准备,所以还蛮期待今年可能会出的 mac studio m 五 out, 但是当务之急是先去把我们的虾养活。

如果你最近关注 ai 圈,一定绕不开一个名字, openclaw。 这个完全开源,能够自主调用技能执行复杂任务的 ai 助手,被不少人称为个人 ai 助手的 chat gpt 时刻。不过像 openclaw 这样的极客玩具,光部署就能劝退百分之九十九的小白。别慌,我帮你找到了一个神器,那就是史诗级升级的 mini max agent, 他一口气干了两件大事。第一,基于 openclaw 构建的云端 ai 助手 max claw 登场,把需要复杂部署的顶级工具 openclaw 变成了在飞书钉钉里就能直接艾特云端机器人,简直是 openclaw 的 爽文模式。第二, expert 二点零面世,各行业的专家大神搓出了海量 ai 专家,总有一款适合你的工作, 如果找不到现成的,还可以手搓,无需懂任何复杂的技术配置或提示词工程,对自然的语言描述需求, ai 就 能自动帮你搓出一个垂直领域的专家。我们来看看硬核场景里的效果。先来用用预制海量精选专家级 skill 的 max klo。 最近 ai 智能体很火,我想快速了解 对 max klo 机器人说,追踪一下本周 x 平台上关于 ai 智能体的热门讨论,写一篇综述给我,很快一份梳理了核心观点,分析了大趋势的报告, 又水灵灵的出现了。再输入为我的香薰品牌设计张 instagram 广告图,主题是薰衣草香气来看,结果风格很高级,非常贴合意境的视觉海报,甚至可以直接用于发布。 再来看 expert 二点零,相当于把你脑子里的经验、智慧和行业 no 号一键封装成了标准化的 aisop, 目前平台大神云集,大佬们已经搓出了超过一点六万个这样的专家。比如股票投研专家问他某个公司值得买吗?他就能帮你分析投资价值,捕捉市场短线机会。用上它,谁还能分清我和 a 股之王啊? 再看智能合同,审核官将合同丢给他,他能快速识别关键条款风险,给出法律建议,堪称 ai 界的何以琛。再比如, 多模态内容生成专家,能把抽象的物理公式、机械结构,直接变成可拖拽、可交互的三 d 网页演示,还能一键生成可分享链接,这让我感慨, mini max 通过 xper 二点零和 max cloud 这套组合拳,瓦解了顶级 ai 落地的最后几道屏障。 专业化的高门槛部署使用的复杂性,以及 ai 与日常工作流的割裂感。如今,手搓一个专家,像发微信一样简单,要用顶级 ai, 能力像艾特勇士一样自然, ai 总算真正从极客的玩具,变成了普通人的生产力神器。快和我一起开启驯龙虾的爽文模式吧!

这龙虾就发出来的测评,就哪一个大模型更适配?首先 google 是排第一的,其实咱们中国的 mini max 排第二。利好当然是相关概率,但是越往后越要减肥啊,可不要每天高位加仓,最后一把亏光啊。你关注我,有事我都提前讲。

来快速给大家录一个如何在绿莲纳斯里面部署这个 openclot 来养龙虾啊,最近养龙虾不是很火吗?然后今天呢,我看到绿莲就公布了一个这个消息,和这个 mini max 啊这个合作来实现了在绿莲纳斯里面一键部署这个 openclot 啊,后面这一台呢,这个就是我刚才在我另外一台纳斯部署好的,而且是可以远程访问的。然后我这台呢是四六零零刚才部署的那个四八零零零, 这个四六零的性能会稍微弱一点,然后我们也可以给大家试一试这个到底啊,部署起来是怎么样的?效果怎么样?然后现在呢,我们打开绿联的这个 n s 的 控制,然后你无论是在局域网或者说在远程的,只要登录完了之后就可以了。 登录完之后我们进入到这个应用中心啊,它顶部有一个半道位,这边直接一点击就可以进入到 open club 的 这个安装的这个插件的这个位置了。或者呢你也可以再往下翻,往下翻呢,也能看到这个 open club 的 这个安装的,然后直接点安装, 但安装之前呢,是需要你把你的刀刻的那个客户端给升级到最新版本的。然后我们选择一下路线啊,路线啊,路径啊,把这个路径就是放在这个呃刀刻里面,然后这个网关命令非常关键啊, 这就相当于是一个你启动的一个密码啊,很多人不是担心,就是你把这个龙虾布置完了之后呢,会不会有人通过远程来去访问到你这个破解到你这个访问的链接,所以你如果加一个密码的话呢,可能就没有问题了,我们这个加一个绿莲 六六八吧。啊?这我们随便输一个密码,默认他是直接信号不显示的,你可以打开来确认一下这个绿莲六六八, 然后其他的就。呃,这些风险提示吗?以阅读,然后并知晓这个风险,然后直接点安装,那整个安装的过程呢?可能需要几分钟。呃,这个可能跟你的网络有一定的关系,因为他要下载吗?下载的过程其实。哎呦卧槽, 它上面直接显示一点一二个 g。 这么大吗?好,你看到我现在下载的速度是五十六兆、四十多兆,五十兆左右的这个下载速度,然后下载完之后它会自动安装,整个安装的过程大概就是五五到十分钟左右吧。刚才这台四八零零呢,已经可以正常用了。啊,用的是什么模型 啊?这已经开始开始安装了,其实很多人担心你的电脑跑不动啊, 你装这个龙虾的话,它对于电脑的配置要求其实并不是特别高啊,你看我这个纳斯里面就可以正常的把它运营起来,比较考验的是你的这个大模型的能力,因为我们现在都基本上都是用这个在线的大模型,通过 api k 来去连接访问云端的大模型,所以它对于你电脑本机的 这个硬件要求并不是特别高。 ok, 现在它已经跑完了,现在用的是 mini max 二点一的这个模型,然后是在本地。啊,这个 头坑这是多少?二二二十万吗?他免费使用一个月的这个 mini max 模型并不是现在。呃,最新版的二点五,是二点一。呃,反正就如果说你玩一玩的话也是够用的,但是如果说你觉得这个二点一不够用啊,或者说能力不够强,或者流量不够,那 你也可以再配置自己的这个大模型,所以他这个区别就是你之前很多人就把它部署在云端,那可能也会 要花费这个云端服务器的这个费用。如果有 nars 的 话,把它装在 nars 里面啊,简单玩一玩,因为 nars 它的功耗反正比较低嘛,人家二十四小时运行的话,你随时需要你的龙虾来去帮你完成什么任务,就可以直接来操作了。 a few moments later, 我 这个四六零零安装的过程说实话有点久了。 呃,安装了二十多分钟啊,比我刚才四八零零那个装的要时间长很多。好,现在装好了之后呢,直接可以从这打开,也可以从你应用列表里面打开,它会直接跳转到网页上面去,然后跳转网页之后呢?其实你看我现在是在远程控制的, 那次是在我的工作室,我现在在家里,它里面有一串这个加密的地址,可以直接来去访问,但是现在访问完了之后呢,它显示是离线的状态 啊,这个就是刚才我们设置的那个密码的作用了,就如果说你只有这个地址,然后他是访问不了的,他是用不了这个龙虾的,我们必须要选择这边的这个控制,里面有个盖栏, 盖栏里面有一个这个网关令牌。哎,就是刚才我们在部署的时候啊,在下载的时候设置的那个密码,刚才我设置多少?绿莲 六六八好像是这个是吧?然后其他的就不用管了,然后语言的话你可以改成中文的,然后点连接,你看这就连接正常了,连接正常之后,我们现在就可以正常来使用你这个,呃,绿莲纳斯里面的龙虾了。比如你好,你可以直接发这个对话过去了, 二点一的能力肯定不如二点五那么好吧,但是他免费给你用一个月,然后这就不用太担心了,你看现在已经可以对话了。模型是什么? 我们来看一下我这个四六零零的 nas, 它显示的硬件信息是什么?它现在还在读取,读取完了之后会给你一个完整的列表模型。 mini max 二点一,然后 cpu 是 n 五幺零五, 然后内存是八 g, 没有独立显卡,对吧?啊,我这个系统的信息,然后主机的名字,内核的版本,然后还有运行的时间,我这是用了运行了五天没有关机了,对吧?还有硬盘的总量啊,这是装了一个小硬盘, ok, 好 吧,用硬盘已经快满的了啊,它也是提醒我了。然后还有这个频道啊,就是你配置 qq 啊,或者配置个钉钉啊,或者配置其他的这个对话的聊天聊天的工具嘛, 当然现在呢,它给你内置的是 mini max 二点一的这个模型,给你免费用一个月。如果说你不够用,或者说你想用自己的模型的话呢,那你就可以在这里面去更换自己的模型,你可以在这个配置里面点这个 raw, 然后在这里面去编辑你的模型的信息, 或者你可以打开你 n s 里面的 d card, 然后在容器这边,呃,已经在运行的 opencloud 里面选择终端,然后也可以通过终端的方式来连接到啊,这个 opencloud 的 后台的一些设置, 然后也可以通过命令行的方式来去啊,重新配置啊,或者说调新的模型啊,这些都是可以的。那只是和你电脑上装的那个,呃,操作方式呢?会稍微多那么几个步骤啊,当然这些都是小问题了,对吧?我们可以重新配置一下新的这个模型, 对吧?这些操作就跟你电脑上的那个命令行操作是一样的,我们选择 model, 我来试一下这个能不能直接配置啊, 把我的 api 可以 填进去,好,重启完成之后,我们看看现在现在是什么模型。 ok, 好, 现在是这个千万千万 plus 了啊,这个同意千万的这个大模型。 ok, 那 这个就已经切换到你自己的模型了。当然这个操作的方法切换模型的方法有非常非常多啊,就可以根据你自己会的,或者说你在网上去学习到的其他的这个切换的方式来去搞定。 好吧,那那其他的使用的方式呢?就,呃,不细说了,网上有非常多的教程来去教你怎么用这个龙虾。就如果说你已经会了,但是你现在想再多布置一个的话呢?啊,可以也可以在 nas 里面去布置 啊,如果你有滤帘纳斯的话,就可以直接这么操作,但如果说你没有滤帘纳斯的话,有其他的纳斯,也可以在这个刀克里面去下载一个这个容器,把它部署进去,然后如果不会的话,网上有非常非常多的教程,现在人人养龙虾,然后你也可以通过这种方式来简单玩一玩, ok。

三月十日,港股上演了一场疯狂的资本盛宴。 minx 这家年初刚上市的大模型公司,单日暴涨百分之二十二,两个交易日累计涨幅百分之五十一,股价直接突破一千港元。更夸张的是,它的市值首次超越了百 度。对,就是那个老牌互联网巨头百度。从发行价算起, minx 的 涨幅已经超过百分之六百。但问题是,这家公司去年全年营收只有五点四亿,还在亏钱。资本到底在赌什么? 答案就藏在这只火遍全球的龙虾里。它的名字叫 open cloth。 open cloth, 你 可以把它理解为一个智能体装配车间。简单来说, 开发者把各种功能,比如查资料、写总结、订机票,打包成一个个技能包上传,用户像搭积木一样把这些技能组合起来, 再配上一个 ai 大 模型,就能在自家电脑上养一个二十四小时待命的数字管家,想下班路上让电脑帮你点好外卖,可以,想全自动完成一套复杂的出差安排也没问题。但养这只龙虾是要花钱的, 他每做一个动作,每看一次屏幕,每做一次决策,都需要消耗大模型的算力,也就是烧 token。 有 用户吐槽,装了一个自动收集新闻的技能,五小时烧了三千万 token, 还有开发者十分钟耗尽一千两百万 token, 这就是关键。 opencloud 的 爆火,意味着 token 消耗量正在呈指数级爆炸。要知道,大模型公司赚钱难,一直是垄断在行业头顶的乌云。 红杉资本从二零二三年的两千亿美元问题,警告到二零二四年的六千亿美元问题,贝恩公司更悲观,预测到二零三零年, ai 公司的收入缺口将达到八千亿美元。 为什么?先看 c 端?以 minimax 为例,它的 ai 对 话产品有两亿多用户,但付费转化率不到百分之一,毛利率只有百分之四点七。 更糟的是,用户越多,算力成本越高,和传统互联网规模效应完全相反。再看弊端,智普主攻企业客户定制化部署,占收入的百分之八十四,但本质上是一锤子买卖,做完一个项目,就得找下一个。人力投入和收入限性挂钩,毛利率甚至跌到了负数。 open club 的 出现,突然打开了一扇新大门。 传统 ai 是 你问我,答 agent 是 你下指令我自己干。任务越复杂, token 消耗量是几十倍、上百倍的增长。 i d c 预测到二零三一年,仅中国企业就会拥有三点五亿个活跃智能体, token 消耗量年均增长超过三十倍。这不是限薪增长,这是指数级跃升。看懂了这个逻辑,你就明白为什么巨头们集体下场了。 minimax 推出一键即用版 max claw, 默认调用自家模型,走订阅制收费。智谱发布 auto claw 主打一键安装加本地化,预制了五十多个办公技能。互联网巨头更疯狂, 腾讯推出 work buddy 和 q claw, 甚至在深圳总部大楼摆摊儿,工程师免费帮用户安装。百度有样学样举办龙虾市,集装格里的工程师坐在楼下挨个儿服务。这不是技术竞赛,这是生态卡位战。 当然,普通用户最直接的感受是,养龙虾比养孩子还贵,日均花费一百元的不在少数,月花两万的也不算新鲜,但人们担心被时代抛弃的恐慌正推动更多人主动尝试。对 mini max 们来说,这是最好的时代。 m 二系列模型单日 token 用量两个月增长六倍,年化经常性收入从一亿美元飙到一点五亿美元, 资本市场愿意为它每一块钱收入付出六百倍的溢价。这一次,资本大鳄赌的不再是概念,而是一个正在发生的关于 ai agent 的 新未来。你觉得 open call 是 昙花一现,还是真正的 iphone 时刻?欢迎在评论区聊聊,关注我,看懂商业背后的逻辑。

这一次养龙虾可以简单省心,开箱即用。最近帆哥被问的最多的问题就是 openclaw 到底怎么部署 那关子?看到绿莲和 mini max 刚刚官宣的深度战略合作,帆哥直接给大家推荐这一套组合拳。为什么?老规矩讲三点?第一,一键安装,把养虾的门槛彻底砍掉。 过去很多人卡在申请 a p i 配环境调代码报错,但这一次绿莲直接把 open core 做进了 nast u gos pro 系统里的应用中心。目前的 d x p 系列机型, 以及已切换系统的 d h 二六零零,还有 d x 四六零零系列机型都已经全面上线,不用折腾密钥和复杂配置,点一下就能一键安装,高效便捷, 让普通消费者也能真正上手。第二,核心福利,三十天全量免费权益。重点来了!这次绿联和 mini max 的 合作,首发直接给到了三十天全量免费权益。 别小看这个动作,它让很多原本想试但怕折腾、怕花钱、怕踩坑的用户,真正实现了零成本白手起家。第三, darker 环境隔离数据更安全,七成二十四小时随时待命。把龙虾养在 nars 上,最大的意义就是安全和稳定。 这次采用的是 docker 的 方式安装,相当于给 ai 分 配了一个独立房间,对系统更安全。用户可以自己选择 ai 对 数据文件的访问范围,不影响存放在 nas 上的其他重要数据。而且 nas 天然适合七乘二十四小时全天候运行, 你的数字员工将一直在线,顺带提一嘴,就像绿联在 a w e 展示的 ai nas i d x 六零幺幺系列,不仅能跑本地端侧大模型, 也能调用云端大模型能力满足不同用户的个性化需求和使用场景,体验会越来越好。所以这一次绿联和 minimax 合作的真正意义就在于把 openclock 总会折腾的人才能玩往普 通消费者也能真正享受这一步。硬推了一大截想要养龙虾的朋友,这波可以闭眼冲绿联家的 nars 了!

如果你一直想安装大龙虾,但总被这样的代码小黑框和传说中高昂的 token 费用劝退,那么这条视频就是拍给你的。 很多人一上来就卡住了。敲命令、搭环境、推模型,光看教程就想关掉了。但现在你完全不需要那种复杂的方式安装,直接用 mini max 的 一键云端部署,几分钟就能把龙虾跑起来。我们首先打开这个网站,然后点这里,进来之后点这里立即部署, 立即开始点一下升级,在这里根据自己的需求选择一个定位方案,然后默认配置。下一步 完成之后,就可以在这个聊天框给你的龙虾安排任务了。例如,我想让龙虾每天自动帮我写好短视频文案,我先让他丰富一下技能,自己安装一些短视频文案相关的 skills。 然后我把自己的文案给到他,让他学习我的风格,又把这两个对标视频的文案给到他,让他模仿里面的内容和开头。等到文案调试满意之后,我让他每天十点定时执行相同的任务。这样一个了解我风格的文案助理就制作好了。最后说明一下重点, 为什么安装大龙虾我推荐用 maxclock 呢?除了安装部署特别简单以外,更重要的是它默认配置好了 mini max 二点五模型。这个模型的优势不是参数有多大,而是性价比很高,真的很适合普通人入门。龙虾的创始人 peter 也推荐过这个模型。

mini max 推出的 coding plan 真的 非常适合小龙虾。 mini max 这个一百 prmp 每五小时,意思就是在任意连续五小时里,你最多可以向模型发起一百次独立请求,次数用完就要等时间窗口滚动刷新。 一 prmp 等于你发一次提问调用,你点一次发送 api, 调一次接口就算一个 prmp, 跟你这段话长短多少次没关系,只算次数,不算 tokens。 每五小时等于滚动计时,不是固定时段,不是按零到五点五到十点这种死时段,而是从你第一次发请求开始,每五小时滚动算一个周期。 举个最直观的例子,你十三点发了第一条,那十三点十八零零这五小时内最多只能发一百条,十八点一到额度重置又可以发一百条。如果你十五点就把一百次用完了,就得等到十八点才能继续用。总结一句话, 五小时内限一百次,调用滚动计时,次数到顶就限流,等时间到自动恢复。正因为此, mini max coding plan 非常适合 open cloud 扫码九折订阅。

浪费不可怕,形成错误认知才是最可怕的。龙虾大模型就选 geminis on flash mini max 到底哪个大模型最适合龙虾? openclaw 龙虾创始人给出了答案。近日,他在社交平台发布了一个最适合 openclaw 的 pinch bend 大 模型排行榜。 thinkbench 一 共测速了三十二款全球主流大模型,从成功率、速度、费用三个维度来评估哪个模型最适合养龙虾。我们直接来看结果。我们先来看成功率排行榜, 谷歌的 jimmy 三 plus preview 以百分之九十五点一的成功率夺冠,而包揽了全球前三的剩下两个席位的是我们国产大模型 mini max m 二点一和月之暗面的 p m k 二点五。知名 g p t 四 o club 四点五在这次的龙虾任务实测中都被甩在了身后,所以模型不需要很大,脑子灵光,小模型也很香。再来看速度方面,国产 mini max m 二点五排第一, 谷歌 jimmy 二点零排第二, max 第三。其实你会发现,前八绝大多数都为轻量级模型,且速度相差都不大。最后我们来看大家最关心的费用问题,最便宜的是 gpt 五 nano, 成本零点零三美元,成功率百分之八十五点八五。 国产 mini xm 二点一排第五,成本零点一四美元,但它的成功率有百分之九十三点六。根据这三个维度的对比,小智给大家总结了选模型的方向。 国外 jimmy max 无论能力、速度、价格都是养虾首选,国内则选 mini max, 不 管是能力还是速度,价格都不差, 还不需要担心魔法的问题。国内养虾大户还得看 mini max。 当然对于高频任务则推荐 mini max 或 cai, 速度快加成本低。而批量非实施任务则选 jimmy max 或 gpt 五 nano 成本更低,耐心等待即可。 没有最好的建议,根据自己需求选择就行。但尽量还是有些参考,毕竟浪费不可怕,形成错误认知才是最可怕的。当然,就像我上一个视频说的,尝鲜可以,不要盲目跟风,养龙虾很香,吞起偷啃来是一点不含糊。 为了让大家少走弯路,我总结了一份龙虾学习手册,包括安装和五十家的龙虾 skills, 需要的小伙伴评论区点我。

用 macbook 或者 mac mini 来养这只 ai 龙虾靠不靠谱?今天森哥给你们盘一盘啊,我先自我介绍一下我是干什么的,我是卖二手苹果笔记本的,所以呢,我说的话应该还是啊有点参考价值的。我先说我的结论呢,没有必要专门买一台 macbook 或者 mac mini 去专门养这个 ai 龙虾。如果说你已经有一台笔记本了,或者有一台这个 呃台式电脑了,直接用你当下的台式电脑就可以了。首先我们搞清楚下大火的这个啊,台式电脑就可以了。首先我们搞清楚下大火的这个啊,台式电脑就可以了。首先我们搞清楚下大火的这个啊,台式电脑就可以了。首先我们搞清楚下的代理 传统,我们用的 ai, 比方说豆包也好啊,或者 d p c 也好啊,你是要通过你跟他对话,然后他给你答案,你去再通过这答案你去调整你的这个方案或者做的事情。但 ai 一 准不一样,它相当于一个代理 你,你让他去做这个事情,他会自动通过连接 ai, 然后他帮你完成。打比方啊,如果说你想要去让他完成一个客服的工作,你请一个客服可能要花四五千块钱,那么如果你在下面养了一只龙虾片安装好的话, 他有可能能帮你完成客户的工作,并且可能会玩的完成的比这个普通人更好,因为人需要休息,需要上班下班,但是哎呀,他不会累。那么刚好森哥最近呢就在研究这个东西,所以最近很多人找森哥淘机嘛,对吧?我的啊,小红啊,小斗啊,还有那个 啊,小蝴蝶都很多人来私信我,所以很多时候我的这个私信回不过来,我还研究了蛮久,翻译了很多资料,发现呢,现在我想用它来完成的工作其实是完成不了,因为他现在不支持去接入 微信啊,就是腾讯的东西都不只是接入,所以他没有办法带你去完成微信上面的任何回复或者操作,点赞都不可能去完成。所以这就是曾哥的第一个观点。当你有一个想法想去用这只龙虾去完成的时候,你可以先去验证一下他到底能不能做。不要是先把这个麦 mini 或者 啊麦克风买回来了,把工具买回来发现用不了又把它卖掉,很浪费。那我再发现他不能去做这个客服之后,我就 想着他能不能帮我去处理一些表格和统计。因为最近后台很多人找森哥去呃淘机型嘛,所以呢,我就要把所有的这些粉丝呃的一个顺序,还有下单的这个名字啊,地址这些东西帮他规整一下。这个还蛮花费时间的,我就看他能不能去弄表格,那我发现这些简单的表格接入他是能有权限去处理的。 那我就在我的 macbook 还有我的 windows 台式电脑上面,我都去装了这个 ai 去尝试一下。那森哥跟大家讲一下,在 macbook 还有这个我的 windows 台式笔记本上都装了之后,做同件事情的使用体验区别在哪里?听好了, 没有任何区别,注意是没有一点点的区别,在 macbook 上面完成的跟在台式电脑 windows 完成的是一模一样。为什么很多人说这个 macbook 跟 mac mini 会更好,一直在推这个东西呢?低是因为它的能耗低,就比方说你同样的开一天这个 macbook 或者 mac mini, 它耗电量非常少, windows 笔记本的话,如果要我的那台四零六零的话,可能的电量可能是它的呃,十倍,二十倍可能都不止。问题又来了,你要先看你自己的使用场景跟时长,如果你只是像森哥一样处理一下这个表格,那么每天可能就花个 几个小时,甚至都不用半个小时,那么完完全全没有必要。因为那么一点点几毛钱的电费,你再去买一个几千块钱的 mac mini 或者甚至上万的 macbook pro, 完全没有必要。真的,我觉得但凡森哥我的心黑一点点的话,我觉得现在我已经接了三四十台这个 mac mini 或者 mac pro 的 一个订单,但是我没有这么去做。为什么呢?因为我觉得 买数码产品大家一定要看清楚这个需求,你需要的话去买,不需要的话完全没有必要去买。现在赚钱不容易,对不对?但是说句实在话,森哥我本人对这个 ai, ai, 不 管是不是小龙虾或者其他出了一些代理, 我是非常非常期待,因为现在我开始去慢慢有一天忙不过来。然后呢?我其实之前创过业,所以呢,我踩过的坑就是我不会去管理员工,就是我不怎么会跟人去打交道,我对这个屏幕还好,我还蛮涉恐的,所以 如果这个 a 准,如果真的后面能够接受一些主流的沟通软件,我一定会去第一个去尝试。还是那句话吧,如果当你有一台电脑的话,你先去尝试一下它到底能不能用,能不能跑?如果是真的能,或者是真的你能够频繁的使用上,并且能给你创造一点点价值的时候, ok, 我 们再去购买设备啊,不要因为一个想法 啊就先买了一堆设备,然后去拾回,没有必要。好吧,这里是深哥搞基,希望这一期的分享对你有帮助,感谢关注。