智浦最新旗舰模型 g l m 五点一刚刚宣布全量开放了,它的编码能力比上一代狂飙了百分之二十八,实力已经无限逼近 cloud office 四点六。 李子璇还承诺 g l m 五点一将会开园,目前所有 g l m c d plan 用户都可以调用,价格更是只有海外模型的五分之一,性价比彻底拉满,还是觉得贵?关注我,获取超级优惠!
粉丝1840获赞7.7万

大家好,我是三百零,很多小伙伴给我私信呢,包括评论区都在问用什么模型最好?呃,我首先给大家一个结论,就是大家不要去充钱到各家平台,然后使用他们的 a p i, 因为那样是非常非常贵的。呃,先 说个小结论,就是用 coding plan 是 最便宜的,每个平台都有,就包括 kimi, 智普, mini max, 还有腾讯云,阿里、火山,这这几个都有 coding plan 好,我们用到底是用哪一家呢?哪家更便宜呢?我们首先先看一个数据,就是 openroot 是 全球最大的模型应用平台啊,我们国家在前在三月份的前两周已经 登顶了这个模型调用,包括前五都是前四都是我们国家的,包括 mini max 是 第一, kimi 是 第二,然后 glm 第三。然后这几个模型呢,其实是经过全球玩家,就包括啊,国外国内的玩家验证过的啊,哪个模型是最好用的,所以我们就用他们验证过好用的模型就好了,用 mini max 跟 kimi 我 觉得是 ok 的, g o m 也是可以的。然后我们要买阔丁,不但要搞懂一个问题,什么是 a p i 请求次数,什么是 prompt 次数,还有什么是 token 剂量,然后我就先放一下,大家看一看就好了, 然后第四。呃,然后下一个是入门的档位啊,就各家其实入门的档位很便宜,就包括阿里云才七块九,然后火山才八块九,哎呀,腾讯云才七块九,这几个三,这三家大厂的价格都很便宜,但核心是还有没有能买,能不能买的到啊,因为这个我去腾讯云看了一下,腾讯云那个是需要抢的,然后火山阿里可能也还有 大家采购了去看一下,但是作为这个价格本身来说,其实也就不到一杯奶茶的钱。对于对于大家想玩小龙虾,想试小龙虾,我觉得是一个非常好的一个选择。 然后我们挨个说一下模型,首先是 kimi 啊, kimi 是 唯一多模态的,然后能够支持 kimi crow 跟 a 卷集集群的,然后他同时也是用计算 token 的, 就不会说五个小时就限流,所以我比较喜欢用 kimi, 因为我有时候会集中去开发一些东西,所以我选的是一幺九九安岳的套餐,目前还没有,还不用满, 就二十倍的这个用量我觉得还是挺充足的。然后是智普的,智普的大家可以看一下,就是四十九到一百四十九到四百六十九, 然后到 mini max, mini max 是 呃,性价比比较高,然后它是五个小时限时的,也是限限的次数,所以就看我觉得就 mini max 跟 kimi 选一个吧。然后你如果说可以五个小时 就开发不是很集中的话,我觉得用 mini max 也是没问题,因为它毕竟是全球钓用第一嘛,那肯定说明它是最好用的。 然后腾讯云的,腾讯云是每家都有啊,就 im 五, kimi 二点五, mini max 二点五,就这些都有。然后阿里云跟火山引擎也都差不多,因为三三家大厂都差不太多,都是各家的的模型,其实都有配啊,包括火山引擎这里没必要,但他也可以都用 kimi 二点五的。 如果大家不是新手的话,新手的话可以用这个中度的使用模型,但各家其实你要还有更大的需要,可以当场就升级了 啊,不同的人群怎么选就薅羊毛啊,尝鲜的就是阿里云,腾讯云的 light, 就 这些也可以选选择 kimi 二点五的模型,包括 mini max 的 模型,然后剩下这个追求极致体验的就是 kimi, 像我一样,就是你就需要去疯狂的使用,突然有时间,有有有 idea 就 疯狂的使用的,不要半路被卡壳停下来的,那你就选 kimi 就 好。 然后这是五个知识点,就是不要被请求次数迷惑,就一次提问不等于一次请求。 然后五个小时的滚动窗口的平静是很重要的,就是你们就看你们使用的这种平静,因为我自己肯定是很讨厌五个小时的,因为真的是很难受,用五个小时正正正正坐着呢,正写的嗨呢,突然就不让用了,然后你的你的虾又不能工作了,就就这就很烦,所以我用的就是 kimi。 然后涨价趋势,这个确实是已经在涨价了,就原来直普啊, kimi 他 们都有首月优惠的,现在都给取消了。一句话总结,便宜试水就是 mini max, 极致体验就是 kimi。 然后最后我列一下大家这个 coding plan 的 网站,大家可以啊,截图保存,然后后面有需要可以去去去去购买。 然后我最后再给大家再看一下这个模型的调用啊,就是我给大家讲了这么多,其实你可以可以了解到大概各家的一个情况。然后首先呢,我觉得 最好还是 mini max 跟 kimi 里面选吧,因为这是全球人民验证过的,既然验证过咱就不去验证了,咱也不是什么特别大的,也没有数据支持,也不是什么特别大佬,所以用别人验证过的东西就好了,就 mini max 跟 kimi 选一个吧。啊,这是我的建议啊,我的分享到此,谢谢大家。

如果你最近也在用 open cloud 跑项目,那么我想知道,这个月的 a p i 账单你看的心疼吗?是不是跟我一样,用的时候有多爽,付钱的时候就有多肉痛? 明明只是让他写了几个小项目,改了几版代码,成千上万的 token 哗哗就没了,月底一算账,几千块钱直接打了水漂。别慌,今天这条视频,我把目前全网主流的 callin plan 套餐都给你找来了。 从七块九的入门尝鲜到重度开发的旗舰套餐,哪家性价比最高,哪家不抢就能买,哪家最适配你的常用工具。看完这条视频都能明白,建议所有开发者先点赞收藏,免得要用的时候找不到了。 首先第一个也是目前入门价最低的之一,腾讯云大模型 coding plan。 腾讯云这个套餐核心优势就是两个字,便宜。 mate 套餐日常价四十块钱一个月,现在活动价首月只要七块九。 pro 套餐日常价两百块一个月,活动价首月只要三十九块九。 这个价格对于想尝鲜的朋友来说,几乎是零门槛。用量方面, lite 套餐每五小时最多一千两百次请求,每周九千次,每月一万八千次。 pro 套餐直接是 lite 的 五倍,每五小时六千次,每月九万次请求。对轻度用户来说, lite 的 额度完全够用, 重度开发者的话,买 pro 也能顶得住。模型方面,除了独家支持腾讯的混元全系列模型,还接入了 gmm 五、 chimi k 二点五、 mini max m 二点五这些主流模型、主流编程工具呢,几乎全兼容,像 opencloud、 coldbody、 cursor 这几个直接就能用。 唯一要注意的是,这个优惠价每天十点限量开,抢手慢,无想上车的朋友要定好闹钟。 接着第二个,阿里云百炼定制 plan, 阿里这个套餐跟腾讯的定价体系差不多, mate 套餐日常四十块钱一个月,新客首月十块钱。 pro 套餐日常两百块钱一个月,亲测首月五十块。用量上, pro 也是 light 的 五倍,跟腾讯持平。它的核心优势,第一是独家支持阿里自家的千万全系列代码模型,尤其是千万三 cold plus, 这个在代码生成和工具调用上的表现大家懂的都懂。第二呢,是对阿里云的服务器生态适配拉满,如果你是用阿里云服务器部署 opencloud 相关服务,用它会非常丝滑,而且配置教程很完善, colude code、 client 这些工具都有手把手的接入指南。不过呢,缺点跟刚刚说的腾讯一样,优惠价每天限量抢购,早上九点半开抢,热门时段基本很快就售清了。 下一个字节跳动的火山引擎方舟 coding plan 字节。这个套餐最大的亮点就是独家支持豆包系列代码模型,尤其是在国内代码模型里属于第一梯队的豆包 seed code, 而且现在订阅还能解锁自接刚出的 ark cloud 跟 open cloud 完美适配。价格方面, mate 套餐日常四十块钱一个月,限时特惠,首月九块九。 pro 套餐日常两百块一个月,限时特惠,首月四十九块九。 用量上, light 是 plud pro 的 三倍, pro 是 light 的 五倍,完全能满足重度开发需求,模型生态也很能打。除了豆包全系,它还接入了 kimi k 二点五、 glm 四点七、 deep sick v 三点二这些热门模型支持手动切换,也能开 auto 模式,智能调度,简单任务用轻量模型省额度。 复杂任务呢,就用旗舰模型保效果,非常智能。而且它对 collude code 的 适配做的特别好,翻翻教程非常详细,新手也能一步到位部署,不用踩坑。 第四个,百度千帆 coding plan 先说结论,百度这个套餐绝对是新手常先的性价比之王。 mate 版首次购买只要七块九,一个月首次续费二十块,常规也才四十块。 pro 版首次购买三十九块九,首次续费一百块。跟腾讯视频用量上, mate 是 每月一万八千次,请求 pro 每月九万次,跟腾讯云一样完全够用。最关键的是它对 opencloud 的 专属适配适历从配置文件怎么改 到 base 五 r l api key 怎么填,一步一步教新手,照着做就能搞定,完全零门槛。模型方面,默认用 kimi k 二点五,同时支持 deepsafe v 三点二、 g l m 五、 mini max m 二点五这些主流模型。唯一的小遗憾就是不支持百度自家的文星大模型,不过不影响日常使用。讲完了腾讯、阿里字节、百度四个大厂,下面我们来看看垂直大模型厂商的套餐。 第五个,先说智普的 g l m coding plan。 智普这个套餐核心就是冲着 g l m 大 模型的用户来的,如果你是 g l m 五、 g l m 四点七的重度用户,选它准没错。 grm 五在 coding 和 agent 能力上已经做到了开源模型的搜查使用,体感非常接近 cloud ops, 用来跑 open cloud 的 复杂任务,效果特别好。它的套餐分了三档, light pro max light 是 cloud pro 的 三倍用量, flower 是 light 的 五倍, max 是 pro 的 四倍,能覆盖从入门到重度开发的所有需求。 而且它支持智能调度、简单任务自动用轻量模型省额度,复杂编程自动切旗舰模型,非常省心。价格方面, mate 按月是四十九块一个月,按季更划算,一百三十二块一季度。 pro 按月一百四十九,按季四百零二。 max 按月四百六十九,按季是一千两百六十六。唯一要注意的是,它也是每日限量供应,每天十点补货,想入手的要卡点。 第六个是 minimax coding plan, minimax 这个套餐最大的特点就是档位多,选择灵活,从入门到顶级发烧友都能选到想要的档位。标准版分了三档, starter 二十九块一个月,每五小时四十次。 prom plus 四十九块一个月,二点五倍 starter 用量。 max 一 百一十九块一个月,七点五倍用量。还有极速版,从九十八块到八百九十九块, 满足高病发极速响应的需求。套餐的核心优势呢是 mini max 自家的 m 二系列模型,它在代码生成和工具调用上表现很稳,尤其是上下文的代码理解效果很不错。 缺点也很明显,只支持自家的 mini max 系列模型,不支持第三方模型。如果你只用 mini max, 选它没问题,想换模型的话就不太方便了。 接着第七个, kimi 编码相关权益这里要跟大家说清楚, kimi 其实没有单独的编码 plan, 它的编码功能是包含在 kimi 会员体系里的。 会员分了四档,从四十九块一个月的 indent 到六百九十九块一个月的 lego, 不 同档位对应不同的用量限额。优势在于 kimi k 二点五的超长上下文能力,这个不用我多说,用过的都知道,处理超大代码库,超长文档效果特别好。 缺点也是只支持自家的 kimi 模型,不支持第三方,而且不是专门为 coding 场景做的套餐,针对性不如前面几家。 最后一个,快手 quick cat coding plan 这个套餐可能很多朋友没听过,它是快手万晴平台出的,核心是自家的 cat code pro v 一 模型, 这个模型在 a a 榜单的非推理模型赛道拿过第一,前端生成的美感和实用性做得特别好,如果你是前端开发者,可以关注一下。价格方面,入门的 mini 套餐日常二十九块一个月,限时特惠,首月八块八,每五小时四十次。 pro max 最高的 max 套餐二百四十块,每五小时一千次。 pro max 重度开发也够用。缺点还是只支持自家的 cat 系列模型,不支持第三方,生态丰富度不如大厂。好了,八家套餐给大家说完了,肯定有朋友会问,这么多套餐,我到底该选哪个? 别着急,接下来我给大家一个保姆级的选购指南,分四个维度,看完你就知道自己该充哪个了。第一个维度看你的使用强度,如果你只是想尝鲜体验,每天用一到二小时,属于轻度用户, 直接闭眼充七到十块钱的入门套餐就行。腾讯云 night、 百度千帆 night 首月都只要七块九, 快手迷你首月八块八,火山引擎 mate 首月九块九。这些套餐的月度额度足够你每天跑五到十个中等复杂任务,性价比直接拉满,就算踩坑也没什么损失。如果你是重度开发者, 每天要用六小时以上,或者多终端多实力同时跑 open pro, 直接上 pro 及以上档位。 比如说腾讯云、百度千帆、阿里云、火山引擎的 pro 套餐,每月额度都是九万次,请求是入门款的五倍,还支持更高的开发, 多项目同时跑也不会限流,完全能满足重度开发需求。第二个维度看你的模型偏好。这个很简单,你平常用哪个模型最顺手?就选对应的套餐。常用混元选腾讯云, 常用千问选阿里云,常用豆包选火山引擎,常用 timi, 上下文选 timi, 会员常用 mini mess, 直接充他家的套餐。大厂的套餐基本都支持多款第三方模型,而垂直厂商的套餐大多只支持自家模型, 大家按需选择就行。第三个维度看你的工具生态。如果你是 cloud code 重度用户,优先选火山引擎方舟和阿里云摆列, 这两家对 cloud code 的 适配最完善,官方教程最详细,不用自己踩坑。配置,如果你是 qn code 的 用户,直接闭眼充阿里云百联原声适配体验拉满。 如果你是纯纯的 oppo pro 新手,优先选百度千帆,官方直接给了 oppo pro 的 专属配置试例,照着填就能用。第四个维度看你的预算,预算十块以内尝鲜腾讯云百度千帆的 light 套餐,七块九,首月首选, 预算五十块以内,月度稳定。用阿里云、腾讯云、火山引擎的 light, 续费款二十到四十块钱,一个月完全够用。 预算,一百以内,重度使用大厂的 pro 套餐,首月款三十九块九到五十块,这个区间性价比最高。最后跟大家总结一下, open cloud 这波热潮确实把 ai 编程的门槛拿到了前所未有的低, 但也让很多开发者踩了 api 账单的坑。而 coding plan 的 出现就是用包月订阅的方式,把我们的开发成本直接锁死, 让普通开发者也能毫无负担的用上最顶尖的 ai 编程工具。当然也要提醒大家,这些套餐的首月优惠基本都是一个认证主体,只能享受一次,而且大多不支持退订退款,大家入手前一定要看清楚规则,按需购买, 别盲目冲最高档位。好了,今天这期 coding plan 就 介绍到这里,欢迎大家和我分享。你用 opencloud 最多的场景是什么?你最看好哪家的 coding plan? 如果你还有什么私藏的高性价比套餐,都可以打在评论区一起交流。如果觉得这条视频对你有帮助的话,也别忘了点赞、关注、收藏、 转发给你身边正在被 a p i 账单折磨的开发者朋友。后续我还会持续更新 opencloud 的 使用技巧和避坑指南,我们下期见。

随着 opencloud ai 智能体的火爆,这可能离 ai 收购我们普通人最近的一次,平台都推出自己的 codingplay 的 套餐。为此,我花了一周的时间,把国内所有的平台 codingplay 全部撤了一遍, 整理出这一份可能是全网最全的对比指南。从七块九的入门价到五十块钱的旗舰版,从火山引擎到智普 glm, 从阿里百联到 mini max 七家平台,我会把每个细节都给你讲清楚,看完这期视频,一定帮你省下不少馒头。 那么我们正式开始吧。可能有些朋友还不太了解头顶 play 到底是什么,简单来说,它就是原厂商推出的 ai 编程模型订阅服务。 你以前可能只是简单用 ai 对 话来解决一些问题,但自从奥本克勒出现之后, ai 使用 有所改变,你需要自己调用 a api, 然后按 token 数量付费。 token 费用这个东西用起来真的没底, 有时候我们通过 open curl 问几个问题,一个月下来几百块钱甚至上千块钱都有可能。但是 coding play 不 一样,它是固定月费,根据我们的需要,每月只需要几十块钱就可以无限的调用。 这些平台做了深度适配,像 opencloudbirdcode、 coser 这些主流工具,全部可以直接使用,连门槛开箱即用,这就是 opencloud 的 核心价值。好,我们先说第一家,火山引擎方舟, 这是字节旗下的云平台,他们的特点就是多模型结合,什么意思呢?就是他不绑定某个模型,而是同时支持多个主流模型。他们有一个叫 out 模式,能根据你使用场景自动选择最优的模型。 这个功能很实用,省去你自己判断模型的麻烦。第二家,阿里百联,阿里百联是目前模型选择最丰富的平台,一口气支持五五个模型。还有阿里最大的优势就是它的 a 键生态圈, 什么意思呢?就是他不只是给你一个模型,而是有一套完完整的开发工具链,非常适合做复杂项目的开发者。第三家,腾讯云 腾讯云 callinplay 背靠着腾讯这座大山,最大的优点是企业生态做得好,支持混云二点零模型,这是腾讯资源的大模型。 腾讯人的优势。还有如果你本身就在使用腾讯的企业服务,如微信生态 企业微信这些,那腾讯人的接入是非常丝滑的。第四家,百度千帆,这家比较特殊,他最大的特点就是百度平台的生态圈,作为国内最早的原厂商之一, 百度的企业用户基础是非常庞大的,支持文新一员四点零,还有是百度的 c 加加优化,这是它的亮点,如果你主写 c 加加, 百度千帆可能是不错的选择。第五家,夜之暗面 kimi ko 夜之暗面这家的特点是长上下文的能力, mini 二点零,支持 二十万字的上下文,什么概念呢?相当于可以同时理解一篇三国演义,所以 timi 特别适合分析大型代码库或处理复杂的项目。第六家,智普 g l m codingplay 这家的编程能力是 真正的行业顶尖, glm 五在 s w e bench 榜单上是并列第一梯队的。 s e bench 是 什么?它是衡量编程模型能力的权威精准测试,能上榜的模型都经过严格的验证, 智谱的模型在推理能力上表现非常出色,适合需要高复杂编程任务的开发者。第七家, mini max talking plane 这家是今天性价比最高的平台,它最大的特点不是便宜,而是全模态。什么意思? 其他平台只支持编程模型,而 mini max 它包含了语音模型、视频模型、图形音乐模型一站式服务,且代码之余还能用它来语音转文字视频,裁剪图片,生成一页,制作一份定位,就解决了所有的需求。 如果你追求极致的性价比,又想体验全套模型,那么 mini max 是 最佳的选择。这边是模型的对比情况,最后给大家一些选购的建议。 如果你追求极致的性价比,日常写写代码,不用做特别的复杂项目, 那么 mini max 是 你最佳的选择。如果你在企业环境需要稳定的服务,完善的工具链,那么 阿里百链是最佳的选择。它不只是提供模型,还提供了 ag 的 生态生态圈,以及五个模型的随意切换。如果你需要 强大的编程能力,比如处理复杂的算法或者大规模重构,那么智普是首选。智普的 glm 五的编程能力是经过 swe 编程认证的,是行业顶尖水平。如果你想处理超大的代码, 如十几个文件、复杂的项目分析,那么 kimi 是 你的最佳拍档。如果你刚开始使用 ai, 火山眼前是个好的起点,它的自动选择模型模式 非常适合我们新手入门。以上就是国内七家平台 qq 平台的全面对比,如果你觉得有用,请点赞收藏,我们下期再见!

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

国内的模型基本没怎么用,结果想买的时候试一试,发现买不了了,包括阿里云、百联和智普 ai, 智普的 g m m 也用不了了,每天都需要去抢。刚才我去十联讲了一下,发现它的网页是在转呢,跟抢票一样。 所以大家啊,早买早用,现在这个 kimi 还是可以用的。这个 kimi 还能用,赶快去买一下。我建议买个四十九到或者九十九的都可以,我买个九十九的 kimi 还是可以用上,感觉跟克拉扣的是有些差距,但是便宜,大家可以试一试,尽早用 其他的模型,比如说迷你 max 或者是 dipsic, 这些还是一般,有的说迷你麦草, 目前迷你 max 是 它的,这个定制 plan 是 可以用的。我买了一个 plus, 先试一试。刚才试了一下啊,还行,但是你要让玩龙虾比较贵,我不太建议用龙虾,用迷你 max 有 点贵了,我可以用本地去部署, 或者你就用一下提米豆的就可以了。还有庆大家一些,这些 ai 的 层出不穷,一个月一个版本,所以我建议大家就买一个月就试一试就得了,不要开这种连续包年的。这种的你看比如说前两天刚 充值 cds 二点零的,现在又出了新模型,所以一个月左右基本上就过时了,所以大家还是自己看一下,如果有钱无所谓,可以试试用这种单月的。

智普二零二六年财报批录,智普有机会成为中国的 astor pick 们,本周爱大事件,我们来聊一聊智普二零二五年财报的情况。 本周呢,智普发布了他的二零二六年的财报,也是上市之后的第一份年报,这里面显示呢,他二零二五年的总营收达到了七点二四亿人民币, 同比增长呢,是达到了百分之一百三十一点九,这个还是一个比较高的营收的一个增长。营收的增长里面的大头呢,其实来自于一个是云端的开放平台和 api 调用,另外一个呢,是企业及智能体应用,这两块呢,它的同比增长都超过了百分之两百, 是增速最大的两块业务。从整个业务的总盘子来看的话,面向政企客户的 ai 自有划部署的这块业务依然是百分之七十三点四。 那目前呢,其实智普的营收超过七亿之后呢,它是中国市场独立的基础达摩型厂商里面收入最高的。到底它是否有机会成为中国的 astropic 呢?尽管现在智普的收入中,面向政企客户的本地化 ai 应用还是占一个大头, 这点跟 astropic 主要以云端收入其实是有比较大的差异的。但我认为呢,以下这几个方面来看的话,智普还是非常有机会成为中国的 astropic。 首先第一点,基础模型能力是所有一切增长的源头和根基。这一点呢,其实能看到,不管是智普还是 astropic, 都非常重视基础模型的性能的提升。二 零二五年整个的财报的一个进展不错,包括实际二零二六年,智普在 open cloud 在 coding 上也有非常好的一些业绩的进展,这些一切呢,都是源于它的基础模型的性能的提升, dm 五的发布呢,使得其实智普的基础模型产品重新的回到了国内的替零替对,这一点呢,其实是一个带动了不管是云端调研也好,还是智能体的应用的一个增长。因为考虑到智普本身呢,它是专注在基础模型的研发和服务的一个厂商,它不像阿里和字节呢,是有一些云技术设施, 基于云基础设施加一些开源模型提供服务。所以对于智普来说呢,只有它的基础模型足够好,才能够有获得云端 a p i 的 营收的收入,所以基础模型对于它来说是非常重要的,也是未来核心的一个竞争力。那 第二点呢,智普的 coding plan 的 产品和 cloud plan, 也就说一个是面向于 coding, 一个是面向于龙虾应用,这两个呢,我认为会是二零二六年云端智能体市场的最大的两个市场机会,也应该是智普重点发力的方向。 考虑到你的基础模型能力强了之后呢,还是需要通过一些场景实现模型的能力的一个调用和消耗,才能够去转化成实际的营业收入。 那这里面的话,其实一个是 coding, 一个是龙虾应用,这两个呢,一定是云端智能体中最大的两块市场。那智普其实今年上线了 coding plan 和 cloud plan 之后呢,其实业绩表现还是非常不错的。智普呢,这个 coding plan 的 付费用户已经达到了二十四点二万, 在今年二月份 token 价格上调百分之三十之后呢, token 的 掉量其实还是在持续增加的,说明这块的市场的认可度还是非常高的。 另外一个呢,它的 clockline 在 推出二十天之后呢,它的订阅用户已经达到了四十万,说明整个市场对于它的反馈还是非常不错的。这两块呢,实际上应该是智普接下来重点发力的方向, 所有的基础模型的能力研发呢,也应该聚焦于 coding 和 cloud 应用这两个大的方向可以考虑去放弃掉,像多模态生成啊,这些方向聚焦于这个领域 是有机会能保持一个非常强的一个竞争力的。 star pick 呢,其实它也一样,它其实是把它的基础模型聚焦在 coding 这个场景, 绕着这个场景呢,去做了非常多的一些优化和提升。这个使得其实 askurpig 虽然说它在 open i 和谷歌这些资源投入非常大的这种巨头面前呢,它其实能够以相对比较少的资源投入依然保持在一个世界领先的一个水平, 所以我认为说这两个方向应该是一个助点方向。第三个呢,智普接来可能会逐步放弃掉正企 ai 应用四化部署的市场,它的占比应该会持续地逐步地去降低。 尽管目前呢,这部分的业务呢,对于智普来说还是最大的一部分,二零二五年占比超过了百分之七十,同时呢也是毛利率最高的业务, 但我认为是说所谓的高毛利呢,其实实际上在项目落地过程中,他对于交付资源的投入和回款账期的一个占用来看,其实他实际的结果未必会对智普的盈利能力和现金流状况起到一个非常正向的一个激励。 另外一方面呢,考虑到正企客户因为大部分都是 c 化部署,很有可能他的算力基础设施呢,不像云端这么充裕,再加上他的很多的应用场景呢,都是跟现有的业务去做深度融合,所以这些场景势必要跟原有的疏通化系统去做融合。 其余这两点原因呢,模型在这里面的价值其实不是最核心的,换一个角度来说,无法发挥出模型完整的一个性能。 所以去做这类客户呢,对于智普来说,更多的就是一个贡献,短期的一个营收,它并不能够帮助智普去反馈一些新的应用,去提升它的整个技术模型的一个研发的价值, 所以这方面的价值是相对比较有限的。因此呢,我认为说未来智普很有可能会逐步去减少政企 ai 私有化这部分业务的一个占比,更多会聚焦于云端的 api 和企业云端智能体的应用。 本周大事件呢,这些是我关于质朴财报的一些个人看法,也欢迎各位在评论区留言,我们共同探讨。

下面是这周国内九家厂商的 coding plan 更新汇总,这个点需要注意。第一个是优惠活动的变更,三月二十日开始,阿里云百联,百联不再销售 like 的 套餐,新用户优惠也没有了。 三月十七号开始自解,火山方舟暂停了新用户优惠。三月十三日开始,百度千帆已经结束了优惠活动。 第二个是价格变动, kimi 的 后三个套餐按月订阅的每月价格增加了,智普 g l m 的 包年价格增加了,可用模型也发生了变化。第三个是 mini max 的 ultra 等级订阅暂时停售了,多模态的用量进行了变更。 第四个是讯飞星辰的模型增加,默认模型变动。

昨晚,智普突然扔了个大招,距离 glm 负五发布才一个多月, glm 负五点一直接杀到编码能力暴涨百分之三十,得分从三十五点四直接跳到四十五点三。 cloud op 四四点六,才四十七点九,差距已经肉眼可见地在缩小。六个月前,这个差距还是十几分,现在只差二点六分,达到 cloud op 四四点六的百分之九十四点六。在实际编码场景中,这个差距几乎可以忽略, 有人甚至说应该直接叫 g l m 负五点五。还有用户测试发现, g p t 负五点三都没搞定的问题, g l m 负五点一直接解决了。看数据, s 大 愈减, bench verified 得分七十七点八,开元模型最高 turmnobench 二点零,得分五十六点二,超过詹姆奈三点零。 pro 擅长复杂系统工程和长城 agent 任务使用体感逼境 cloud opus 四点五,这是目前国产编程模型的天花板。说价格, cloud opus 按量计费每百万 token 大 概十五到七十五美元。 g l m 负五点一,通过 coding plan 使用 light 套餐,三美元起步,按量计费每百万 token 只要一元, 用 cloud 十分之一的价格,获得百分之九十四点六的体验。使用方式超级简单。如果你已经在用 g l m coding plan, 只需要找到配置文件,比如 cloud code 的 sighting store js, 把模型名改成 g l m 负五点一就行了。 一行配置无缝切换,支持 cloud code、 cursor、 open cloud 等主流。 coding agent 质朴也很坦诚,说了两个现实问题,第一,高峰期可能限流, 每天下午两点到六点,系统负债最高,编程任务会被优先保障,非编程场景可能会排队第二。高峰期消耗三倍额度,非高峰期只按一倍抵扣,建议错峰使用,体验会好很多。重点来了,现在到四月底, g l m 负五点一 在非高峰期只按一倍抵扣,这个福利期间用起来超级划算。三美元的 lite 套餐,日常开发完全够用。 pro 和 max 套餐适合重度用户,发布几小时内已经大量用户上手体验, x 上好评不断。 有人说稳定性比 g r m 负五好很多。有人说长链路 a 阵这任务终于不崩了,从三十五点四到四十五点三的百分之三十暴涨,不是吹的,是实打实的工程能力提升。如果你是国内开发者,不想翻墙用 cloud, 又想要接近 opus 的 编码能力, g l m 负五点一目前是最佳选择,尤其适合复杂工程任务和长城 a 阵开发。 g l m 负五点一国产编程模型的天花板编码能力直逼 cloud, opus 价格只要十分之一。邀请码在评论区点赞加关注,赛博杨千焕明天见!

智普 g l m 五点一昨晚突然偷袭,编程能力相比上一代暴涨十分,评分直接贴到了全球最强模型 oppo 四点六的脸上, 甚至把扣丁 plan 都给卖断货了,这国产大模型卷起来,真是连服务器都不给友商留啊!智普 g l m 五点一这次不仅是常规迭代,它在代码场景下支持瑞斯尼模式,上下文窗口稳在二零零 k, 有极客已经用它连夜搓出了可交互的 ai 版我的世界,空间,补全能力极强。最离谱的是,它完美兼容 open nai 接口, 开发者改一行代码就能无缝切换。这波 astrapec 的 sonnet 四点六恐怕要连夜修复爆了,因为 sonnet 四点六已于二零二六年二月十七日发布。聊完了模型,咱们看看语料库建设。 教育局和国家语委近日正式发布了两项新规范,专门针对 ai 语料库基础术语和机器合成普通话等级。 这意味着以后咱们为数据搞 tts 都有了国家标准。对于做热爱者和语音生成的开发者来说,这可是合规性和工程化的重要指南, 建议去下个 pdf 文研读一下。不仅是软件层面硬核,国产智能车也开卷了!智己 l s 八已于二零二六年三月二十六日开启预售,预售二十五点九八万起, 直接塞进了英伟达芙尔芯片,六十四 g 内存带宽直充二七三 gbs, 这性能已经超越很多高配 pc 了。 更绝的是,他首发了全线控四轮转向,还搭载了千万大模型做 agent 助理。这哪是卖车啊,这分明是卖一个带轮子的聚生智能工作站最后大厂人才流动的瓜也得吃一口。 华为盘古大模型负责人王云鹤,已于二零二六年三月二十八日被爆离职。这位九十一年的天才少年,曾获华为十大发明奖, 现在要投身 a 振赛道进行水下融资了。在 gpt 五点二已于二零二五年十二月发布并普及的今天,纯模型已经不是护城河,能够跑通复杂流转的智能 a 振才是下一个风口。 看来今年的 a 振创业潮又要加一把火了!代码模型卷性能、国产芯片卷、上车大佬离职卷、 a 振观众老爷们,这波技术爆发,你们跟上了吗?点个关注,天天降带你拆解最硬核的两千零二十六!

咱们继续 mini max, 资本宠儿,香港上市后更有钱了。 coding plan 给的足,输出干净利落,接自动化工具最丝滑,速度稳,价格实惠,性价比炸裂。但二零二六年了, 多模态还没搞定。眼睛是瞎的,传图全靠 ocr 瞎猜,遇到复杂 ui 逻辑直接抓瞎,这是硬伤。这里给到人上人。 gm 精华系的制普走的是普惠路线,五系列出来后 四点七直接白送。这种气量国内无敌,代码理解力仅次于 kimi, 性价比直接拉满,是国内最良心的开发助手。槽点是病发限制高峰期,卡的你想砸键盘,而且产品线太乱,选模形象再做阅读理解同样给到人上人。咪蒙,小米出的,本来大家想着小米嘛,性价比起家 造型应该也能走量大管饱路线,结果定价一出来,性价比的招牌直接砸自己脚上。贵没贵出顶尖的实力,便宜没便宜出应有的诚意在小米自家生态里还算如鱼得水,出了这个,生态优势基本消失,偏科太严重, 通用开发跟顶尖差距明显。直接 npc 挂老马的法外之地,亮点不多, ai 未中,但胜在安全审核基本为零,查点边缘技术资料,发推完梗是把好手写代码建议换一家,风格跟老马一样狂, 实用性一般,乐子人专用一样放到 npc, 到了垂直领域的打工人,专门搞日程调度和 a 阶梯调配,在特定工作流里是神,出了圈就是路人,只能干细活,成不了大气候实习生状态。后续再看, 放到 npc, 最后全体起立,我们的神来了。豆包情绪价值给满,幻觉直接爆表。你问他怎么写排序,他能编个故事哄你,然后给你一串逻辑全错的代码。春晚表现亮眼,视频生成实时对话国内顶尖。他是你的 ai 甜心,但他是开发者的索命冤魂, 娱乐和情感陪伴没问题,正经干活,谢谢!再联系这里直接给到神中神最终建议,想冲击架构上线,选科乐体 g p t 追求 ui 开发效率,选 jammer nikimi 小 团队过日子选 g l m mini max。 心情不好想找人聊天,顺便写点 bug, 选豆包,大家有什么想说的,咱们评论区聊聊。

就在上周五,智普直接在用户社群里扔了颗深夜炸弹, callinplay 全体用户即将用上最新旗舰 g o m 五点幺。拿到更新后,我第一时间上手实测,特意挑了个很考验功底的实操场景,让它从零生成一个赛博复古风的网页游戏。要求一步到位,先设计完整游戏逻辑, 写出全套 h t m 摇加 css 加 g s 赛码,加上像素风 u i 动画特效、计分系统、死亡判定,最后还要自动生成一份可直接运行的说明文档,高 告诉我怎么打开、怎么调试、怎么扩展功能。看着步骤不算难,但懂点开发的都知道,这种从头到尾连贯下来的复杂任务,最吃模型的常上要闻理解和全程专注力。而 g m 五点幺拆解需求特别稳, 全程牢牢盯着核心目标,不会写着写着跑偏漏掉关键细节,写代码时结构清晰不混乱,就连最后配套的运行说明、调试指南都写的特别完整。这一点真的很出乎我意料。 因为之前我也用过一些主流编程大模型,但凡牵扯多文件逻辑,长链路编辑还要配套交付,大多写到后半段就开始往前面的逻辑界面、动画逻辑经常对不上, 最后交付的东西根本跑不起来。但 g i m 五点幺不一样,全程能记住整个项目的结构,从需求理解、代码编辑、界面设计到交付说明,一整条链路丝滑衔接,这种扎实的长城落地能力 真的拉开了很大差距。这确实是目前编程能力第一梯队的模型,尤其是在复杂任务的持续执行和完整交付上,体感差距非常明显,个人觉得能媲美国产的 oppo 的 四点六了。 我们为什么要关注这件事情?因为长城任务能力是检验 ai 智能的新标准。 g m 五点幺突破明显复杂,目标自动拆解,长链路,不跑偏,不掉目标代码,网页 api 无缝切换, 全程记忆,进度连贯推进。直白讲,越来越像靠谱的全职工程师。现实问题随之而来,当 ai 能稳定承接中高阶工程任务,人的不可替代性还剩多少 头部企业全在压这条赛道,能力越强,肉眼可见,尽早吃透用好这类工具,才是接下来的核心竞争力。现在 g i m 五点幺已面向 g i m c d play 用户开放,性价比超高,闭眼入不亏,你准备好了吗?

哎,你先想象一下这么个场景啊,你平时工作特别依赖的一项云浮,结果呢,被个科技巨头一夜之间就把规则给改了,然后你就被困住了, 你别觉得这是天方夜谭呢,这可是一位电子商开发者亲身遇到的真事,而且他的故事说不定就是你我的未来。 这句话就是那位用户在网上发出的灵魂拷问。这句话说的可够重的,一下子就点出了这次事情的核心矛盾,那到底是发生了什么,能让他问出这么扎心的话呢? 故事的开头啊,其实一切都挺正常的,就跟我们平时一样,这位开发者用着云服务,跑着自己的项目,什么都没多想。 他完全没料到,一场风暴啊,马上就要来了,他日常的工作节奏也即将被彻底打乱。 突然,他就收到了这么一条官方公告,上面白纸黑字写得清清楚楚,你正在用的这个 coding plan lite 基础套餐,我们不搞了,要停!服了,对,所有问题的根源就从这儿开始了。 你看,这个时间点就特别有意思了,四月十一号发的公告,四月十三号服务就停了,这中间给了多少时间?满打满算不到四十八个小时。说实话,这哪叫通知啊,这不就跟用户说的一样吗?这就是一份最后通谍。 这个感觉像什么呢?就好像你辛辛苦苦盖了个房子,结果地基突然被人给抽走了。这位开发者面临的就是这么个情况,他整个项目的基础几乎就是在一夜之间啪没了。你想想,对这任何一个开发者来说,那简直就是一场噩梦啊。 好吧,那服务停了,总得想办法解决吧?这位用户就想着,要不我升个职,这总行了吧?可他很快就发现,前面还有一个更大的坑,正等着他往下跳呢。咱们先来看看这价格差了多少啊? 他之前用的那个 lite 基础版,一个月才四十块钱,现在呢,唯一的选择就是升级到这个 pro 高级版,一个月两百块,你算算,这价格,直接翻了五倍, 哎,你可能跟我一样,第一反应就是,哎,这不简单吗?一个月贵了一百六十块,那我就补这个差价不就行了吗?对不对?这位用户啊,一开始也是这么想的,但事实证明,我们都想的太简单了。 屏幕上这个数字你看到了吗?两千九百七十六块六毛八,这就是系统最后算出来的升级费用。 等一下,这笔钱到底是怎么算出来的?答案就在这张账单截图里,这压根就不是一个月的升级费, 系统竟然强制要求这位用户必须一次性的把他未来一年半,没错,是未来一年半的所有差价全部预付了,一直算到他原来那个套餐二零二七年十月到期为止。 事情到了这一步,味道就全变了,这已经不是简单的商业行为了。在用户看来啊,这简直就是一种背叛。他觉得自己对平台长期的信任和忠诚,不仅没换来任何好处,反而成了对方算计自己的工具。 这一句愤怒的控诉,可以说是把他心里的委屈和背叛感全都喊出来了。妮莎哈,当初就是因为信任你这个平台,我才一次性买了这么长时间的服务,结果现在这份信任反倒成了套住我自己的枷锁。 咱们来捋一捋啊。这位用户的逻辑其实很清楚,他觉得这事太不公平了,凭什么要逼我一次性付清未来一年半的钱?为什么不能让我按月补差价?这不就是明摆着欺负我们这些提前付了钱的老用户吗?谁对你最忠诚,谁就被坑的最惨。 那咱们再来看看啊,这事对这位开发者到底造成了多大的影响?他被逼到了一个什么样的绝境里? 你看这个流程简直就像一个设计好的圈套,第一步,先断了你的路,第二步,给你指一条唯一的路, 但价格分五倍。第三步,告诉你,想走这条路,得先把未来一年半的过路费全交了,最后就给你两个选择,两个都让你特别痛苦,要么你就任灾交这笔他认为是霸王条款的钱, 要么你就眼睁睁看着自己辛辛苦苦做的项目直接玩玩儿。所以你看这整件事的核心在哪儿,就在于这位用户觉得自己作为消费者的选择权完全被剥夺了,完全被无视了。 这哪是什么服务升级啊,这分明就是一份不容你讨价还价的最后通牒。这位开发者的遭遇啊,虽然听起来只是一个人的事,但他背后引出来的问题可就大了去了, 可以说跟我们每一个依赖互联网服务的普通人都息息相关。这位用户最后就用了个特别巧妙也特别讽刺的词来总结,他说,别让本来应该方便我们的云计算,最后变成了处处算计我们用户的算计员。 哎呀,你品品这个词是不是一下子就说到很多人的心坎里去了?所以你看呀,这事到最后啊,给我们每个人都留下了一个需要好好想想的问题。 在这个我们越来越离不开各种数字平台的世界里,当这些平台一夜之间说改规则就改规则的时候,我们普通消费者的权力到底在哪?我们该怎么保护自己?如果下一次这事发生在你身上,你又该怎么办呢?

这也太快了吧,大模型第一的位置已经悄悄换人了。就在前几天,致富版最新模型 glm 五点一毫无预兆地向所有 coding plan 用户全面开放。官方评测数据显示, glm 五点一的编程能力直接飙升到了四十五点三分,相比五点零版本性能提升了将近百分之三十。老实说,这操作太像当初的 dc, 不搞花里胡哨的营销造势,是骡子是马,让用户自己去遛,主打就是一个技术自信。而且这次升级的核心直接指向了智能体工程,专攻长距离、多步骤的复杂工程任务。接下来直接带大家实测一下, 任务是从零搭建一个带用户注册、商品展示和订单管理等等的前后端分离购物商城系统。正常来说,这是一个初级工程师,大概需要三到四天的工作量了。我先给了 gln 五点一张参考图,然后用大白话输入了一段提示词, 发完了我就坐在旁边看着他干。他先是主动写了一段执行步骤,说明每一步怎么搭建,包括先做后端搭建,然后产品分类、购物车订单管理,再到前端页面的搭建,最后集成数据并往上。然后他就开始一个阶段一个阶段的写,后端框架搭建、前端页面生成安装依赖项验证构建结果。 而且不像以前用的某些开源模型,写完一段就得监督下一段。除了中间让我授权一些权限, gln 五点一的每一步都是他自己推进的。 最让我惊讶的是,中间出现了 n p n 缓存权限和 x n l 文件解析问题。以前用别的模型到这里基本就要人工介入排查,报错再未回给他了。但 g l n 五点一顺着报错自己排查了一遍,定位到问题之后自己改掉了,然后继续往下走, 最后交付的时候登录注册能顺利跑通,权限控制生效,数据看版也能正常展示。整个过程只用了不到三个小时,而且对话框我一句都没有输入过。可以感受到,整个测试过程里, g l m 五点一体现出了极强的状态延续和目标保持能力,特别是在长城任务的执行和交付上, 跟 k 二点五确实拉开了一个升位,它的编程能力真的可以说是当前模型里断档领先的水准了。看完这个案例,就问你黄不黄? 以前总觉得 ai 只是帮我们提效的工具,我们自己才是那个做决策把控权的人,但 g l n 五点一展现出来的能力,就像是一个自己就能把控权的资深工程师, 以及去焦虑害怕被替代。不如想清楚我们的核心竞争力到底是什么。未来不再是比谁更会敲代码,而是比谁能更好的给 ai 下任务,成为驾驭这些智能体的人。

智谱刚发布首个原声多模态编程大模型 glm 五 v 杠 turbo, 它的核心绝技是看图写马。你画一个手绘的音乐播放器草图,它就能给你一个高级感满满的 app 界面,还能直接播放音乐。你丢一张抽象的光影图, 它就能用代码生成一段炫酷的交互艺术。你截一张手机 ui 图,它就能给你一个可以旋转、可以拖拽的三 d mockup。 你 看一段网页录屏, 它就能复刻出同样的三 d 交互效果。你上传一张二次元图片,它能理解其中的意境,直接生成一段 low f 风格的音乐代码。看图说话的开发,新时代前端兄弟又有福了!

说一个好玩的事情,就是在智普上市之后,给他的员工发了一波福利,他的福利是一瓶旺仔牛奶,对,你没听错,是一瓶,不是一箱啊,旺仔牛奶,哈哈哈哈。 昨天呢,智普在港股上市,今天呢, mini max 也上市了,但是两家公司呢,在上市首日的表现呢,差别就非常大。智普呢,上市首日涨了十五点,那 mini max 呢,今天已经涨了百分之一百零九,翻倍了,所以没有对比就没有伤害啊。对比之后,智普感觉就比较扎心了。 但其实智普这家公司呢,它从创立到它上市其实也非常顺利啊,二零一九年呢,这家公司创立核心成员呢,就来自于,呃,清华系,二零二一年呢,首轮融资就已经超过了一个亿,二零二三年呢,又赶上了拆的 j p d 这波风口, 被称为中国版的 open ai, 在 二零二五年就更为夸张了,一年融了五轮,市值直接推到了四百个亿。后面的上市呢,也是水到渠成,但是你会发现,资本市场并没有因此而买单。我觉得一个很关键的原因啊,可能就是源于它的商业模式闭环并不牢靠。 我们看他从招股上公布的啊,他的业务主要分为两大部分,一部分呢叫本地化部署,另一部分呢就是云部署、麦斯业务啊,本地化部署这一块呢,主要是面向政企这一类的大客户。我们所说的图币、图 g 这一块业务, 这块业务的利率是非常高的,毛利率可以保持在百分之五十九到百分之六十八,这个也目前是他的收入的主要来源。从他公布的数据来看,二十四年、二五年这一部分业务的占比在百分之八十四以上,那与之对应的就是 m s 业务这一块,占比在百分之十五以上。同时呢,它的 m s 业务的毛利率也是比较低的,二二年的时候还有百分之七十六。但是随后的大厂呢,逐渐加入啊,在二四年的时候掉到了百分之三点四,二五年上半年就进一步掉到了百分之负零点。 通过我们刚才读的这些数据,也能暴露出他业务闭环中的一些问题。首先来说就是 massive 的 收入贡献是偏低的,当然呢,这与大模型公司还处于与早期是有一定的关系的。比如说 open i, 在 早期的时候,他也是先占领市场,然后再逐步的做大利润。二零二四年一月的时候, open i 的 毛利只有百分之三十五, 但是在二零二五年十月的时候,已经提升到了百分之七十。当然他能够不断地提升毛利,有一个很重要的原因在于,就是他大模型的竞争力非常强, 模型足够好。但这个呢,其实跟智普的 g l m 模型来说,就是说它还是有很大的压力的,因为它在国内也不能说它自己就是排名数一数二,竞争对手还包括就这个谦问,包括有 deepsea 等等。此外呢,就是 mass 业务这一块呢,它不光是考验大模型的能力,它还考验一些基础算力上的能力。那在这一块来说,呃,国内的大厂,比如说字节呀,阿里呀,它的投入 是非常占有优势的。那么从这个角度来说,智普在麦斯业务这一块,它的成本天然就会比像阿里这样的大厂来说要高很多。麦斯业务又是被市场上较为看中的一块业务,但是智普在这一块呢,又会面临这些 痛点,所以说呢,这也是市场我觉得对智普看的没有那么高的一个原因。第二呢,他现在的收入大头本地部署业务,在业内的技术领域讨论是比较多的,包含了很多上层应用层的需求, 也就是说客户有什么需求,我就去开发什么。比如有自媒体统计过,在二零二五年,智普中标过五十七个项目,其中百分之六十都属于这样的应用类项目。那这些应用类项目呢,虽然说它的毛利高,但是它需要的不是智普最核心的大模型的能力,所以智普投入的模型研发的成本并不是直接去变现, 所以商业闭环上就会差点意思。这怎么理解呢?就好比说你是一个米其林大厨,但是呢,你既要去研发一些高端的菜系,同时呢你也得去接一些 这个炒饼炒饭呀,什么鱼香肉丝啊之类的这些活,这其实呢,就会让呃资本市场对于这些业务的想象力大打折扣。另外呢,智普还有一个就是被广泛吐槽的点,就是有媒体统计,在二二年到二五年这五年间,他的 top 五客户 一直在变,不停的在换,都是新客户。也有人的在分析,这可能是在交付阶段,可能会出现一些问题,导致合作并没有得到持续。比如有客户说在二零二三年买了智普 g l m 三点五的付费版本,每年一百多万,后来智普升级到了 g l m 四还开源了,但这位客户没有升级, 才发现自己花钱的买的商用版的三点五还不如免费的四好用。当然这是一些吐槽啊,但至少也能说明一些问题啊,背刺客户的可能不只有新能源汽车。

今天我们就拿实际的项目来测一测这个烤 pallet 的 套餐到底值不值啊?然后我们全程都用的是 oppo 四四点六的这个模型,也就是可 loft 的 最强模型。工具的话,大家可以按照自己的喜欢自己选啊,我用的是 open code 的, 如果大家有喜欢的其他工具也可以对接啊,反正烤 pallet 都兼容到目前为止这个项目。这这个任务已经跑了大概三十分钟了, 你看这上下纹已经很长了,这已经是压缩了好几轮的了。如果是在可乐扣子里,我可不敢这么跑,因为我的可乐扣子对接的是官方订阅。如果说在可乐扣子里我这样跑的话,那现在早就触发五小时上线了,我估计我这个任务四五四五小时上线都不一定跑得完, 要是对接官方 api 的 话,估计一百多块钱已经出去了。但是现在我们不慌啊,因为我们是用 opencode 加 copilot 的 方案来进行的。 一会我们再来跟大家聊 capitol, 它的这个计价逻辑是什么样子的啊?网上说它是按次数计价的,其实也不完全准确,因为我这个任务其实到目前为止它已经消耗了大概三十积分了。我们到后台看一下, 嗯,它大概是从三十二开始的百分之三十二开始的,到现在为止是百分之四十二了。 我只触发了一轮对话吗?那你看消耗了百分之十就相当于是三十积分吗?按照每个模型的那个单价来算的话, oppo 四点六的单价是一次三积分,那现在已经消耗了三十积分就相当于十次对话了。 嗯,但其实我在工具里其实只跟他说了一句话,所以说大家也不能严格的说按照对话次数来算自己的使用情况, 这里面还是有些微妙的,但是整体来看,他已经很很划算了啊。 我们来继续让他跑 a few minutes later。 哇,他还没跑完呢,现在已经一个小时了。那这样吧,这段时间我跟大家分享一个我个人体验下来比较高效的一个 呃,算是外部抠钉的方法吧。左边的窗口我用 oppo 四点六。然后右边的这个窗口呢,我用的是国产模型,比如说智普的 g l m 五了, mini max 二点七了,或者是 kimi 二点五了这种,这样左右配合,哎,你也不用特别分散注意力。 左侧就是做需求的,然后做架构的,做 plan 的。 右侧呢,就用国产模型改一改明确的 bug, 或者是写一些比较明确的接口,其实 基本也不会出问题的,而且在这个过程当中,你的注意力也不会被分散,你的所有注意力都集中在当前的这两个窗口当中,有点左右互搏的那个意思哈。左手写 bug, 右手改 bug。 对, 这就是 opencode 的 一个好处,就是它所有模型就能对接。你用订阅的方式把 copilot 的 套餐订阅进去, 然后你还可以把很多很多套餐都订阅进去,然后订阅进去以后,你的模型就可以随便选。 你看我左边这个窗口,做架构,做大需求的开发,做大任务的处理,就用 opus 四点六。右边的这个窗口呢,改改小 bug, 写写小接口啊,就用国产模型。然后再跟大家分享一个点,就是在这种方案下, 我们不是分了左右两个窗口吗?左侧这个窗口我们用的是 copilot 的 套餐,这个套餐呢有一个特点就是它大体上还是按照对话次数来扣费的 啊,在你的那个上下文没有超标之前啊,所以你跟他说一句你好哎,他也扣你三积分,但是这就很不值了,对不对?你跑一个满的上下文,他也三积分,你说句你好他也三积分,所以我们不能在左侧的这个窗口和他去做这种日常的交流和对话啊。 那么怎么办呢?我们比如说现在来了一个需求,我们就在右侧的这个窗口,哎,我们用国产模型,让他去结合当前的项目,结合向你提的问题,然后来梳理你的需求。当右侧这个窗口把需求梳理清楚了之后, 你把整个需求丢给左侧的这个窗口,让他一次性出普烂。左侧这个窗口出完普烂之后,你再用 oppo 的 四点六,直接就用最强模型把这个普烂给开发完算了,这样的话你其实消耗不了多少积分, 如果说一个小功能的话,我测下来十积分就能搞定,你一个月有三百积分呢。然后右侧这个呢,就改改 bug 嘛, 好了,他终于把活干完了,干了一个多小时啊,如果说你用官方订阅的话,一个多小时的任务估计要两百块钱左右了,我们来看一下 capelli 这个方案大概要花多少钱吧? 嗯,百分之三十二开始到现在是百分之四十七点多,大概消耗了百分之十五的额度,就是四十五积分,然后我们是十美刀,也就是七十块钱的订阅套餐,算下来 也就是十几块钱嘛,其实已经非常划算了。好了,今天的视频就到这,我们下期再见。