这也太快了吧,大模型第一的位置已经悄悄换人了。就在前几天,致富版最新模型 glm 五点一毫无预兆地向所有 coding plan 用户全面开放。官方评测数据显示, glm 五点一的编程能力直接飙升到了四十五点三分,相比五点零版本性能提升了将近百分之三十。老实说,这操作太像当初的 dc, 不搞花里胡哨的营销造势,是骡子是马,让用户自己去遛,主打就是一个技术自信。而且这次升级的核心直接指向了智能体工程,专攻长距离、多步骤的复杂工程任务。接下来直接带大家实测一下, 任务是从零搭建一个带用户注册、商品展示和订单管理等等的前后端分离购物商城系统。正常来说,这是一个初级工程师,大概需要三到四天的工作量了。我先给了 gln 五点一张参考图,然后用大白话输入了一段提示词, 发完了我就坐在旁边看着他干。他先是主动写了一段执行步骤,说明每一步怎么搭建,包括先做后端搭建,然后产品分类、购物车订单管理,再到前端页面的搭建,最后集成数据并往上。然后他就开始一个阶段一个阶段的写,后端框架搭建、前端页面生成安装依赖项验证构建结果。 而且不像以前用的某些开源模型,写完一段就得监督下一段。除了中间让我授权一些权限, gln 五点一的每一步都是他自己推进的。 最让我惊讶的是,中间出现了 n p n 缓存权限和 x n l 文件解析问题。以前用别的模型到这里基本就要人工介入排查,报错再未回给他了。但 g l n 五点一顺着报错自己排查了一遍,定位到问题之后自己改掉了,然后继续往下走, 最后交付的时候登录注册能顺利跑通,权限控制生效,数据看版也能正常展示。整个过程只用了不到三个小时,而且对话框我一句都没有输入过。可以感受到,整个测试过程里, g l m 五点一体现出了极强的状态延续和目标保持能力,特别是在长城任务的执行和交付上, 跟 k 二点五确实拉开了一个升位,它的编程能力真的可以说是当前模型里断档领先的水准了。看完这个案例,就问你黄不黄? 以前总觉得 ai 只是帮我们提效的工具,我们自己才是那个做决策把控权的人,但 g l n 五点一展现出来的能力,就像是一个自己就能把控权的资深工程师, 以及去焦虑害怕被替代。不如想清楚我们的核心竞争力到底是什么。未来不再是比谁更会敲代码,而是比谁能更好的给 ai 下任务,成为驾驭这些智能体的人。
粉丝10.5万获赞92.9万

大家好,我是三百零,很多小伙伴给我私信呢,包括评论区都在问用什么模型最好?呃,我首先给大家一个结论,就是大家不要去充钱到各家平台,然后使用他们的 a p i, 因为那样是非常非常贵的。呃,先 说个小结论,就是用 coding plan 是 最便宜的,每个平台都有,就包括 kimi, 智普, mini max, 还有腾讯云,阿里、火山,这这几个都有 coding plan 好,我们用到底是用哪一家呢?哪家更便宜呢?我们首先先看一个数据,就是 openroot 是 全球最大的模型应用平台啊,我们国家在前在三月份的前两周已经 登顶了这个模型调用,包括前五都是前四都是我们国家的,包括 mini max 是 第一, kimi 是 第二,然后 glm 第三。然后这几个模型呢,其实是经过全球玩家,就包括啊,国外国内的玩家验证过的啊,哪个模型是最好用的,所以我们就用他们验证过好用的模型就好了,用 mini max 跟 kimi 我 觉得是 ok 的, g o m 也是可以的。然后我们要买阔丁,不但要搞懂一个问题,什么是 a p i 请求次数,什么是 prompt 次数,还有什么是 token 剂量,然后我就先放一下,大家看一看就好了, 然后第四。呃,然后下一个是入门的档位啊,就各家其实入门的档位很便宜,就包括阿里云才七块九,然后火山才八块九,哎呀,腾讯云才七块九,这几个三,这三家大厂的价格都很便宜,但核心是还有没有能买,能不能买的到啊,因为这个我去腾讯云看了一下,腾讯云那个是需要抢的,然后火山阿里可能也还有 大家采购了去看一下,但是作为这个价格本身来说,其实也就不到一杯奶茶的钱。对于对于大家想玩小龙虾,想试小龙虾,我觉得是一个非常好的一个选择。 然后我们挨个说一下模型,首先是 kimi 啊, kimi 是 唯一多模态的,然后能够支持 kimi crow 跟 a 卷集集群的,然后他同时也是用计算 token 的, 就不会说五个小时就限流,所以我比较喜欢用 kimi, 因为我有时候会集中去开发一些东西,所以我选的是一幺九九安岳的套餐,目前还没有,还不用满, 就二十倍的这个用量我觉得还是挺充足的。然后是智普的,智普的大家可以看一下,就是四十九到一百四十九到四百六十九, 然后到 mini max, mini max 是 呃,性价比比较高,然后它是五个小时限时的,也是限限的次数,所以就看我觉得就 mini max 跟 kimi 选一个吧。然后你如果说可以五个小时 就开发不是很集中的话,我觉得用 mini max 也是没问题,因为它毕竟是全球钓用第一嘛,那肯定说明它是最好用的。 然后腾讯云的,腾讯云是每家都有啊,就 im 五, kimi 二点五, mini max 二点五,就这些都有。然后阿里云跟火山引擎也都差不多,因为三三家大厂都差不太多,都是各家的的模型,其实都有配啊,包括火山引擎这里没必要,但他也可以都用 kimi 二点五的。 如果大家不是新手的话,新手的话可以用这个中度的使用模型,但各家其实你要还有更大的需要,可以当场就升级了 啊,不同的人群怎么选就薅羊毛啊,尝鲜的就是阿里云,腾讯云的 light, 就 这些也可以选选择 kimi 二点五的模型,包括 mini max 的 模型,然后剩下这个追求极致体验的就是 kimi, 像我一样,就是你就需要去疯狂的使用,突然有时间,有有有 idea 就 疯狂的使用的,不要半路被卡壳停下来的,那你就选 kimi 就 好。 然后这是五个知识点,就是不要被请求次数迷惑,就一次提问不等于一次请求。 然后五个小时的滚动窗口的平静是很重要的,就是你们就看你们使用的这种平静,因为我自己肯定是很讨厌五个小时的,因为真的是很难受,用五个小时正正正正坐着呢,正写的嗨呢,突然就不让用了,然后你的你的虾又不能工作了,就就这就很烦,所以我用的就是 kimi。 然后涨价趋势,这个确实是已经在涨价了,就原来直普啊, kimi 他 们都有首月优惠的,现在都给取消了。一句话总结,便宜试水就是 mini max, 极致体验就是 kimi。 然后最后我列一下大家这个 coding plan 的 网站,大家可以啊,截图保存,然后后面有需要可以去去去去购买。 然后我最后再给大家再看一下这个模型的调用啊,就是我给大家讲了这么多,其实你可以可以了解到大概各家的一个情况。然后首先呢,我觉得 最好还是 mini max 跟 kimi 里面选吧,因为这是全球人民验证过的,既然验证过咱就不去验证了,咱也不是什么特别大的,也没有数据支持,也不是什么特别大佬,所以用别人验证过的东西就好了,就 mini max 跟 kimi 选一个吧。啊,这是我的建议啊,我的分享到此,谢谢大家。

如果你最近也在用 open cloud 跑项目,那么我想知道,这个月的 a p i 账单你看的心疼吗?是不是跟我一样,用的时候有多爽,付钱的时候就有多肉痛? 明明只是让他写了几个小项目,改了几版代码,成千上万的 token 哗哗就没了,月底一算账,几千块钱直接打了水漂。别慌,今天这条视频,我把目前全网主流的 callin plan 套餐都给你找来了。 从七块九的入门尝鲜到重度开发的旗舰套餐,哪家性价比最高,哪家不抢就能买,哪家最适配你的常用工具。看完这条视频都能明白,建议所有开发者先点赞收藏,免得要用的时候找不到了。 首先第一个也是目前入门价最低的之一,腾讯云大模型 coding plan。 腾讯云这个套餐核心优势就是两个字,便宜。 mate 套餐日常价四十块钱一个月,现在活动价首月只要七块九。 pro 套餐日常价两百块一个月,活动价首月只要三十九块九。 这个价格对于想尝鲜的朋友来说,几乎是零门槛。用量方面, lite 套餐每五小时最多一千两百次请求,每周九千次,每月一万八千次。 pro 套餐直接是 lite 的 五倍,每五小时六千次,每月九万次请求。对轻度用户来说, lite 的 额度完全够用, 重度开发者的话,买 pro 也能顶得住。模型方面,除了独家支持腾讯的混元全系列模型,还接入了 gmm 五、 chimi k 二点五、 mini max m 二点五这些主流模型、主流编程工具呢,几乎全兼容,像 opencloud、 coldbody、 cursor 这几个直接就能用。 唯一要注意的是,这个优惠价每天十点限量开,抢手慢,无想上车的朋友要定好闹钟。 接着第二个,阿里云百炼定制 plan, 阿里这个套餐跟腾讯的定价体系差不多, mate 套餐日常四十块钱一个月,新客首月十块钱。 pro 套餐日常两百块钱一个月,亲测首月五十块。用量上, pro 也是 light 的 五倍,跟腾讯持平。它的核心优势,第一是独家支持阿里自家的千万全系列代码模型,尤其是千万三 cold plus, 这个在代码生成和工具调用上的表现大家懂的都懂。第二呢,是对阿里云的服务器生态适配拉满,如果你是用阿里云服务器部署 opencloud 相关服务,用它会非常丝滑,而且配置教程很完善, colude code、 client 这些工具都有手把手的接入指南。不过呢,缺点跟刚刚说的腾讯一样,优惠价每天限量抢购,早上九点半开抢,热门时段基本很快就售清了。 下一个字节跳动的火山引擎方舟 coding plan 字节。这个套餐最大的亮点就是独家支持豆包系列代码模型,尤其是在国内代码模型里属于第一梯队的豆包 seed code, 而且现在订阅还能解锁自接刚出的 ark cloud 跟 open cloud 完美适配。价格方面, mate 套餐日常四十块钱一个月,限时特惠,首月九块九。 pro 套餐日常两百块一个月,限时特惠,首月四十九块九。 用量上, light 是 plud pro 的 三倍, pro 是 light 的 五倍,完全能满足重度开发需求,模型生态也很能打。除了豆包全系,它还接入了 kimi k 二点五、 glm 四点七、 deep sick v 三点二这些热门模型支持手动切换,也能开 auto 模式,智能调度,简单任务用轻量模型省额度。 复杂任务呢,就用旗舰模型保效果,非常智能。而且它对 collude code 的 适配做的特别好,翻翻教程非常详细,新手也能一步到位部署,不用踩坑。 第四个,百度千帆 coding plan 先说结论,百度这个套餐绝对是新手常先的性价比之王。 mate 版首次购买只要七块九,一个月首次续费二十块,常规也才四十块。 pro 版首次购买三十九块九,首次续费一百块。跟腾讯视频用量上, mate 是 每月一万八千次,请求 pro 每月九万次,跟腾讯云一样完全够用。最关键的是它对 opencloud 的 专属适配适历从配置文件怎么改 到 base 五 r l api key 怎么填,一步一步教新手,照着做就能搞定,完全零门槛。模型方面,默认用 kimi k 二点五,同时支持 deepsafe v 三点二、 g l m 五、 mini max m 二点五这些主流模型。唯一的小遗憾就是不支持百度自家的文星大模型,不过不影响日常使用。讲完了腾讯、阿里字节、百度四个大厂,下面我们来看看垂直大模型厂商的套餐。 第五个,先说智普的 g l m coding plan。 智普这个套餐核心就是冲着 g l m 大 模型的用户来的,如果你是 g l m 五、 g l m 四点七的重度用户,选它准没错。 grm 五在 coding 和 agent 能力上已经做到了开源模型的搜查使用,体感非常接近 cloud ops, 用来跑 open cloud 的 复杂任务,效果特别好。它的套餐分了三档, light pro max light 是 cloud pro 的 三倍用量, flower 是 light 的 五倍, max 是 pro 的 四倍,能覆盖从入门到重度开发的所有需求。 而且它支持智能调度、简单任务自动用轻量模型省额度,复杂编程自动切旗舰模型,非常省心。价格方面, mate 按月是四十九块一个月,按季更划算,一百三十二块一季度。 pro 按月一百四十九,按季四百零二。 max 按月四百六十九,按季是一千两百六十六。唯一要注意的是,它也是每日限量供应,每天十点补货,想入手的要卡点。 第六个是 minimax coding plan, minimax 这个套餐最大的特点就是档位多,选择灵活,从入门到顶级发烧友都能选到想要的档位。标准版分了三档, starter 二十九块一个月,每五小时四十次。 prom plus 四十九块一个月,二点五倍 starter 用量。 max 一 百一十九块一个月,七点五倍用量。还有极速版,从九十八块到八百九十九块, 满足高病发极速响应的需求。套餐的核心优势呢是 mini max 自家的 m 二系列模型,它在代码生成和工具调用上表现很稳,尤其是上下文的代码理解效果很不错。 缺点也很明显,只支持自家的 mini max 系列模型,不支持第三方模型。如果你只用 mini max, 选它没问题,想换模型的话就不太方便了。 接着第七个, kimi 编码相关权益这里要跟大家说清楚, kimi 其实没有单独的编码 plan, 它的编码功能是包含在 kimi 会员体系里的。 会员分了四档,从四十九块一个月的 indent 到六百九十九块一个月的 lego, 不 同档位对应不同的用量限额。优势在于 kimi k 二点五的超长上下文能力,这个不用我多说,用过的都知道,处理超大代码库,超长文档效果特别好。 缺点也是只支持自家的 kimi 模型,不支持第三方,而且不是专门为 coding 场景做的套餐,针对性不如前面几家。 最后一个,快手 quick cat coding plan 这个套餐可能很多朋友没听过,它是快手万晴平台出的,核心是自家的 cat code pro v 一 模型, 这个模型在 a a 榜单的非推理模型赛道拿过第一,前端生成的美感和实用性做得特别好,如果你是前端开发者,可以关注一下。价格方面,入门的 mini 套餐日常二十九块一个月,限时特惠,首月八块八,每五小时四十次。 pro max 最高的 max 套餐二百四十块,每五小时一千次。 pro max 重度开发也够用。缺点还是只支持自家的 cat 系列模型,不支持第三方,生态丰富度不如大厂。好了,八家套餐给大家说完了,肯定有朋友会问,这么多套餐,我到底该选哪个? 别着急,接下来我给大家一个保姆级的选购指南,分四个维度,看完你就知道自己该充哪个了。第一个维度看你的使用强度,如果你只是想尝鲜体验,每天用一到二小时,属于轻度用户, 直接闭眼充七到十块钱的入门套餐就行。腾讯云 night、 百度千帆 night 首月都只要七块九, 快手迷你首月八块八,火山引擎 mate 首月九块九。这些套餐的月度额度足够你每天跑五到十个中等复杂任务,性价比直接拉满,就算踩坑也没什么损失。如果你是重度开发者, 每天要用六小时以上,或者多终端多实力同时跑 open pro, 直接上 pro 及以上档位。 比如说腾讯云、百度千帆、阿里云、火山引擎的 pro 套餐,每月额度都是九万次,请求是入门款的五倍,还支持更高的开发, 多项目同时跑也不会限流,完全能满足重度开发需求。第二个维度看你的模型偏好。这个很简单,你平常用哪个模型最顺手?就选对应的套餐。常用混元选腾讯云, 常用千问选阿里云,常用豆包选火山引擎,常用 timi, 上下文选 timi, 会员常用 mini mess, 直接充他家的套餐。大厂的套餐基本都支持多款第三方模型,而垂直厂商的套餐大多只支持自家模型, 大家按需选择就行。第三个维度看你的工具生态。如果你是 cloud code 重度用户,优先选火山引擎方舟和阿里云摆列, 这两家对 cloud code 的 适配最完善,官方教程最详细,不用自己踩坑。配置,如果你是 qn code 的 用户,直接闭眼充阿里云百联原声适配体验拉满。 如果你是纯纯的 oppo pro 新手,优先选百度千帆,官方直接给了 oppo pro 的 专属配置试例,照着填就能用。第四个维度看你的预算,预算十块以内尝鲜腾讯云百度千帆的 light 套餐,七块九,首月首选, 预算五十块以内,月度稳定。用阿里云、腾讯云、火山引擎的 light, 续费款二十到四十块钱,一个月完全够用。 预算,一百以内,重度使用大厂的 pro 套餐,首月款三十九块九到五十块,这个区间性价比最高。最后跟大家总结一下, open cloud 这波热潮确实把 ai 编程的门槛拿到了前所未有的低, 但也让很多开发者踩了 api 账单的坑。而 coding plan 的 出现就是用包月订阅的方式,把我们的开发成本直接锁死, 让普通开发者也能毫无负担的用上最顶尖的 ai 编程工具。当然也要提醒大家,这些套餐的首月优惠基本都是一个认证主体,只能享受一次,而且大多不支持退订退款,大家入手前一定要看清楚规则,按需购买, 别盲目冲最高档位。好了,今天这期 coding plan 就 介绍到这里,欢迎大家和我分享。你用 opencloud 最多的场景是什么?你最看好哪家的 coding plan? 如果你还有什么私藏的高性价比套餐,都可以打在评论区一起交流。如果觉得这条视频对你有帮助的话,也别忘了点赞、关注、收藏、 转发给你身边正在被 a p i 账单折磨的开发者朋友。后续我还会持续更新 opencloud 的 使用技巧和避坑指南,我们下期见。

随着 opencloud ai 智能体的火爆,这可能离 ai 收购我们普通人最近的一次,平台都推出自己的 codingplay 的 套餐。为此,我花了一周的时间,把国内所有的平台 codingplay 全部撤了一遍, 整理出这一份可能是全网最全的对比指南。从七块九的入门价到五十块钱的旗舰版,从火山引擎到智普 glm, 从阿里百联到 mini max 七家平台,我会把每个细节都给你讲清楚,看完这期视频,一定帮你省下不少馒头。 那么我们正式开始吧。可能有些朋友还不太了解头顶 play 到底是什么,简单来说,它就是原厂商推出的 ai 编程模型订阅服务。 你以前可能只是简单用 ai 对 话来解决一些问题,但自从奥本克勒出现之后, ai 使用 有所改变,你需要自己调用 a api, 然后按 token 数量付费。 token 费用这个东西用起来真的没底, 有时候我们通过 open curl 问几个问题,一个月下来几百块钱甚至上千块钱都有可能。但是 coding play 不 一样,它是固定月费,根据我们的需要,每月只需要几十块钱就可以无限的调用。 这些平台做了深度适配,像 opencloudbirdcode、 coser 这些主流工具,全部可以直接使用,连门槛开箱即用,这就是 opencloud 的 核心价值。好,我们先说第一家,火山引擎方舟, 这是字节旗下的云平台,他们的特点就是多模型结合,什么意思呢?就是他不绑定某个模型,而是同时支持多个主流模型。他们有一个叫 out 模式,能根据你使用场景自动选择最优的模型。 这个功能很实用,省去你自己判断模型的麻烦。第二家,阿里百联,阿里百联是目前模型选择最丰富的平台,一口气支持五五个模型。还有阿里最大的优势就是它的 a 键生态圈, 什么意思呢?就是他不只是给你一个模型,而是有一套完完整的开发工具链,非常适合做复杂项目的开发者。第三家,腾讯云 腾讯云 callinplay 背靠着腾讯这座大山,最大的优点是企业生态做得好,支持混云二点零模型,这是腾讯资源的大模型。 腾讯人的优势。还有如果你本身就在使用腾讯的企业服务,如微信生态 企业微信这些,那腾讯人的接入是非常丝滑的。第四家,百度千帆,这家比较特殊,他最大的特点就是百度平台的生态圈,作为国内最早的原厂商之一, 百度的企业用户基础是非常庞大的,支持文新一员四点零,还有是百度的 c 加加优化,这是它的亮点,如果你主写 c 加加, 百度千帆可能是不错的选择。第五家,夜之暗面 kimi ko 夜之暗面这家的特点是长上下文的能力, mini 二点零,支持 二十万字的上下文,什么概念呢?相当于可以同时理解一篇三国演义,所以 timi 特别适合分析大型代码库或处理复杂的项目。第六家,智普 g l m codingplay 这家的编程能力是 真正的行业顶尖, glm 五在 s w e bench 榜单上是并列第一梯队的。 s e bench 是 什么?它是衡量编程模型能力的权威精准测试,能上榜的模型都经过严格的验证, 智谱的模型在推理能力上表现非常出色,适合需要高复杂编程任务的开发者。第七家, mini max talking plane 这家是今天性价比最高的平台,它最大的特点不是便宜,而是全模态。什么意思? 其他平台只支持编程模型,而 mini max 它包含了语音模型、视频模型、图形音乐模型一站式服务,且代码之余还能用它来语音转文字视频,裁剪图片,生成一页,制作一份定位,就解决了所有的需求。 如果你追求极致的性价比,又想体验全套模型,那么 mini max 是 最佳的选择。这边是模型的对比情况,最后给大家一些选购的建议。 如果你追求极致的性价比,日常写写代码,不用做特别的复杂项目, 那么 mini max 是 你最佳的选择。如果你在企业环境需要稳定的服务,完善的工具链,那么 阿里百链是最佳的选择。它不只是提供模型,还提供了 ag 的 生态生态圈,以及五个模型的随意切换。如果你需要 强大的编程能力,比如处理复杂的算法或者大规模重构,那么智普是首选。智普的 glm 五的编程能力是经过 swe 编程认证的,是行业顶尖水平。如果你想处理超大的代码, 如十几个文件、复杂的项目分析,那么 kimi 是 你的最佳拍档。如果你刚开始使用 ai, 火山眼前是个好的起点,它的自动选择模型模式 非常适合我们新手入门。以上就是国内七家平台 qq 平台的全面对比,如果你觉得有用,请点赞收藏,我们下期再见!

国内的模型基本没怎么用,结果想买的时候试一试,发现买不了了,包括阿里云、百联和智普 ai, 智普的 g m m 也用不了了,每天都需要去抢。刚才我去十联讲了一下,发现它的网页是在转呢,跟抢票一样。 所以大家啊,早买早用,现在这个 kimi 还是可以用的。这个 kimi 还能用,赶快去买一下。我建议买个四十九到或者九十九的都可以,我买个九十九的 kimi 还是可以用上,感觉跟克拉扣的是有些差距,但是便宜,大家可以试一试,尽早用 其他的模型,比如说迷你 max 或者是 dipsic, 这些还是一般,有的说迷你麦草, 目前迷你 max 是 它的,这个定制 plan 是 可以用的。我买了一个 plus, 先试一试。刚才试了一下啊,还行,但是你要让玩龙虾比较贵,我不太建议用龙虾,用迷你 max 有 点贵了,我可以用本地去部署, 或者你就用一下提米豆的就可以了。还有庆大家一些,这些 ai 的 层出不穷,一个月一个版本,所以我建议大家就买一个月就试一试就得了,不要开这种连续包年的。这种的你看比如说前两天刚 充值 cds 二点零的,现在又出了新模型,所以一个月左右基本上就过时了,所以大家还是自己看一下,如果有钱无所谓,可以试试用这种单月的。

同样是 t r e 工具,同样是 glm 五大模型测试环境完全一致。提示词一模一样,工具都是 t r a e, 唯一变量就是模型来源。一边是 t r a e 自带的内置 glm 五, 另一边是我们自己配置的智普官网 glm 五 plan 版,全程无剪辑,纯真实跑测。 先看 t r a e 内置 glm 五,从开始生成到完整输出,整整耗时八分十三秒,最终生成了二十五个文件,能明显感觉到生成过程偏慢,文件数量偏多,荣誉代码和重复配置也会更多一些,整体结构不够精简,查看生成的效果。 再看智普官网 g l m 无 plan, 同样的开发需求,仅耗时四分四十五秒就全部完成,文件数量直接精简到十六个,速度快了将近一倍,代码结构更干净,逻辑更聚焦,没有多余的无效文件。首页框架一次性成型, 查看生成的效果, 综合对比生成的效果,大致相同的情况下,配置智普官网 glm 五 plan, 效率直接翻倍,代码质量更稳。同样的时间能多做好几个页面,如何选择需要您自己决定。

小米的这个 token plan 消耗的有点快,我就说了一句 hi, 然后四万六的 credits 就 没了啊。

就在上周五,智普直接在用户社群里扔了颗深夜炸弹, callinplay 全体用户即将用上最新旗舰 g o m 五点幺。拿到更新后,我第一时间上手实测,特意挑了个很考验功底的实操场景,让它从零生成一个赛博复古风的网页游戏。要求一步到位,先设计完整游戏逻辑, 写出全套 h t m 摇加 css 加 g s 赛码,加上像素风 u i 动画特效、计分系统、死亡判定,最后还要自动生成一份可直接运行的说明文档,高 告诉我怎么打开、怎么调试、怎么扩展功能。看着步骤不算难,但懂点开发的都知道,这种从头到尾连贯下来的复杂任务,最吃模型的常上要闻理解和全程专注力。而 g m 五点幺拆解需求特别稳, 全程牢牢盯着核心目标,不会写着写着跑偏漏掉关键细节,写代码时结构清晰不混乱,就连最后配套的运行说明、调试指南都写的特别完整。这一点真的很出乎我意料。 因为之前我也用过一些主流编程大模型,但凡牵扯多文件逻辑,长链路编辑还要配套交付,大多写到后半段就开始往前面的逻辑界面、动画逻辑经常对不上, 最后交付的东西根本跑不起来。但 g i m 五点幺不一样,全程能记住整个项目的结构,从需求理解、代码编辑、界面设计到交付说明,一整条链路丝滑衔接,这种扎实的长城落地能力 真的拉开了很大差距。这确实是目前编程能力第一梯队的模型,尤其是在复杂任务的持续执行和完整交付上,体感差距非常明显,个人觉得能媲美国产的 oppo 的 四点六了。 我们为什么要关注这件事情?因为长城任务能力是检验 ai 智能的新标准。 g m 五点幺突破明显复杂,目标自动拆解,长链路,不跑偏,不掉目标代码,网页 api 无缝切换, 全程记忆,进度连贯推进。直白讲,越来越像靠谱的全职工程师。现实问题随之而来,当 ai 能稳定承接中高阶工程任务,人的不可替代性还剩多少 头部企业全在压这条赛道,能力越强,肉眼可见,尽早吃透用好这类工具,才是接下来的核心竞争力。现在 g i m 五点幺已面向 g i m c d play 用户开放,性价比超高,闭眼入不亏,你准备好了吗?

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

这个 g m l 五绝对是降至了,我最近一个月用的一直都是 g m l 五编程,我觉得还效果还是可以的,因为它的评级也很高,虽然比那国外的还次一点, 但是这一周我就发现这个四点七特别不好用,甚至它在一个特别简单的逻辑上居然给我出了问题。给大家看一下,这是我问的 deepsea, 就 这么一个问题,这个文件相对于这个文件的相对路径, deepsea 给的是对的。就这么一个简单的逻辑问题, g m l 四点七居然答不对,因为这个问题我反复让他修了三次,他也没修好,然后我就去看他思考过程,我就发现我就发现他这么简单逻辑居然算错了,这是给我的第一个感受,这个 g m l 四点七 绝对是降至的,或者是他用的是残血版,但是你说是 a 振头的问题还是大模型的问题?不知道, 反正在 tree 上面,这个四点七不好使,这面四点七不好使了。然后我还发现一个问题,就是这个 tree 软件,如果你用它这个大模型,它自己的豆包扣的这个好用。 不只是大模型的好用,是连它那个 agent 能力都比较强,就是我用同一个任务, 我用 gmail 四点七跟用它这个豆包的扣的,它在 agent 的 上下文的规划上都不一样,就给我一种错觉,就是觑好像是针对它自家的模型,是做过专业的调教, 反正结果呢,就是它解决不了的问题,我就用它解决,如果它循环三遍还解决不了,我就用它解决,虽然它排队,但是它能解,这个主要是快,它不排队。

不知道大家有没有用过一些食之无味弃之可惜的 ai 产品,今天我就遇到了。上个月我订阅了阿里巴巴的百炼 coinplan, 原价是两百块钱,第一个月优惠只要三十九,我觉得很划算。过去这一个月,我主要使用里面的 kimi k 二点五模型, 用于接入我的小龙虾。当一个备用的 ai pro 的 同时,我也把它转换成了一个 a p i, 接入了我的一些 ai 应用。老实说,阿里巴巴的这个 callin plan 不 管是接口响应速度还是提供的 ai 质量都还是挺不错的,用量也很足,我一个月使劲用下来才使用了百分之十三的额度。但 但是我自己工作本身主要用的是 cloud code 和 codex, 我 还有免费的 java 都底,除了 gpt, 五点四也有好几个其他 ai api 的 渠道。所以阿里巴巴的这个 coding plan 第二个月续费要两百块钱, 就让我觉得有点浪费了。昨晚我还在纠结要不要续费,后来忙其他事忘了,结果过了零点发现订阅已经被取消,而且无法再续费了。 阿里巴巴的这个 coinplan 由于太火爆,购买居然还有限额,要每天早上九点半抢购,这你敢信吗?话说大家现在有在用国内的这些 coinplan 吗?如果用的话,大家更推荐用哪一家的呢?也欢迎大家来讨论交流一下。

最近有网友问我,世界大模型第一股智普的 glm 五发布了,说它是全球最好用的开源模型,编程能力堪比 cloud, 是 真的吗? 先说结论是真的,中国清华系智普最新的 glm 五模型已经在编程能力上比肩 cloud 了,全球开源模型中排名第一,虽然还有微小的差距,但是我们在快速的追赶中, 我是杨乐多大白话讲 ai 这款 glm 五到底强在哪?用三点跟大家说清楚。第一点,开源模型世界领先。目前这款 glm 五在全球的开源排名中,编程能力排名第一,综合能力排名第四, 也就是在全球范围内把代码公开,让大家免费使用的模型里面, g l m 的 编程能力是最强的。第二点,代码能力逼近顶尖水平,目前编程全球最强的就是 cloud 模型,而 g l m 五在编程的使用体感上 已经跟 cloud 相差无几了。第三点,他专门擅长处理复杂的任务逻辑,也就是一个不会代码的人,可以跟他进行多轮对话后生成一个复杂的产品,甚至不用写一行代码就可以实现。 我们客观的看,差距确实还存在,但是你要知道,一年前我们的 ai 代码编程能力比全球顶尖水平差了十倍不止, 而现在我们基本上跟他们近在咫尺了,并且 glm 还是一个开源的模型,开源的模型意味着全球的开发者都可以免费的使用它,并且在上面进行二次创作和修改。 而 cloud 是 闭源模型,只能通过付费调用它的 api 来进行使用,并且不能对其进行二次的修改和调整。做一个比喻啊, cloud 就 像是高墙内的武林高手,没有人知道它是怎么实现的, 他的武功不外传,你们只能看。而 glm 五呢,就像一个武林盟主把所有的武功秘籍全部都公开了,那你想想谁的影响力更大,谁会进步的更快呢? 这就是中国 ai 的 速度,中国至普系的 glm 一 年时间走完了别人三到五年要走完的路,中国在不断的这,这背后就是中国的 ai 的 硬实力,也是中国 ai 选择开元路线的再一次胜利。

我发现一个问题, g i m 它不能晚上用。我在做一个小程序的前后端,我发现它晚上的时候它会变笨, 它甚至会返回一些我看不明白的中文,所以在晚上的时候我只能切换到 cloud 去做开发。很神奇啊,我在后台提交公单,它也没人理我,所以 g i m code and pen 晚上是不能用的。

智普于二月二十一日发布 g l m coding plan 致歉信,并公布处理和补偿方案。智普介绍, g l m 五发布后流量超出预期,公司扩容节奏没有跟上,不得已将 g l m 五按照 max pro lite 的 顺序逐步开放。 目前 max 用户已经全面开放, pro 用户虽已开放,但高峰期可能会因集群负债较高遇到限流, lite 用户将在节后非高峰期逐步灰度开放。针对受到影响的 lite 和 pro 用户,公司支持自主申请退款。

zai 发布 glm 五点一代码能力大幅提升今日, zai 宣布, glm 五点一模型正式向所有 glm coding plan 订阅用户开放。此次更新在代码生成能力方面实现了显著突破。核心亮点,根据最新评测数据, g l m 五点一在代码任务评测中取得四十五点三分,相比前代 g l m 五的三十五点四分提升近百分之二十八,与业界领先的科阿德普斯四点六四十七点九分相比,差距已缩小至减二点六分。

智浦最新旗舰模型 g l m 五点一刚刚宣布全量开放了,它的编码能力比上一代狂飙了百分之二十八,实力已经无限逼近 cloud office 四点六。 李子璇还承诺 g l m 五点一将会开园,目前所有 g l m c d plan 用户都可以调用,价格更是只有海外模型的五分之一,性价比彻底拉满,还是觉得贵?关注我,获取超级优惠!

我真的是服了 g l m, 我 现在在做一个独立站,一到晚上 g l m 像个像个傻,唉,像个死,一点东西都做不了, 逼着我要用 cloud 再做一遍这个独立站,看看它做出来的结果是怎么样。你看看,你看看 cloud 的 还原度,这就是我用 figma 设计的, 然后这就是用 cut 写出来的。用了多长时间?就用的五分钟左右,他就帮我 完全还原了。他不是做不了,他不是做不了,他能,他能做,但是,但是他晚上他不让我做,他不让我用,我不知道他在干嘛, 公单又不回,我都不知道他在干嘛。我为了支持我们国内的大魔仙,我现在把钱给了,然后我,现在我不用了,我让你好好的发展一下好不好?

g l m。 五点一正式上线。 g l m。 五点一在编程测试拿下了四十五点三分,仅比特 opus 四点六,第二点六分达到了 opus 百分之九十四点六的水平。 g l m。 五点一依然会保持开元,当然 更经济的使用方案是购买包月的 coding plane, 目前 live 版本只要四十四点一元,首月对于小龙虾玩家和开发者是值得推荐的选择。

智普 g l m 五点一昨晚突然偷袭,编程能力相比上一代暴涨十分,评分直接贴到了全球最强模型 oppo 四点六的脸上, 甚至把扣丁 plan 都给卖断货了,这国产大模型卷起来,真是连服务器都不给友商留啊!智普 g l m 五点一这次不仅是常规迭代,它在代码场景下支持瑞斯尼模式,上下文窗口稳在二零零 k, 有极客已经用它连夜搓出了可交互的 ai 版我的世界,空间,补全能力极强。最离谱的是,它完美兼容 open nai 接口, 开发者改一行代码就能无缝切换。这波 astrapec 的 sonnet 四点六恐怕要连夜修复爆了,因为 sonnet 四点六已于二零二六年二月十七日发布。聊完了模型,咱们看看语料库建设。 教育局和国家语委近日正式发布了两项新规范,专门针对 ai 语料库基础术语和机器合成普通话等级。 这意味着以后咱们为数据搞 tts 都有了国家标准。对于做热爱者和语音生成的开发者来说,这可是合规性和工程化的重要指南, 建议去下个 pdf 文研读一下。不仅是软件层面硬核,国产智能车也开卷了!智己 l s 八已于二零二六年三月二十六日开启预售,预售二十五点九八万起, 直接塞进了英伟达芙尔芯片,六十四 g 内存带宽直充二七三 gbs, 这性能已经超越很多高配 pc 了。 更绝的是,他首发了全线控四轮转向,还搭载了千万大模型做 agent 助理。这哪是卖车啊,这分明是卖一个带轮子的聚生智能工作站最后大厂人才流动的瓜也得吃一口。 华为盘古大模型负责人王云鹤,已于二零二六年三月二十八日被爆离职。这位九十一年的天才少年,曾获华为十大发明奖, 现在要投身 a 振赛道进行水下融资了。在 gpt 五点二已于二零二五年十二月发布并普及的今天,纯模型已经不是护城河,能够跑通复杂流转的智能 a 振才是下一个风口。 看来今年的 a 振创业潮又要加一把火了!代码模型卷性能、国产芯片卷、上车大佬离职卷、 a 振观众老爷们,这波技术爆发,你们跟上了吗?点个关注,天天降带你拆解最硬核的两千零二十六!