00:00 / 01:04
连播
清屏
智能
倍速
点赞NaN
00:00 / 01:59
连播
清屏
智能
倍速
点赞9
00:00 / 01:08
连播
清屏
智能
倍速
点赞12
中国移动发布MoMA模型服务平台,各大佬抢Token地盘 兄弟们,如果你身边还有人在做大模型API的“倒爷”,赶紧把这条视频转给他!因为正规军和大佬们,已经开始掀桌子了! 就在刚刚过去的5月8号,中国移动正式发布了MoMA移动模型服务平台,一口气接入了超过300款主流AI大模型!首创“Token集约化运营”,直接把调用成本压降了30%以上! 你以为只有国家队在抢地盘吗? 猎豹的傅盛推出了EasyRouter,币圈大佬孙宇晨也搞了个b.ai。
曾经被认为是草根创业者赚差价的“AI中转站”,怎么突然成了大佬们眼里的香饽饽? 核心逻辑就两点:
第一,大佬们算过账了,花几十亿美金去卷底层模型,吃力不讨好;但做“连接层”、做分发网关,这可是轻资产、高现金流的“过路费”生意!移动更是直接把AI当成了未来的“水电煤”来垄断布局。
第二,正规军入场,主打的是合规、稳定和国内百模大乱斗。 那满大街的野生中转站何去何从?直接出局吗?不至于,但市场份额绝对会被大幅度压缩。
只要 Claude、GPT、Gemini 这些顶尖海外模型一天不对国内开放,信息差就永远存在。野生中转站最后的那一点点生存空间,就是彻底退守到“海外模型专属代购”的狭窄赛道上,在合规的边缘赚点辛苦钱。 所以我想真诚地向懂行的朋友求教:你们现在做开发,是完全转向了国内的正规军大模型,还是依然离不开国外的GPT和Claude?评论区,咱们聊透它! #MoMA模型服务平台 #AI智能体 #杭州AI开发公司
00:00 / 01:36
连播
清屏
智能
倍速
点赞139
00:00 / 01:13
连播
清屏
智能
倍速
点赞46
00:00 / 00:10
连播
清屏
智能
倍速
点赞309
00:00 / 00:44
连播
清屏
智能
倍速
点赞3
00:00 / 01:54
连播
清屏
智能
倍速
点赞0
00:00 / 02:54
连播
清屏
智能
倍速
点赞107
00:00 / 00:42
连播
清屏
智能
倍速
点赞14
KingKong2天前
国家队入场,Token成本直降30% 中国移动,开始下场“重构 AI 水电煤”了。 前两天,在 2026 移动云大会上,中国移动正式发布移动模型服务平台——MoMA。 简单来说,这个平台想做的事情只有一句话: 让 AI 像水和电一样,随时能用,而且便宜好用。 目前,MoMA 已经接入超过 300 款主流 AI 模型,包括中国移动自研“九天”大模型,以及 DeepSeek、通义千问、豆包、Kimi、GLM 等热门模型。 过去企业接 AI,最大的问题是什么? 不是模型不够强,而是太麻烦。 不同模型接口不统一、成本高、稳定性差,一旦模型崩了,整个业务都可能停摆。 而 MoMA 干的,本质上是把这些复杂问题,全部平台化。 用户只需要接一次 API,就能调用所有模型资源。 更关键的是,它还有一个很核心的能力——智能路由。 平台会自动判断: 到底是优先省钱,还是优先效果,或者追求平衡。 甚至当某个模型宕机、限流、超时的时候,它还能自动秒级切换到其他模型。 这意味着什么? 意味着未来企业使用 AI,不再是“押宝某一个模型”,而是像云计算一样,背后自动调度。 真正进入“AI 基础设施时代”。 还有一个非常重要的信息: MoMA 首创了 Token 集约化运营。 什么意思? 以前很多企业用 AI,最头疼的是: 算力成本根本控不住。 而 MoMA 通过国产算力、自研推理引擎、智能缓存、上下文复用等技术,把单位 Token 成本压低了大约 30%。 资源占用率,降低超过 50%。 说白了: AI 开始从“贵族玩具”,逐渐变成“工业化生产工具”。 另外,MoMA 还推出了“机密模型”。 模型会运行在机密容器中,通过硬件隔离技术,实现“可用不可见”。 尤其对政务、金融、医疗这些高敏感行业来说,这个能力非常关键。 因为很多行业不是不想用 AI。 而是不敢把数据交出去。 现在,中国移动想做的,其实不只是一个 AI 平台。 而是在建立中国自己的 AI 调度系统、AI 运营系统、AI 计费系统,以及 AI 安全底座。 过去大家卷的是“谁的模型更强”。 但接下来,真正决定 AI 大规模落地的,可能是谁能把模型,变成稳定、低成本、可运营的基础设施。 而 MoMA,明显已经开始往这个方向走了。 #中国移动 #MoMA #科技 #大模型 #算力
00:00 / 02:25
连播
清屏
智能
倍速
点赞7
00:00 / 00:08
连播
清屏
智能
倍速
点赞28