00:00 / 01:09
连播
清屏
智能
倍速
点赞33
00:00 / 01:37
连播
清屏
智能
倍速
点赞132
00:00 / 01:19
连播
清屏
智能
倍速
点赞2
KingKong4天前
国家队入场,Token成本直降30% 中国移动,开始下场“重构 AI 水电煤”了。 前两天,在 2026 移动云大会上,中国移动正式发布移动模型服务平台——MoMA。 简单来说,这个平台想做的事情只有一句话: 让 AI 像水和电一样,随时能用,而且便宜好用。 目前,MoMA 已经接入超过 300 款主流 AI 模型,包括中国移动自研“九天”大模型,以及 DeepSeek、通义千问、豆包、Kimi、GLM 等热门模型。 过去企业接 AI,最大的问题是什么? 不是模型不够强,而是太麻烦。 不同模型接口不统一、成本高、稳定性差,一旦模型崩了,整个业务都可能停摆。 而 MoMA 干的,本质上是把这些复杂问题,全部平台化。 用户只需要接一次 API,就能调用所有模型资源。 更关键的是,它还有一个很核心的能力——智能路由。 平台会自动判断: 到底是优先省钱,还是优先效果,或者追求平衡。 甚至当某个模型宕机、限流、超时的时候,它还能自动秒级切换到其他模型。 这意味着什么? 意味着未来企业使用 AI,不再是“押宝某一个模型”,而是像云计算一样,背后自动调度。 真正进入“AI 基础设施时代”。 还有一个非常重要的信息: MoMA 首创了 Token 集约化运营。 什么意思? 以前很多企业用 AI,最头疼的是: 算力成本根本控不住。 而 MoMA 通过国产算力、自研推理引擎、智能缓存、上下文复用等技术,把单位 Token 成本压低了大约 30%。 资源占用率,降低超过 50%。 说白了: AI 开始从“贵族玩具”,逐渐变成“工业化生产工具”。 另外,MoMA 还推出了“机密模型”。 模型会运行在机密容器中,通过硬件隔离技术,实现“可用不可见”。 尤其对政务、金融、医疗这些高敏感行业来说,这个能力非常关键。 因为很多行业不是不想用 AI。 而是不敢把数据交出去。 现在,中国移动想做的,其实不只是一个 AI 平台。 而是在建立中国自己的 AI 调度系统、AI 运营系统、AI 计费系统,以及 AI 安全底座。 过去大家卷的是“谁的模型更强”。 但接下来,真正决定 AI 大规模落地的,可能是谁能把模型,变成稳定、低成本、可运营的基础设施。 而 MoMA,明显已经开始往这个方向走了。 #中国移动 #MoMA #科技 #大模型 #算力
00:00 / 02:25
连播
清屏
智能
倍速
点赞7
00:00 / 00:12
连播
清屏
智能
倍速
点赞0
00:00 / 01:23
连播
清屏
智能
倍速
点赞0
00:00 / 00:12
连播
清屏
智能
倍速
点赞1