00:00 / 01:52
连播
清屏
智能
倍速
点赞29
大模型第一股开年前交出新一代旗舰基座模型GLM-5 智谱AI于2月12日正式发布新一代旗舰基座模型GLM-5,该模型定位为面向复杂系统工程与长程Agent任务的基座模型,参数量提升至744B(激活40B),预训练数据达28.5T token。其前身为开源社区近期热议的匿名测试版本Pony Alpha。 GLM-5在技术架构上集成两大核心创新:采用异步智能体强化学习框架"Slime",支持模型在长程交互中持续学习;结合DeepSeek稀疏注意力机制,在保持长文本处理能力的同时显著降低计算成本。评测数据显示,其在SWE-bench Verified等编程基准中表现超越Gemini 3 Pro,在BrowseComp、MCP-Atlas等Agent能力评测中达到开源SOTA水平。 实测案例显示,GLM-5具备较强的系统工程能力。在克隆Web界面任务中可实现80%完成度,在构建macOS仿真桌面时展现出模块化设计与交互协调能力。开发者基于GLM-5构建的多智能体世界Pookie World能实现社会级涌现行为,另有用户利用其开发出可上架App Store的论文探索工具。 值得注意的是,模型在简单常识题测试中表现改进明显——匿名测试版Pony Alpha曾错误建议"步行50米去洗车",而正式版GLM-5已能正确理解必须开车前往的物理逻辑。这反映出模型在常识推理方面的优化。 GLM-5标志着智谱AI从代码生成工具向系统工程平台的转型。虽然与Claude Opus 4.6等顶尖闭源模型仍存在细节差距,但其开源特性与性价比优势为专业开发者提供了可靠的生产力选择。
00:00 / 12:42
连播
清屏
智能
倍速
点赞7
00:00 / 04:26
连播
清屏
智能
倍速
点赞0
00:00 / 00:57
连播
清屏
智能
倍速
点赞466
00:00 / 01:24
连播
清屏
智能
倍速
点赞4
00:00 / 00:58
连播
清屏
智能
倍速
点赞132
最近大模型圈子里出了个大新闻,可能很多人只看到了“又发新模型了”,但作为财经观察者,我从中嗅到了一股强烈的信息:国产AI算力的“分水岭”真的到了。 就在这几天,智谱正式发布了旗舰大模型GLM5,它最震撼的不是性能又刷了多少榜单,而是它完成了一次史诗级的“换芯”手术。这款在全球权威榜单Artificial Analysis上排名第四、开源领域稳坐第一的顶流模型,现在已经和华为昇腾、摩尔线程、寒武纪等7家中国主流芯片平台完成了深度适配。最关键的是,它的训练全程都是基于华为昇腾芯片完成的。这意味着什么?这意味着国产大模型终于实现了从“大脑”算法到“心脏”算力的全栈自主可控,咱们再也不用因为某家洋品牌的芯片断供而整天提心吊胆了。 以前咱们总觉得,国产芯片虽然能用,但比起国际顶尖水平总差点火候。但这次GLM5用实战成绩告诉全世界,国产芯片不仅能跑模型,还能支撑起全球最顶尖、最复杂的“智能体工程”。这种“去英伟达化”的方案不再是实验室里的口号,而是实打实摆在桌面上、拿来就能用的可行方案。这就像咱们以前只能买进口豪车,现在不仅能造出性能一样的车,连发动机、底盘到每一颗螺丝钉,全都是咱们自己生产的。 这种全栈自主的突破,最先利好的就是咱们国产算力的产业链。这里面有两个“隐形冠军”值得大家重点关注。一个是兴森科技,它搞的那个ABF载板,是芯片封装里不可或缺的底层支架,在华为昇腾的供应链里占比竟然超过了60%。另一个是华丰科技,他们做的高速背板连接器,直接攻克了国产替代的最后一道防线。你会发现,当GLM5这种顶级模型开始大规模应用时,这种生态协同效应会像雪球一样越滚越大,带动整个国产硬件链条的集体升级。 很多朋友可能会问,纯国产的方案好是好,但贵不贵?好不好用?这正是我们要聊的底层商业逻辑。实测数据显示,GLM5在国产算力集群上的推理成本,竟然比在那些昂贵的国际平台上降低了整整40%。在2026年这个AI应用全面爆发的阶段,成本就是企业的命门。对于成千上万想要接入AI的初创企业来说,这40%的开支节省,可能就是生存与毁灭的区别。一个好用、不贵、还绝对安全的国产算力方案,这才是真正的竞争力。 当然,咱们也要客观地看。虽然全栈国产化取得了里程碑式的进展,但未来的挑战依然存在。 #智谱 #glm5 #华为昇腾 #glm5适配国产芯片 #恒生科技
00:00 / 03:19
连播
清屏
智能
倍速
点赞158