00:00 / 00:47
连播
清屏
智能
倍速
点赞11
00:00 / 00:57
连播
清屏
智能
倍速
点赞13
00:00 / 00:51
连播
清屏
智能
倍速
点赞3681
00:00 / 01:08
连播
清屏
智能
倍速
点赞6
2月12号凌晨,智谱扔下了一颗重磅消息——GLM-5正式上线并且完全开源。但比这个官宣更精彩的,是它背后的故事。 就在几天前,全球开发者社区被一个神秘模型"Pony Alpha"搅得沸沸扬扬。这个在OpenRouter平台上线的匿名模型,没有任何品牌背书,却凭借强悍的编码能力和超长上下文窗口,连续多日霸榜热度第一。直到智谱官方确认,大家才恍然大悟:原来这匹"黑马",就是GLM-5的匿名测试版本。 这种"先上车后补票"的玩法,在AI圈极其罕见。通常大厂发布新模型都是锣鼓喧天、发布会加PPT,但智谱选择让产品自己说话。当一个模型在没有Logo、没有营销的情况下,被全球开发者当作真实生产工具使用,这本身就说明了能力层级的质变。 那么GLM-5到底强在哪?智谱给它定的调很清晰:这不是一个聊天机器人,而是一个"Agentic Engineering"基座模型。什么意思呢?过去两年,大模型的主流叙事是"写代码""写前端",这叫Vibe Coding,氛围编程,追求的是代码片段的流畅生成。但现在行业共识正在转向:模型需要完成完整工程与复杂任务,从写几行代码进化到端到端交付整个系统。 举个例子你就明白了。以前的AI编程像是请了个文笔不错的实习生,能帮你写个漂亮的HTML页面;但GLM-5更像是一个系统架构师,它懂Linux内核,懂500个微服务之间的调用关系,懂如何在不炸掉线上的前提下重构代码,还能自己规划任务、自己修Bug。在SWE-bench-Verified和Terminal Bench 2.0这两个权威编程基准测试中,GLM-5拿下了开源模型的最高分,真实使用体验已经逼近行业天花板Claude Opus 4.5。 更值得关注的是它的"长程记忆"能力。智谱构建了一个叫"Slime"的异步强化学习框架,让模型能在长程交互中持续学习,不再是聊几句就忘。在一个模拟经营测试中,GLM-5被要求经营一年的自动售货机业务,最终账户余额达到4432美元,这个成绩接近Claude Opus 4.5的水平。这意味着什么?意味着AI开始具备长期规划能力和资源管理能力,能在复杂任务中保持目标一致性。 #智谱 #GLM5 #AI编程 #大模型涨价 #AI应用
00:00 / 03:16
连播
清屏
智能
倍速
点赞300
00:00 / 01:18
连播
清屏
智能
倍速
点赞64
00:00 / 00:34
连播
清屏
智能
倍速
点赞2150
大模型第一股开年前交出新一代旗舰基座模型GLM-5 智谱AI于2月12日正式发布新一代旗舰基座模型GLM-5,该模型定位为面向复杂系统工程与长程Agent任务的基座模型,参数量提升至744B(激活40B),预训练数据达28.5T token。其前身为开源社区近期热议的匿名测试版本Pony Alpha。 GLM-5在技术架构上集成两大核心创新:采用异步智能体强化学习框架"Slime",支持模型在长程交互中持续学习;结合DeepSeek稀疏注意力机制,在保持长文本处理能力的同时显著降低计算成本。评测数据显示,其在SWE-bench Verified等编程基准中表现超越Gemini 3 Pro,在BrowseComp、MCP-Atlas等Agent能力评测中达到开源SOTA水平。 实测案例显示,GLM-5具备较强的系统工程能力。在克隆Web界面任务中可实现80%完成度,在构建macOS仿真桌面时展现出模块化设计与交互协调能力。开发者基于GLM-5构建的多智能体世界Pookie World能实现社会级涌现行为,另有用户利用其开发出可上架App Store的论文探索工具。 值得注意的是,模型在简单常识题测试中表现改进明显——匿名测试版Pony Alpha曾错误建议"步行50米去洗车",而正式版GLM-5已能正确理解必须开车前往的物理逻辑。这反映出模型在常识推理方面的优化。 GLM-5标志着智谱AI从代码生成工具向系统工程平台的转型。虽然与Claude Opus 4.6等顶尖闭源模型仍存在细节差距,但其开源特性与性价比优势为专业开发者提供了可靠的生产力选择。
00:00 / 12:42
连播
清屏
智能
倍速
点赞7
“全球大模型第一股”,公开技术细节 2月22日,智谱发布技术报告,全面解读GLM-5的技术细节。 从技术导向而言,此前AI编程范式属于“Vibe Coding”(氛围编程),即程序员手动提示AI生成代码,较为依赖人力,效率有瓶颈。 GLM-5瞄准的是Agentic Engineering(智能体工程),要求AI不再只是辅助工具,而是一个可以自主规划、执行、迭代的“虚拟工程师”。 为了实现这一目标,GLM-5在技术上实现了四大突破: 第一,更高效的模型“大脑”。GLM-5引入DSA稀疏注意力机制(DeepSeek Sparse Attention,DSA),可以理解为,模型在处理长文本时,不再对每个词都投入同等注意力,而是智能地聚焦在关键信息上。这大幅降低了计算成本,使得模型能用更少的资源处理更长的上下文。 得益于此,智谱将模型参数规模扩展至744B(7440亿),同时将训练token规模提升至28.5T(28.5万亿)。 第二,更快的“学习”方式。GLM-5构建并完善了一套名为“slime”的异步强化学习基础设施,这是其训练效率取得突破的核心。传统的强化学习训练效率相对较低,slime将“生成任务轨迹”和“模型参数更新”解耦,即将这两个过程分开后同时进行。这就像一边让AI在实践中不断尝试,一边后台同步总结经验教训,极大提升了训练效率。 第三,更聪明的“决策”算法。GLM-5提出了全新的异步Agent RL算法。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这使得模型能够从海量的、多步骤的交互中持续学习,优化其在动态环境中的规划、执行和自我纠错能力。 第四,全面拥抱国产算力生态。从模型发布伊始,GLM-5就全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、沐曦与燧原,完成从底层内核到上层推理框架的深度优化。 GLM-5发布后,获得了开发者社区的用脚投票。发布之初,智谱以代号“Pony Alpha”在顶级模型平台OpenRouter上进行了匿名盲测,在社区引发了轰动。初步统计显示,25%的用户推测它是Anthropic的Claude Sonnet5,20%认为是Grok的新版本!
00:00 / 06:19
连播
清屏
智能
倍速
点赞4
00:00 / 00:36
连播
清屏
智能
倍速
点赞2
00:00 / 00:50
连播
清屏
智能
倍速
点赞0
00:00 / 01:29
连播
清屏
智能
倍速
点赞2
00:00 / 01:52
连播
清屏
智能
倍速
点赞29
最近大模型圈子里出了个大新闻,可能很多人只看到了“又发新模型了”,但作为财经观察者,我从中嗅到了一股强烈的信息:国产AI算力的“分水岭”真的到了。 就在这几天,智谱正式发布了旗舰大模型GLM5,它最震撼的不是性能又刷了多少榜单,而是它完成了一次史诗级的“换芯”手术。这款在全球权威榜单Artificial Analysis上排名第四、开源领域稳坐第一的顶流模型,现在已经和华为昇腾、摩尔线程、寒武纪等7家中国主流芯片平台完成了深度适配。最关键的是,它的训练全程都是基于华为昇腾芯片完成的。这意味着什么?这意味着国产大模型终于实现了从“大脑”算法到“心脏”算力的全栈自主可控,咱们再也不用因为某家洋品牌的芯片断供而整天提心吊胆了。 以前咱们总觉得,国产芯片虽然能用,但比起国际顶尖水平总差点火候。但这次GLM5用实战成绩告诉全世界,国产芯片不仅能跑模型,还能支撑起全球最顶尖、最复杂的“智能体工程”。这种“去英伟达化”的方案不再是实验室里的口号,而是实打实摆在桌面上、拿来就能用的可行方案。这就像咱们以前只能买进口豪车,现在不仅能造出性能一样的车,连发动机、底盘到每一颗螺丝钉,全都是咱们自己生产的。 这种全栈自主的突破,最先利好的就是咱们国产算力的产业链。这里面有两个“隐形冠军”值得大家重点关注。一个是兴森科技,它搞的那个ABF载板,是芯片封装里不可或缺的底层支架,在华为昇腾的供应链里占比竟然超过了60%。另一个是华丰科技,他们做的高速背板连接器,直接攻克了国产替代的最后一道防线。你会发现,当GLM5这种顶级模型开始大规模应用时,这种生态协同效应会像雪球一样越滚越大,带动整个国产硬件链条的集体升级。 很多朋友可能会问,纯国产的方案好是好,但贵不贵?好不好用?这正是我们要聊的底层商业逻辑。实测数据显示,GLM5在国产算力集群上的推理成本,竟然比在那些昂贵的国际平台上降低了整整40%。在2026年这个AI应用全面爆发的阶段,成本就是企业的命门。对于成千上万想要接入AI的初创企业来说,这40%的开支节省,可能就是生存与毁灭的区别。一个好用、不贵、还绝对安全的国产算力方案,这才是真正的竞争力。 当然,咱们也要客观地看。虽然全栈国产化取得了里程碑式的进展,但未来的挑战依然存在。 #智谱 #glm5 #华为昇腾 #glm5适配国产芯片 #恒生科技
00:00 / 03:19
连播
清屏
智能
倍速
点赞155
00:00 / 00:31
连播
清屏
智能
倍速
点赞11