00:00 / 01:58
连播
清屏
智能
倍速
点赞9745
智谱GLM-5封神!20 万字文档拆解国产最强开源大模型🔥 #GLM5 #智谱AI #国产大模型 #AI大模型 #大模型技术 一、GLM-5 核心定位与性能 1. 智谱最新发布 GLM-5,7440 亿参数混合专家 MoE 模型 2. 底层:MoE + Slime 异步强化学习架构 3. 上下文窗口:200K,可输入整本书 / 完整代码仓库 4. 权威榜单:全球第 4,开源模型第 1 5. 编码能力:开源 SOTA,超越 Gemini 3 Pro,逼近 Claude Opus 4.5 6. 支持:多模态、超长文本、复杂工程、AI Agent 开发 二、文档与学习内容 1. 提供20 万字深度文档(Cursor 编写,11 章) 2. 提供10 万字技术文档(OpenCode + Minimax 生成) 3. 内容覆盖:行业格局、模型演进、架构原理、训练、部署、应用、未来趋势 三、GLM-5 技术架构与创新 (一)模型架构 1. Transformer + MoE 混合专家(256 个专家) 2. 借鉴 Deepseek 稀疏机制,自研优化 3. 稀疏注意力、多 Token 预测、旋转位置编码 (二)训练创新 1. Slime 异步强化学习,替代传统 RLHF,训练效率大幅提升 2. 训练数据、流程、分布式部署全面优化 3. 部署成本降低 50%,节省数千万美元训练资源 (三)核心能力 1. 长文本理解与超长上下文 2. 工程级代码生成(从辅助编码→完整项目) 3. 多模态融合(视觉编码器) 4. 动态路由、专家调度、事件总线 (四)源码与工程 1. 架构清晰,可复现、可学习 2. 展示了国产大模型在软件与算法层面的领先性 四、总结与行业意义 1. GLM-5 是国产大模型里程碑,打破外部限制 2. 核心竞争力:架构设计 + 工程化 + 训练效率 3. 未来方向:AGI、工程级自主编程、多模态复杂任务
00:00 / 03:27
连播
清屏
智能
倍速
点赞38
2月12号凌晨,智谱扔下了一颗重磅消息——GLM-5正式上线并且完全开源。但比这个官宣更精彩的,是它背后的故事。 就在几天前,全球开发者社区被一个神秘模型"Pony Alpha"搅得沸沸扬扬。这个在OpenRouter平台上线的匿名模型,没有任何品牌背书,却凭借强悍的编码能力和超长上下文窗口,连续多日霸榜热度第一。直到智谱官方确认,大家才恍然大悟:原来这匹"黑马",就是GLM-5的匿名测试版本。 这种"先上车后补票"的玩法,在AI圈极其罕见。通常大厂发布新模型都是锣鼓喧天、发布会加PPT,但智谱选择让产品自己说话。当一个模型在没有Logo、没有营销的情况下,被全球开发者当作真实生产工具使用,这本身就说明了能力层级的质变。 那么GLM-5到底强在哪?智谱给它定的调很清晰:这不是一个聊天机器人,而是一个"Agentic Engineering"基座模型。什么意思呢?过去两年,大模型的主流叙事是"写代码""写前端",这叫Vibe Coding,氛围编程,追求的是代码片段的流畅生成。但现在行业共识正在转向:模型需要完成完整工程与复杂任务,从写几行代码进化到端到端交付整个系统。 举个例子你就明白了。以前的AI编程像是请了个文笔不错的实习生,能帮你写个漂亮的HTML页面;但GLM-5更像是一个系统架构师,它懂Linux内核,懂500个微服务之间的调用关系,懂如何在不炸掉线上的前提下重构代码,还能自己规划任务、自己修Bug。在SWE-bench-Verified和Terminal Bench 2.0这两个权威编程基准测试中,GLM-5拿下了开源模型的最高分,真实使用体验已经逼近行业天花板Claude Opus 4.5。 更值得关注的是它的"长程记忆"能力。智谱构建了一个叫"Slime"的异步强化学习框架,让模型能在长程交互中持续学习,不再是聊几句就忘。在一个模拟经营测试中,GLM-5被要求经营一年的自动售货机业务,最终账户余额达到4432美元,这个成绩接近Claude Opus 4.5的水平。这意味着什么?意味着AI开始具备长期规划能力和资源管理能力,能在复杂任务中保持目标一致性。 #智谱 #GLM5 #AI编程 #大模型涨价 #AI应用
00:00 / 03:16
连播
清屏
智能
倍速
点赞299
00:00 / 00:35
连播
清屏
智能
倍速
点赞32
00:00 / 10:54
连播
清屏
智能
倍速
点赞49
00:00 / 01:52
连播
清屏
智能
倍速
点赞29
最近大模型圈子里出了个大新闻,可能很多人只看到了“又发新模型了”,但作为财经观察者,我从中嗅到了一股强烈的信息:国产AI算力的“分水岭”真的到了。 就在这几天,智谱正式发布了旗舰大模型GLM5,它最震撼的不是性能又刷了多少榜单,而是它完成了一次史诗级的“换芯”手术。这款在全球权威榜单Artificial Analysis上排名第四、开源领域稳坐第一的顶流模型,现在已经和华为昇腾、摩尔线程、寒武纪等7家中国主流芯片平台完成了深度适配。最关键的是,它的训练全程都是基于华为昇腾芯片完成的。这意味着什么?这意味着国产大模型终于实现了从“大脑”算法到“心脏”算力的全栈自主可控,咱们再也不用因为某家洋品牌的芯片断供而整天提心吊胆了。 以前咱们总觉得,国产芯片虽然能用,但比起国际顶尖水平总差点火候。但这次GLM5用实战成绩告诉全世界,国产芯片不仅能跑模型,还能支撑起全球最顶尖、最复杂的“智能体工程”。这种“去英伟达化”的方案不再是实验室里的口号,而是实打实摆在桌面上、拿来就能用的可行方案。这就像咱们以前只能买进口豪车,现在不仅能造出性能一样的车,连发动机、底盘到每一颗螺丝钉,全都是咱们自己生产的。 这种全栈自主的突破,最先利好的就是咱们国产算力的产业链。这里面有两个“隐形冠军”值得大家重点关注。一个是兴森科技,它搞的那个ABF载板,是芯片封装里不可或缺的底层支架,在华为昇腾的供应链里占比竟然超过了60%。另一个是华丰科技,他们做的高速背板连接器,直接攻克了国产替代的最后一道防线。你会发现,当GLM5这种顶级模型开始大规模应用时,这种生态协同效应会像雪球一样越滚越大,带动整个国产硬件链条的集体升级。 很多朋友可能会问,纯国产的方案好是好,但贵不贵?好不好用?这正是我们要聊的底层商业逻辑。实测数据显示,GLM5在国产算力集群上的推理成本,竟然比在那些昂贵的国际平台上降低了整整40%。在2026年这个AI应用全面爆发的阶段,成本就是企业的命门。对于成千上万想要接入AI的初创企业来说,这40%的开支节省,可能就是生存与毁灭的区别。一个好用、不贵、还绝对安全的国产算力方案,这才是真正的竞争力。 当然,咱们也要客观地看。虽然全栈国产化取得了里程碑式的进展,但未来的挑战依然存在。 #智谱 #glm5 #华为昇腾 #glm5适配国产芯片 #恒生科技
00:00 / 03:19
连播
清屏
智能
倍速
点赞153
00:00 / 06:12
连播
清屏
智能
倍速
点赞38
00:00 / 01:24
连播
清屏
智能
倍速
点赞4