00:00 / 00:35
连播
清屏
智能
倍速
点赞31
00:00 / 01:08
连播
清屏
智能
倍速
点赞6
智谱GLM-5封神!20 万字文档拆解国产最强开源大模型🔥 #GLM5 #智谱AI #国产大模型 #AI大模型 #大模型技术 一、GLM-5 核心定位与性能 1. 智谱最新发布 GLM-5,7440 亿参数混合专家 MoE 模型 2. 底层:MoE + Slime 异步强化学习架构 3. 上下文窗口:200K,可输入整本书 / 完整代码仓库 4. 权威榜单:全球第 4,开源模型第 1 5. 编码能力:开源 SOTA,超越 Gemini 3 Pro,逼近 Claude Opus 4.5 6. 支持:多模态、超长文本、复杂工程、AI Agent 开发 二、文档与学习内容 1. 提供20 万字深度文档(Cursor 编写,11 章) 2. 提供10 万字技术文档(OpenCode + Minimax 生成) 3. 内容覆盖:行业格局、模型演进、架构原理、训练、部署、应用、未来趋势 三、GLM-5 技术架构与创新 (一)模型架构 1. Transformer + MoE 混合专家(256 个专家) 2. 借鉴 Deepseek 稀疏机制,自研优化 3. 稀疏注意力、多 Token 预测、旋转位置编码 (二)训练创新 1. Slime 异步强化学习,替代传统 RLHF,训练效率大幅提升 2. 训练数据、流程、分布式部署全面优化 3. 部署成本降低 50%,节省数千万美元训练资源 (三)核心能力 1. 长文本理解与超长上下文 2. 工程级代码生成(从辅助编码→完整项目) 3. 多模态融合(视觉编码器) 4. 动态路由、专家调度、事件总线 (四)源码与工程 1. 架构清晰,可复现、可学习 2. 展示了国产大模型在软件与算法层面的领先性 四、总结与行业意义 1. GLM-5 是国产大模型里程碑,打破外部限制 2. 核心竞争力:架构设计 + 工程化 + 训练效率 3. 未来方向:AGI、工程级自主编程、多模态复杂任务
00:00 / 03:27
连播
清屏
智能
倍速
点赞34
00:00 / 00:17
连播
清屏
智能
倍速
点赞12
00:00 / 00:51
连播
清屏
智能
倍速
点赞3676
00:00 / 00:57
连播
清屏
智能
倍速
点赞12
00:00 / 02:59
连播
清屏
智能
倍速
点赞6
大模型第一股开年前交出新一代旗舰基座模型GLM-5 智谱AI于2月12日正式发布新一代旗舰基座模型GLM-5,该模型定位为面向复杂系统工程与长程Agent任务的基座模型,参数量提升至744B(激活40B),预训练数据达28.5T token。其前身为开源社区近期热议的匿名测试版本Pony Alpha。 GLM-5在技术架构上集成两大核心创新:采用异步智能体强化学习框架"Slime",支持模型在长程交互中持续学习;结合DeepSeek稀疏注意力机制,在保持长文本处理能力的同时显著降低计算成本。评测数据显示,其在SWE-bench Verified等编程基准中表现超越Gemini 3 Pro,在BrowseComp、MCP-Atlas等Agent能力评测中达到开源SOTA水平。 实测案例显示,GLM-5具备较强的系统工程能力。在克隆Web界面任务中可实现80%完成度,在构建macOS仿真桌面时展现出模块化设计与交互协调能力。开发者基于GLM-5构建的多智能体世界Pookie World能实现社会级涌现行为,另有用户利用其开发出可上架App Store的论文探索工具。 值得注意的是,模型在简单常识题测试中表现改进明显——匿名测试版Pony Alpha曾错误建议"步行50米去洗车",而正式版GLM-5已能正确理解必须开车前往的物理逻辑。这反映出模型在常识推理方面的优化。 GLM-5标志着智谱AI从代码生成工具向系统工程平台的转型。虽然与Claude Opus 4.6等顶尖闭源模型仍存在细节差距,但其开源特性与性价比优势为专业开发者提供了可靠的生产力选择。
00:00 / 12:42
连播
清屏
智能
倍速
点赞7
00:00 / 01:08
连播
清屏
智能
倍速
点赞215
00:00 / 00:47
连播
清屏
智能
倍速
点赞11
00:00 / 01:29
连播
清屏
智能
倍速
点赞2