00:00 / 10:54
连播
清屏
智能
倍速
点赞34
智谱GLM-5封神!20 万字文档拆解国产最强开源大模型🔥 #GLM5 #智谱AI #国产大模型 #AI大模型 #大模型技术 一、GLM-5 核心定位与性能 1. 智谱最新发布 GLM-5,7440 亿参数混合专家 MoE 模型 2. 底层:MoE + Slime 异步强化学习架构 3. 上下文窗口:200K,可输入整本书 / 完整代码仓库 4. 权威榜单:全球第 4,开源模型第 1 5. 编码能力:开源 SOTA,超越 Gemini 3 Pro,逼近 Claude Opus 4.5 6. 支持:多模态、超长文本、复杂工程、AI Agent 开发 二、文档与学习内容 1. 提供20 万字深度文档(Cursor 编写,11 章) 2. 提供10 万字技术文档(OpenCode + Minimax 生成) 3. 内容覆盖:行业格局、模型演进、架构原理、训练、部署、应用、未来趋势 三、GLM-5 技术架构与创新 (一)模型架构 1. Transformer + MoE 混合专家(256 个专家) 2. 借鉴 Deepseek 稀疏机制,自研优化 3. 稀疏注意力、多 Token 预测、旋转位置编码 (二)训练创新 1. Slime 异步强化学习,替代传统 RLHF,训练效率大幅提升 2. 训练数据、流程、分布式部署全面优化 3. 部署成本降低 50%,节省数千万美元训练资源 (三)核心能力 1. 长文本理解与超长上下文 2. 工程级代码生成(从辅助编码→完整项目) 3. 多模态融合(视觉编码器) 4. 动态路由、专家调度、事件总线 (四)源码与工程 1. 架构清晰,可复现、可学习 2. 展示了国产大模型在软件与算法层面的领先性 四、总结与行业意义 1. GLM-5 是国产大模型里程碑,打破外部限制 2. 核心竞争力:架构设计 + 工程化 + 训练效率 3. 未来方向:AGI、工程级自主编程、多模态复杂任务
00:00 / 03:27
连播
清屏
智能
倍速
点赞34
00:00 / 01:58
连播
清屏
智能
倍速
点赞9741
00:00 / 01:39
连播
清屏
智能
倍速
点赞8806
00:00 / 13:33
连播
清屏
智能
倍速
点赞465
00:00 / 00:19
连播
清屏
智能
倍速
点赞523
00:00 / 01:29
连播
清屏
智能
倍速
点赞6
00:00 / 01:34
连播
清屏
智能
倍速
点赞48
00:00 / 01:24
连播
清屏
智能
倍速
点赞4