00:00 / 00:10
连播
清屏
智能
倍速
点赞48
00:00 / 01:58
连播
清屏
智能
倍速
点赞9741
Karminski5天前
GLM-5发布啦! 给大家带来实测! 大模型进入月更节奏! GLM-4.7 才发布一个月, 智谱又掏出了 GLM-5, 这迭代速度属实离谱. 照例给大家带来编程、Agent、长上下文能力全面测试! 本次编程能力提升巨大: 新引入的鞭炮炸鱼缸测试, 要求模拟水滴/碎屑/烟雾/气泡四种粒子效果混合在流体中, 折射效果还原度已经和 Claude Opus 4.6 几乎没区别了. 鞭炮连锁爆炸测试指令遵循大幅提升, GLM-4.7 会忽略的参数 GLM-5 都能精准还原, 视觉上玻璃箱效果、色调映射达到了电影级画质. Python 杯子倒水新增了顶点碰撞检测, 甚至给2D粒子加了模拟3D高光! 大象牙膏测试实现了三层碰撞检测, 引入动画阶段机制精准还原 prompt 要求. 陀飞轮机芯也是一眼可见的提升. Agent 能力再次刷新纪录: 硅基骑手测试 (这次订单量加了5倍!) GLM-5 拿到 ¥738.69, 对比 GLM-4.7 的 ¥571.91. 关键发现是, GLM-5 每轮对话都在跟踪剩余轮次 ("254/300, 还有46轮"), 这种元认知是 GLM-4.7 未有过的. 它甚至给自己定了个小目标 "突破700元大关", 达成后庆祝了一下就继续干活. 而 GLM-4.7 在第198轮就开香槟不干了... 长文本召回: 各长度上下文召回均 98% 以上, 但有个问题 - 不给原文时四选一蒙对率达到 51.4%, 模型甚至能脑补出哈利波特小说英文原文, 所以分数置信度存疑. 不过 Agent 测试本身上下文就超过 100K, 召回性能实际上没问题. 总结: GLM-5 编程全面进化, Agent 能力展现出自主规划意识, 视觉美学也显著提升 (这次它特别偏爱科技感的 Orbitron 字体). 这么猛的表现, 很期待接下来的 GLM-5V! 另外官方账号还发了个马的图案, 看来之前的 pony alpha 是 GLM-5 石锤了! (P.S. 本次测试的是内测版本) #GLM5 #智谱 #智谱GLM #AIAgent #GLM
00:00 / 07:03
连播
清屏
智能
倍速
点赞48
智谱GLM-5封神!20 万字文档拆解国产最强开源大模型🔥 #GLM5 #智谱AI #国产大模型 #AI大模型 #大模型技术 一、GLM-5 核心定位与性能 1. 智谱最新发布 GLM-5,7440 亿参数混合专家 MoE 模型 2. 底层:MoE + Slime 异步强化学习架构 3. 上下文窗口:200K,可输入整本书 / 完整代码仓库 4. 权威榜单:全球第 4,开源模型第 1 5. 编码能力:开源 SOTA,超越 Gemini 3 Pro,逼近 Claude Opus 4.5 6. 支持:多模态、超长文本、复杂工程、AI Agent 开发 二、文档与学习内容 1. 提供20 万字深度文档(Cursor 编写,11 章) 2. 提供10 万字技术文档(OpenCode + Minimax 生成) 3. 内容覆盖:行业格局、模型演进、架构原理、训练、部署、应用、未来趋势 三、GLM-5 技术架构与创新 (一)模型架构 1. Transformer + MoE 混合专家(256 个专家) 2. 借鉴 Deepseek 稀疏机制,自研优化 3. 稀疏注意力、多 Token 预测、旋转位置编码 (二)训练创新 1. Slime 异步强化学习,替代传统 RLHF,训练效率大幅提升 2. 训练数据、流程、分布式部署全面优化 3. 部署成本降低 50%,节省数千万美元训练资源 (三)核心能力 1. 长文本理解与超长上下文 2. 工程级代码生成(从辅助编码→完整项目) 3. 多模态融合(视觉编码器) 4. 动态路由、专家调度、事件总线 (四)源码与工程 1. 架构清晰,可复现、可学习 2. 展示了国产大模型在软件与算法层面的领先性 四、总结与行业意义 1. GLM-5 是国产大模型里程碑,打破外部限制 2. 核心竞争力:架构设计 + 工程化 + 训练效率 3. 未来方向:AGI、工程级自主编程、多模态复杂任务
00:00 / 03:27
连播
清屏
智能
倍速
点赞34
00:00 / 00:35
连播
清屏
智能
倍速
点赞30
00:00 / 00:10
连播
清屏
智能
倍速
点赞1
00:00 / 03:10
连播
清屏
智能
倍速
点赞24
00:00 / 01:52
连播
清屏
智能
倍速
点赞29
00:00 / 01:37
连播
清屏
智能
倍速
点赞12