00:00 / 03:19
连播
清屏
智能
倍速
点赞2
Karminski2周前
GLM-5发布啦! 给大家带来实测! 大模型进入月更节奏! GLM-4.7 才发布一个月, 智谱又掏出了 GLM-5, 这迭代速度属实离谱. 照例给大家带来编程、Agent、长上下文能力全面测试! 本次编程能力提升巨大: 新引入的鞭炮炸鱼缸测试, 要求模拟水滴/碎屑/烟雾/气泡四种粒子效果混合在流体中, 折射效果还原度已经和 Claude Opus 4.6 几乎没区别了. 鞭炮连锁爆炸测试指令遵循大幅提升, GLM-4.7 会忽略的参数 GLM-5 都能精准还原, 视觉上玻璃箱效果、色调映射达到了电影级画质. Python 杯子倒水新增了顶点碰撞检测, 甚至给2D粒子加了模拟3D高光! 大象牙膏测试实现了三层碰撞检测, 引入动画阶段机制精准还原 prompt 要求. 陀飞轮机芯也是一眼可见的提升. Agent 能力再次刷新纪录: 硅基骑手测试 (这次订单量加了5倍!) GLM-5 拿到 ¥738.69, 对比 GLM-4.7 的 ¥571.91. 关键发现是, GLM-5 每轮对话都在跟踪剩余轮次 ("254/300, 还有46轮"), 这种元认知是 GLM-4.7 未有过的. 它甚至给自己定了个小目标 "突破700元大关", 达成后庆祝了一下就继续干活. 而 GLM-4.7 在第198轮就开香槟不干了... 长文本召回: 各长度上下文召回均 98% 以上, 但有个问题 - 不给原文时四选一蒙对率达到 51.4%, 模型甚至能脑补出哈利波特小说英文原文, 所以分数置信度存疑. 不过 Agent 测试本身上下文就超过 100K, 召回性能实际上没问题. 总结: GLM-5 编程全面进化, Agent 能力展现出自主规划意识, 视觉美学也显著提升 (这次它特别偏爱科技感的 Orbitron 字体). 这么猛的表现, 很期待接下来的 GLM-5V! 另外官方账号还发了个马的图案, 看来之前的 pony alpha 是 GLM-5 石锤了! (P.S. 本次测试的是内测版本) #GLM5 #智谱 #智谱GLM #AIAgent #GLM
00:00 / 07:03
连播
清屏
智能
倍速
点赞50
00:00 / 07:29
连播
清屏
智能
倍速
点赞283
🚀开源编程新王诞生,实测GLM-4.7 🚀开源编程新王诞生,对标Claude Sonnet 4.5?实测GLM-4.7:Coding和Agentic能力直逼Gemini 3和Claude 4.5 🚀🚀🚀视频简介: ⚡️ 本期视频详细演示了智谱AI最新发布的GLM-4.7开源大模型的全方位编程能力测试! 📊 模型亮点:358B参数MoE架构,MIT开源协议支持商业使用,在数学竞赛、代码能力、科学推理等多项基准测试中超越GPT-5.1和Claude Sonnet 4.5! 🎮 实测内容: SVG太阳系动画生成(一句话搞定) 冒泡排序算法可视化动画 3D风格侏罗纪恐龙狩猎游戏 圆面积公式推导交互动画 根据网页自动生成PPT Claude Code接入配置教程 Chrome DevTools MCP浏览器自动化 iOS原生背单词APP完整开发 💡 无论是前端开发、游戏制作还是iOS原生应用,GLM-4.7都展现出强大的编程实力! 🔥🔥🔥时间戳: 00:00 开场介绍 - GLM-4.7模型发布,358B参数MIT开源 00:53 基准测试 - 数学、代码、推理能力全面对比GPT-5.1和Claude Sonnet 4.5 01:59 测试计划 - 前端编程、工具调用、复杂推理三大维度 02:30 SVG动画测试 - 一句话生成太阳系八大行星公转动画 03:27 算法可视化 - 冒泡排序动画:指挥舰排列小行星 05:01 游戏开发测试 - 从零开发侏罗纪恐龙狩猎射击游戏 07:12 数学推导动画 - 圆面积公式推导可视化演示 08:52 PPT生成测试 - 根据网页链接自动生成完整PPT 09:53 Claude Code配置 - 三条命令接入GLM-4.7 API 11:09 浏览器自动化 - Chrome DevTools MCP实战博客改写 12:00 终极挑战 - iOS原生背单词APP完整开发 14:54 总结评价 - GLM-4.7编程能力综合评估 #ai #GLM47 #ai编程 #aigc #大模型
00:00 / 15:05
连播
清屏
智能
倍速
点赞141
00:00 / 00:11
连播
清屏
智能
倍速
点赞3
00:00 / 01:29
连播
清屏
智能
倍速
点赞6
00:00 / 05:15
连播
清屏
智能
倍速
点赞11
00:00 / 04:23
连播
清屏
智能
倍速
点赞77
详解 & 实测 GLM-4.7 ,14个Skills 这期视频,我在最新的 GLM-4.7 上做了一轮「从评测到实战」的体验: - 先对比 GLM-4.7 和 4.6 在人类测试、SWE-bench Verified、数学竞赛等基准上的提升,在数学上超过 Gemini 3 Pro。 - 展开讲「交织思考」和训练细节:数据、多阶段训练、LoRA-like 方法,以及智谱开源的 Slime 框架、后训练阶段算力投入。 - 结合 AMA 内容,聊智谱在 RL 工具链、编程 Agents、上千并发 Docker 环境等基础设施上的布局。 - 重点体验 4.7 在 UI / 前端审美 上的升级:包括前端设计 skill、体素艺术 Demo、新年场景、兵马俑觉醒、亚特兰蒂斯塔楼、咖啡车等案例。 - 对比 GLM-4.7 与 Claude Opus 4.5 在 Remotion 视频任务上的实际表现:角色一致性、重新打光、纹理迁移等细节制作谁更强。 - 最后在展示提示词设计和效果。 如果你关心: - GLM-4.7 真实体验到底如何? - 它的前端审美和 UI 生成,能不能当生产力? - 智谱 的 skill 体系(大模型、视觉、语音、搜索、文档、前端设计等)怎么影响个人 AI 开发工作流? - 和 Claude Opus 4.5、Gemini 等主流模型相比,它的优劣势在哪里? 这期视频应该能给你一个比较完整的一手视角。 时间戳 00:00 升级亮点概览 01:21 训练细节与 AMA 精华 03:05 Skills 全家桶 04:28 前端 UI Demo 与体素艺术展示 07:01 Remotion 视频任务对比 #GLM47 #GLM #智谱
00:00 / 10:26
连播
清屏
智能
倍速
点赞42
00:00 / 01:34
连播
清屏
智能
倍速
点赞49
只动嘴皮子,完全由AI花两天开发的小游戏 除了这个天空图片用即梦生成和适龄提示图百度下载外,没有自己动手写一行代码,完全靠 claude code+opus4.5/glm4.7 花两天完成了这个小游戏。 所有 UI、sprite、动画效果都是用代码动态生成的,声音文件也是AI自己写脚本生成的。 上个月就尝试用AI写这个小游戏,但是写了一半发现AI只写了代码,美术素材需要我提供,还需要我在编辑器里各种拖拉拽,实在懒得操作。 最近突然想到所有在编辑器里的拖拉拽完全可以让AI用代码动态创建Node、添加Component和绑定参数。 把要求告诉AI后,两三个小时就写完了主体,但是后来反复改bug和优化方案就花了近两天才完成。 但要说是不是没有编程经验的小白也能搞了呢?那还不至于,改bug和优化阶段才是真正的考验。 在AI陷入原地打转时,需要用自己的经验和较为专业的术语,给AI提出正确的建议和指明方案优化方向。 也就是说你得分析出AI是不是钻了某种牛角尖,又如何通过变更需求、技术妥协、实现方案调整来提示让它跳出牛角尖。 所以我反而觉得这对经验丰富的大龄程序员是个利好,因为AI抹平了和年轻人之间的体力差距。 至于以后更强的AI会不会彻底代替程序员?大龄程序员更不用担心了,因为那一天你未必能看到哦 :p #AI编程
00:00 / 00:41
连播
清屏
智能
倍速
点赞3
智谱今日正式公开GLM-5的技术细节。官方介绍,GLM-5在Artificial Analysis Intelligence Index v4.0中得到50分,成为新的开源SOTA模型,较GLM-4.7提升8分,这一提升源于Agent性能及知识/幻觉方面的全面改进。 平均而言,GLM-5相比4.7提升约 20%,与Claude Opus 4.5和GPT-5.2(xhigh相当,并优于Gemini 3 Pro。 GLM-5 能够实现性能的大幅跃升,主要得益于四大技术创新: 第一,引入DSA稀疏注意力机制(DeepSeek Sparse Attention, DSA),极大降低了训练与推理成本。此前的GLM-4.5依赖标准MoE架构提升效率,而DSA机制则使GLM-5能够根据Token的重要性动态分配注意力资源。在不折损长上下文理解和推理深度的前提下,算力开销得以大幅削减。得益于此,智谱将模型参数规模扩展至 744B,同时将训练Token规模提升至28.5T。 第二,构建全新的异步RL基础设施。基于GLM-4.5时期 slime 框架“训练与推理解耦”的设计,智谱的新基建进一步实现了“生成与训练”的深度解耦,将GPU利用率推向极致。系统支持模型开展大规模的智能体(Agent)轨迹探索,大幅减缓了以往拖慢迭代速度的同步瓶颈,让RL后训练流程的效率实现了质的飞跃。 第三,提出全新的异步Agent RL算法。该算法旨在全面提升模型的自主决策质量。GLM-4.5曾依靠迭代自蒸馏和结果监督来训练Agent;而在GLM-5中,研发的异步算法使模型能够从多样化的长周期交互中持续学习。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这也正是GLM-5能够在真实编程场景中表现卓越的底层逻辑。 第四,全面拥抱国产算力生态。从模型发布伊始,GLM-5就原生适配了中国GPU生态。智谱已完成从底层内核到上层推理框架的深度优化,全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯与燧原。#智谱ai
00:00 / 00:19
连播
清屏
智能
倍速
点赞3