00:00 / 06:07
连播
清屏
智能
倍速
点赞6
00:00 / 02:16
连播
清屏
智能
倍速
点赞79
智谱首个面向视觉编程的多模态模型实测! 智谱出了个新模型 GLM-5V-Turbo,首个面向视觉编程的多模态 Coding 基座模型。我平时喜欢用 Claude Code 写前端、用龙虾跑自动化,这个定位正好对口,直接接进去跑了三个场景。 场景一:Claude Code + 截图写 H5 用 Excalidraw 画了个很粗糙的健身 APP 原型图,手绘线框那种。以前用纯文本模型得把这图翻译成几百字需求描述,现在直接截图丢给 Claude Code,一句话提示词,H5 页面就出来了。不光做了原型上有的,还自己补全了交互和设计细节。 场景二:龙虾 + PPT Skill 自己看自己改 龙虾里有个 vibe-slides Skill,能把口播脚本自动生成交互式 PPT 网页。以前接的是纯文本模型,生成了网页但它自己不知道长什么样,配色好不好看排版有没有问题全靠运气。换了 GLM-5V-Turbo 之后,龙虾自己截图看自己的产出,"配色太暗了""标题字号太小"——自己发现问题自己改,改完确认没问题再自动部署到 Vercel。从需求到上线不用你打开浏览器。 场景三:视频多模态分析 以前视频分析是视频提取音频、音频转文字、再丢给大模型,三步流水线每步都可能出错,而且画面里的 PPT 字幕场景切换全丢了。现在有了多模态视觉能力,视频直接丢进去,音画同时理解。以前让 AI 听,现在让 AI 看,省掉的不只是步骤,是信息的损失。 如果你也在用 CC 或龙虾,可以试试切到这个模型感受一下差距。 #GLM5VTurbo #GLM5V #智谱GLM5V #智谱多模态 #ai新星计划
00:00 / 05:13
连播
清屏
智能
倍速
点赞296
00:00 / 07:54
连播
清屏
智能
倍速
点赞2
Karminski1周前
从国产SOTA走向世界SOTA? GLM-5.1 实测! 给大家带来 GLM-5.1 编程能力实测! 本次测试涵盖了前端, 后端, Agent 能力, 前端主要面向空间建模, 场景, 材质, 粒子效果等, 后端能力主要面向数据结构与算法, 体系结构, 性能优化, 内存和并发管理, 性能热点分析与调优, 面向编辑器方向的Agent能力(因为AI要自己改代码). 直接说结论, 本次测试前端方面粒子效果和光影鲜果略有提升, 剩下空间理解(甚至感觉下降了)和前端美学上没看到有什么提升, 只能说是提升了一点点. 但是后端性能上有巨大的提升, GLM-5.1 在我的 vector-db-bench 中直接秀了一手量化, 把原本32bit精度的数据量化到了8bit, 然后使用SIMD实现了一个指令周期内计算32个向量, 在我测试的其他模型中(包括Claude-opus-4.6, GPT-5.4-Pro(xhigh)) 都没有实现, 直接来到了榜首. 另外Agent能力上也有不小的提升, 同样是我写的让大模型模拟送外卖的硅基骑手测试, 其他大模型的优化还停留在看一个店能不能取两单上, GLM-5.1 已经优化到了我送餐的顺路还能再接一单, 并且仅用了大概GLM-5 1/4的 token 用量就超越了 GLM-5 的测试总分. 当然本次测试过程也很坎坷, 首先是我周末抢了2天都没抢到 coding plan (目前只有coding plan 能用这个模型), 我最后找智谱的同学给我开了个权限. 以及测试中发现白天API不是很稳定, 偶尔输出速度会掉到10tps, 以及会出现乱码文字(我的规避方法是让它输出英文, 然后再找个便宜模型翻译过来). 总结, 各位前端同学估计会失望, 因为无论是从工程还是页面效果上都看不到提升, 甚至可能会有点倒退, 但果写后端代码或者复杂Agent应用可以试试这个新模型, 会有很大的提升. #GLM51 #智谱 #GLM #AIAgent #大模型编程
00:00 / 08:00
连播
清屏
智能
倍速
点赞297
00:00 / 02:14
连播
清屏
智能
倍速
点赞9640
00:00 / 00:50
连播
清屏
智能
倍速
点赞2051
00:00 / 02:18
连播
清屏
智能
倍速
点赞8
00:00 / 11:39
连播
清屏
智能
倍速
点赞2
00:00 / 10:54
连播
清屏
智能
倍速
点赞118
00:00 / 02:36
连播
清屏
智能
倍速
点赞22