00:00 / 02:14
连播
清屏
智能
倍速
点赞9634
00:00 / 01:00
连播
清屏
智能
倍速
点赞2512
00:00 / 01:17
连播
清屏
智能
倍速
点赞324
00:00 / 10:54
连播
清屏
智能
倍速
点赞117
00:00 / 01:27
连播
清屏
智能
倍速
点赞1403
Karminski1周前
从国产SOTA走向世界SOTA? GLM-5.1 实测! 给大家带来 GLM-5.1 编程能力实测! 本次测试涵盖了前端, 后端, Agent 能力, 前端主要面向空间建模, 场景, 材质, 粒子效果等, 后端能力主要面向数据结构与算法, 体系结构, 性能优化, 内存和并发管理, 性能热点分析与调优, 面向编辑器方向的Agent能力(因为AI要自己改代码). 直接说结论, 本次测试前端方面粒子效果和光影鲜果略有提升, 剩下空间理解(甚至感觉下降了)和前端美学上没看到有什么提升, 只能说是提升了一点点. 但是后端性能上有巨大的提升, GLM-5.1 在我的 vector-db-bench 中直接秀了一手量化, 把原本32bit精度的数据量化到了8bit, 然后使用SIMD实现了一个指令周期内计算32个向量, 在我测试的其他模型中(包括Claude-opus-4.6, GPT-5.4-Pro(xhigh)) 都没有实现, 直接来到了榜首. 另外Agent能力上也有不小的提升, 同样是我写的让大模型模拟送外卖的硅基骑手测试, 其他大模型的优化还停留在看一个店能不能取两单上, GLM-5.1 已经优化到了我送餐的顺路还能再接一单, 并且仅用了大概GLM-5 1/4的 token 用量就超越了 GLM-5 的测试总分. 当然本次测试过程也很坎坷, 首先是我周末抢了2天都没抢到 coding plan (目前只有coding plan 能用这个模型), 我最后找智谱的同学给我开了个权限. 以及测试中发现白天API不是很稳定, 偶尔输出速度会掉到10tps, 以及会出现乱码文字(我的规避方法是让它输出英文, 然后再找个便宜模型翻译过来). 总结, 各位前端同学估计会失望, 因为无论是从工程还是页面效果上都看不到提升, 甚至可能会有点倒退, 但果写后端代码或者复杂Agent应用可以试试这个新模型, 会有很大的提升. #GLM51 #智谱 #GLM #AIAgent #大模型编程
00:00 / 08:00
连播
清屏
智能
倍速
点赞281
00:00 / 00:53
连播
清屏
智能
倍速
点赞453
00:00 / 02:23
连播
清屏
智能
倍速
点赞1746
00:00 / 02:36
连播
清屏
智能
倍速
点赞85
00:00 / 06:26
连播
清屏
智能
倍速
点赞16
00:00 / 00:52
连播
清屏
智能
倍速
点赞NaN
Queenie1周前
最近中国大模型在海外火出圈了!像 OpenRouter 这类平台数据显示,2025 到 2026 年,月之暗面、MiniMax、智谱 GLM 这些国产模型,调用量一路猛涨,全球排名都很靠前。 核心原因特别实在 —— 性价比碾压。GPT-4 Turbo 输出百万 token 要 10 美元,咱们国产模型只要 10 到 20 块人民币,价格差了快三到七倍。为啥能这么便宜?关键是西部绿电成本极低,新疆、青海风电光伏电价,比美国数据中心电价便宜一半还多。再加上东数西算把算力往西部转移,电力企业跨界建智算中心,算电协同直接把成本打下来了。 不过有些说法确实夸张了,大家别被带偏。比如所谓狂飙 20 万星的 AI 框架,GitHub 上根本查不到,明显是虚构的。说全面反超美国模型也不客观,调用量大是因为便宜,真比复杂推理、多模态能力,咱们跟 GPT-4、Claude 3 还有差距。而且绿色电力倾销这种说法也不严谨,咱们就是靠低成本绿电,做出高性价比 AI 服务出口。 另外也要清醒,风光发电不稳定,东数西算还有网络延迟问题,高端芯片也受制于人,美国还可能出台限制政策。 想走得更远,就得推进算电协同,完善算力基建,用 AI 优化储能调度,打造零碳算力品牌。对我们普通人来说,开发者可以多测试国产模型降成本,企业在非核心场景替换使用,投资者可以关注算电协同相关企业。 总的来说,中国大模型靠能源优势实现性价比出海是真的,但这只是阶段性胜利,把成本优势变成生态优势,突破芯片和算法瓶颈,才是长久之道。#国产大模型,绿电赋能,性价比出海
00:00 / 02:02
连播
清屏
智能
倍速
点赞4
00:00 / 00:42
连播
清屏
智能
倍速
点赞271
00:00 / 01:29
连播
清屏
智能
倍速
点赞8026