00:00 / 00:31
连播
清屏
智能
倍速
点赞11
00:00 / 03:18
连播
清屏
智能
倍速
点赞133
00:00 / 02:38
连播
清屏
智能
倍速
点赞42
00:00 / 04:04
连播
清屏
智能
倍速
点赞65
00:00 / 00:24
连播
清屏
智能
倍速
点赞1
00:00 / 02:17
连播
清屏
智能
倍速
点赞44
00:00 / 08:44
连播
清屏
智能
倍速
点赞17
00:00 / 03:10
连播
清屏
智能
倍速
点赞7
Tony沈哲1月前
2025年12月27日AI晚报 智谱AI宣布面向 GLM Coding Plan 订阅用户推出了名为“阿姨助我”的福利活动,活动从目前开始将持续至2026年1月初。所有正在生效中的订阅会员,不限等级与订阅时间,只需在 Claude Code、Cline、OpenCode、Roo Code 或 Kilo Code 等指定编程工具中接入该计划并配置 MCP,随后输入口令“阿姨助我”,即可获得一张沪上阿姨新品奶茶兑换券。 MiniMax 近期正式开源了 M2.1 编程模型,该模型已在 Hugging Face、ModelScope 和 GitHub 同步上架。此外,MiniMax 针对开发者开启了 Coding Plan 系列优惠活动。其中,“9.9 元月度 Starter 套餐返场活动”已于2025年12月26日启动,并将持续2026年1月15日。 Yann LeCun 推出了基于联合嵌入预测架构的视觉语言模型 VL-JEPA,这是首个可实时处理通用视觉语言任务的非生成式模型。VL-JEPA 通过在潜空间预测抽象含义而非直接预测单词,仅以 1.6B 参数就在性能上媲美 72B 的 Qwen-VL,并在视频分类与检索任务中超越了 CLIP 和 SigLIP2。 Qwen Code 发布了重要更新 v0.5.0 版本,这次更新不仅包含了功能增强,更是 Qwen Code 从命令行工具 向开发生态迈进的关键一步。根据介绍,用户可在终端窗口中同时运行四个 Qwen Code 实例,分别处理不同任务,而不必等待一个对话结束后再开始另一个对话窗口。譬如,其能够同时完成智能问答、实时翻译、原型设计、创意绘图四个任务,号称让 AI 编程 “跳出命令行”。 #智谱ai #MiniMax #LeCun #Qwen
00:00 / 01:57
连播
清屏
智能
倍速
点赞9
2月12号凌晨,智谱扔下了一颗重磅消息——GLM-5正式上线并且完全开源。但比这个官宣更精彩的,是它背后的故事。 就在几天前,全球开发者社区被一个神秘模型"Pony Alpha"搅得沸沸扬扬。这个在OpenRouter平台上线的匿名模型,没有任何品牌背书,却凭借强悍的编码能力和超长上下文窗口,连续多日霸榜热度第一。直到智谱官方确认,大家才恍然大悟:原来这匹"黑马",就是GLM-5的匿名测试版本。 这种"先上车后补票"的玩法,在AI圈极其罕见。通常大厂发布新模型都是锣鼓喧天、发布会加PPT,但智谱选择让产品自己说话。当一个模型在没有Logo、没有营销的情况下,被全球开发者当作真实生产工具使用,这本身就说明了能力层级的质变。 那么GLM-5到底强在哪?智谱给它定的调很清晰:这不是一个聊天机器人,而是一个"Agentic Engineering"基座模型。什么意思呢?过去两年,大模型的主流叙事是"写代码""写前端",这叫Vibe Coding,氛围编程,追求的是代码片段的流畅生成。但现在行业共识正在转向:模型需要完成完整工程与复杂任务,从写几行代码进化到端到端交付整个系统。 举个例子你就明白了。以前的AI编程像是请了个文笔不错的实习生,能帮你写个漂亮的HTML页面;但GLM-5更像是一个系统架构师,它懂Linux内核,懂500个微服务之间的调用关系,懂如何在不炸掉线上的前提下重构代码,还能自己规划任务、自己修Bug。在SWE-bench-Verified和Terminal Bench 2.0这两个权威编程基准测试中,GLM-5拿下了开源模型的最高分,真实使用体验已经逼近行业天花板Claude Opus 4.5。 更值得关注的是它的"长程记忆"能力。智谱构建了一个叫"Slime"的异步强化学习框架,让模型能在长程交互中持续学习,不再是聊几句就忘。在一个模拟经营测试中,GLM-5被要求经营一年的自动售货机业务,最终账户余额达到4432美元,这个成绩接近Claude Opus 4.5的水平。这意味着什么?意味着AI开始具备长期规划能力和资源管理能力,能在复杂任务中保持目标一致性。 #智谱 #GLM5 #AI编程 #大模型涨价 #AI应用
00:00 / 03:16
连播
清屏
智能
倍速
点赞298
00:00 / 01:26
连播
清屏
智能
倍速
点赞34
00:00 / 02:41
连播
清屏
智能
倍速
点赞16
最近大模型圈子里出了个大新闻,可能很多人只看到了“又发新模型了”,但作为财经观察者,我从中嗅到了一股强烈的信息:国产AI算力的“分水岭”真的到了。 就在这几天,智谱正式发布了旗舰大模型GLM5,它最震撼的不是性能又刷了多少榜单,而是它完成了一次史诗级的“换芯”手术。这款在全球权威榜单Artificial Analysis上排名第四、开源领域稳坐第一的顶流模型,现在已经和华为昇腾、摩尔线程、寒武纪等7家中国主流芯片平台完成了深度适配。最关键的是,它的训练全程都是基于华为昇腾芯片完成的。这意味着什么?这意味着国产大模型终于实现了从“大脑”算法到“心脏”算力的全栈自主可控,咱们再也不用因为某家洋品牌的芯片断供而整天提心吊胆了。 以前咱们总觉得,国产芯片虽然能用,但比起国际顶尖水平总差点火候。但这次GLM5用实战成绩告诉全世界,国产芯片不仅能跑模型,还能支撑起全球最顶尖、最复杂的“智能体工程”。这种“去英伟达化”的方案不再是实验室里的口号,而是实打实摆在桌面上、拿来就能用的可行方案。这就像咱们以前只能买进口豪车,现在不仅能造出性能一样的车,连发动机、底盘到每一颗螺丝钉,全都是咱们自己生产的。 这种全栈自主的突破,最先利好的就是咱们国产算力的产业链。这里面有两个“隐形冠军”值得大家重点关注。一个是兴森科技,它搞的那个ABF载板,是芯片封装里不可或缺的底层支架,在华为昇腾的供应链里占比竟然超过了60%。另一个是华丰科技,他们做的高速背板连接器,直接攻克了国产替代的最后一道防线。你会发现,当GLM5这种顶级模型开始大规模应用时,这种生态协同效应会像雪球一样越滚越大,带动整个国产硬件链条的集体升级。 很多朋友可能会问,纯国产的方案好是好,但贵不贵?好不好用?这正是我们要聊的底层商业逻辑。实测数据显示,GLM5在国产算力集群上的推理成本,竟然比在那些昂贵的国际平台上降低了整整40%。在2026年这个AI应用全面爆发的阶段,成本就是企业的命门。对于成千上万想要接入AI的初创企业来说,这40%的开支节省,可能就是生存与毁灭的区别。一个好用、不贵、还绝对安全的国产算力方案,这才是真正的竞争力。 当然,咱们也要客观地看。虽然全栈国产化取得了里程碑式的进展,但未来的挑战依然存在。 #智谱 #glm5 #华为昇腾 #glm5适配国产芯片 #恒生科技
00:00 / 03:19
连播
清屏
智能
倍速
点赞154