00:00 / 03:12
连播
清屏
智能
倍速
点赞143
00:00 / 01:30
连播
清屏
智能
倍速
点赞453
00:00 / 01:16
连播
清屏
智能
倍速
点赞2
00:00 / 02:36
连播
清屏
智能
倍速
点赞22
Tony沈哲2月前
2025年12月26日AI晚报 智谱正式发布了名为 Z Code 的 AI 协同开发工具,目前处于 Alpha 版阶段。该工具的核心优势在于将 AI Agent 与现有的开发工具链进行了深度整合。它不仅具备跨仓库的全代码库理解能力,还能够支持多仓库的上下文推理以及自动化的代码审查工作,旨在无缝接入开发者现有的工作流中。 小红书携手复旦大学,联合推出布局控制生成(Layout-to-Image)领域的突破性方案 InstanceAssemble,通过创新“实例组装注意力”机制,实现了从简单到复杂、稀疏到密集布局的精准图像生成,相关成果已被 NeurIPS 2025 收录。 OpenBMB 与 THUNLP 联合推出了 DeepThinkVLA,这是一款专为具身智能 Agent 设计的统一架构模型。该模型的核心目标是解决序列化推理与高速运动控制之间的逻辑冲突。DeepThinkVLA 采用了创新的混合架构。它通过因果注意力机制进行 Chain-of-Thought(CoT)推理,并能动态切换至双向注意力机制,以实现高维度的并行动作解码。 Liquid AI 正式发布了实验性模型 LFM2-2.6B-Exp。该模型是基于原有的 LFM2-2.6B 模型,并完全利用纯强化学习(Reinforcement Learning)技术训练而成的实验性 Checkpoint。尽管参数量仅为 2.6B 左右,但官方宣称其为目前市场上性能最强的 3B 级别模型。在指令遵循、知识获取以及数学基准测试中,该模型表现异常优异。 #智谱 #小红书 #OpenBMB #Liquid
00:00 / 02:20
连播
清屏
智能
倍速
点赞10
00:00 / 05:10
连播
清屏
智能
倍速
点赞2
00:00 / 00:37
连播
清屏
智能
倍速
点赞7
00:00 / 00:31
连播
清屏
智能
倍速
点赞11
元新闻6天前
近日,智谱发布面向开发者的致歉信,承认在GLM Coding Plan上线中存在三大问题:规则透明度不足、GLM-5灰度节奏过慢、老用户升级机制粗糙,并同步公布处理和补偿方案。 GLM Coding Plan是智谱专门为AI编程场景推出的付费订阅套餐服务,开发者订阅后,可以使用智谱提供的大模型来辅助写代码。套餐等级通常分为Lite、Pro、Max三个等级,对应不同的使用额度和模型权限。 智谱之所以致歉,正是因为其新模型GLM-5的强劲表现,致使需求暴增超出其承载能力。测试显示,GLM-5在代码能力、智能体表现等关键领域的开源模型评分中取得SOTA表现,在真实编程场景的使用体感逼近Claude Opus 4.5,擅长复杂系统工程与长程Agent任务。 GLM-5发布次日,智谱同步上调GLM Coding Plan套餐价格,整体涨幅自30%起。GLM Coding Plan上线即售罄,这在行业中颇为罕见。 需求火热也导致GLM Coding Plan的用户体验受到影响。在致歉信中,智谱解释,其近期遭受灰产号池和黄牛党冲击,恶意占用了公司大量资源。同时,GLM-5发布后,流量超出预期,公司扩容节奏没有跟上,不得已将GLM-5按照Max、Pro、Lite的顺序逐步开放。 目前,Max用户已经全面开放,Pro用户虽已开放,但高峰期可能会因集群负载较高遇到限流,Lite用户将会在节后非高峰期逐步灰度开放。 (来源:第一财经、@张小珺 编辑:尚骏翼)
00:00 / 00:14
连播
清屏
智能
倍速
点赞19
00:00 / 01:26
连播
清屏
智能
倍速
点赞40
00:00 / 04:04
连播
清屏
智能
倍速
点赞70
00:00 / 00:56
连播
清屏
智能
倍速
点赞78
00:00 / 07:04
连播
清屏
智能
倍速
点赞285
00:00 / 03:18
连播
清屏
智能
倍速
点赞136
00:00 / 01:29
连播
清屏
智能
倍速
点赞57
00:00 / 02:13
连播
清屏
智能
倍速
点赞167