00:00 / 00:35
连播
清屏
智能
倍速
点赞357
00:00 / 00:58
连播
清屏
智能
倍速
点赞1994
00:00 / 01:02
连播
清屏
智能
倍速
点赞4
3月17日,周二凌晨2点,GTC 2026,加州圣何塞SAP中心,英伟达CEO黄仁勋,再次身披那件黑皮衣战袍,狂扔“核弹”。 会上,英伟达正式发布Vera Rubin平台。七款全新芯片全面投产,Vera Rubin平台由七款突破性芯片、五个机架和一个巨型超级计算机组成。 Vera Rubin是英伟达为“代理式AI”(Agentic AI)专门设计的新一代计算平台。 与上一代Blackwell 平台相比,Vera Rubin展现了惊人的效能跃进。该系统仅需1/4的GPU 即可完成混合专家大模型(MoE)的训练,且每瓦推论吞吐量飙升高达10 倍,成功将单Token的生成成本降至十分之一。在基础设施配置上,新一代的NVL72机架通过第六代NVLink连接了72块Rubin GPU与36块Vera CPU。黄仁勋特别指出,第六代NVLink交换系统是极度难以实现的技术,但英伟达成功达成了这项创举。 此外,Vera Rubin系统采用100%液冷设计,使用45°C的温水进行冷却,彻底移除了传统繁杂的缆线。这不仅大幅减轻了数据中心的冷却压力与能源成本,更将过去需要花费两天才能完成的安装时间,惊人地缩短至仅需两小时。 该平台整合了Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX - 9 超级网卡、BlueField - 4 DPU和Spectrum-6 以太网交换机,以及新集成的Groq 3 LPU。这些芯片协同工作,构成一台强大的AI 超级计算机,为 AI 的各个阶段提供支持——从大规模预训练、后训练和测试时扩展,到实时智能推理。 黄仁勋表示:“Vera Rubin 是一次代际飞跃——它由七款突破性芯片、五个机架和一个巨型超级计算机组成,旨在为人工智能的各个阶段提供强大支持。” #GTC2026 #英伟达 #黄仁勋 #VeraRubin平台 #人工智能
00:00 / 00:06
连播
清屏
智能
倍速
点赞6
00:00 / 04:17
连播
清屏
智能
倍速
点赞23
00:00 / 00:25
连播
清屏
智能
倍速
点赞4555
3月17日,周二凌晨2点,GTC 2026,加州圣何塞SAP中心,英伟达CEO黄仁勋,再次身披那件黑皮衣战袍,狂扔“核弹”,发布了多颗芯片和系统。 会上,黄仁勋透露了英伟达如何利用去年从 Groq 收购的知识产权来扩展 Rubin 的功能,并宣布Rubin 平台现在包含一款新的芯片——英伟达 Groq 3 LPU,这是一款推理加速器,能够增强这些系统以低延迟、大批量的方式交付令牌的能力,从而在人工智能模型的前沿实现高交互性。 与大多数依赖 HBM 作为工作内存层的 AI 加速器不同,每个 Groq 3 LPU 都集成了 500 MB 的 SRAM,这种内存也用于 CPU 和 GPU 的超高速缓存。虽然与每个 Rubin GPU 上容量高达 288GB 的 HBM4 相比,这显得微不足道,但正如您所预期的,这块 SRAM 可提供 150 TB/s 的带宽,远高于 HBM 的 22 TB/s。对于带宽敏感型 AI 解码操作而言,Groq 3 芯片带宽的大幅提升为推理应用带来了诱人的优势。 反过来,英伟达将构建包含 256 个 Groq 3 LPU 的 Groq 3 LPX 机架。该机架提供 128GB 的 SRAM 和 40 PB/s 的推理加速带宽,并通过每个机架 640 TB/s 的专用扩展接口将这些芯片连接起来。 #GTC2026 #英伟达 #黄仁勋 #LPU #Groq芯片 注: LPU,全称 Language Processing Unit(语言处理单元),是专为大语言模型(LLM)推理场景定制的专用ASIC芯片,核心定位是只做推理、不做训练,主打超低延迟、高能效、确定性执行,被视为AI推理下半场的核心硬件。 LPU是AI对话、实时交互场景的“推理加速器”,通过全片上SRAM+静态调度架构,解决GPU在LLM推理中“内存墙”与延迟波动问题,让AI响应更快、更稳、更省电。
00:00 / 00:06
连播
清屏
智能
倍速
点赞5
00:00 / 00:46
连播
清屏
智能
倍速
点赞8
00:00 / 00:06
连播
清屏
智能
倍速
点赞4307
00:00 / 01:54
连播
清屏
智能
倍速
点赞5