00:00 / 10:58
连播
清屏
智能
倍速
点赞87
00:00 / 00:21
连播
清屏
智能
倍速
点赞2
00:00 / 01:36
连播
清屏
智能
倍速
点赞12
00:00 / 00:53
连播
清屏
智能
倍速
点赞3
00:00 / 00:52
连播
清屏
智能
倍速
点赞86
Qiuming5天前
今夜无显卡!英伟达发布Rubin架构,AI算力迎来新时代 在2026年国际消费电子展(CES)上,英伟达创始人兼首席执行官黄仁勋正式揭晓了下一代AI芯片平台——Vera Rubin架构,标志着公司战略重心全面转向人工智能。此次发布未涉及游戏显卡新品。 核心要点: Vera Rubin架构投产:全新Rubin平台已开始大规模生产,计划于2026年下半年上市。其核心目标是大幅降低AI计算成本,实现算力规模化。 性能飞跃:与上一代Blackwell相比,Rubin平台在AI推理性能上提升高达5倍,训练性能提升3.5倍,并将推理成本降低了10倍。 系统级设计:Rubin不再单纯提升单卡性能,而是将CPU、GPU、网络和存储整合设计,旨在将整个数据中心变为一台统一的AI超算。其关键组件包括Rubin GPU、专为AI智能体设计的Vera CPU、BlueField-4 DPU和NVLink 6互联技术。 应用突破: 自动驾驶:发布了具备显式推理能力的端到端自动驾驶AI模型“AlphaMayo”,并宣布其DRIVE AV软件将搭载于新款梅赛德斯-奔驰CLA。 机器人与物理AI:开源了包含世界模型、推理模型和机器人基础模型在内的“物理AI全家桶”,旨在推动具身智能发展。 行业预言:黄仁勋指出,计算产业正经历向AI的根本性转变,AI将成为所有应用的新基础。未来应用将建立在能自主调用多种模型的智能体(Agentic AI)之上,而下一个前沿是理解物理世界的“物理AI”。 https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer https://blogs.nvidia.com/blog/dgx-superpod-rubin/ https://www.nvidia.com/en-us/events/ces/ https://youtu.be/0NBILspM4c4. https://www.nvidia.com/en-gb/data-center/vera-rubin-nvl72/
00:00 / 01:15
连播
清屏
智能
倍速
点赞0
00:00 / 01:04
连播
清屏
智能
倍速
点赞2600
刚刚,黄仁勋一口气解密6颗芯片,召唤出最强AI超算! 英伟达发布Vera Rubin平台:6款自研芯片构建最强AI超算,推理效率实现代际飞跃 在CES 2026主题演讲中,英伟达CEO黄仁勋揭晓了全新AI超级计算机平台Vera Rubin,该平台集成6款自研芯片,涵盖CPU、GPU、网络交换等核心组件,实现训练与推理性能的跨越式提升。 六大芯片协同设计,算力突破3.6EFLOPS Vera Rubin平台包含Vera CPU、Rubin GPU、NVLink 6交换机等六大核心芯片。其中Rubin GPU引入Transformer引擎,NVFP4推理性能达50PFLOPS,为Blackwell的5倍;支持HBM4内存,带宽提升至22TB/s。整套NVL72系统集成2万亿晶体管,单机架推理算力达3.6EFLOPS,内存容量54TB,组装效率较GB200提升18倍。 三大创新破解推理瓶颈 针对AI推理痛点,英伟达推出Spectrum-X以太网共封装光学器件,能效提升5倍;首创推理上下文内存存储平台,专为KV Cache设计,减少重复计算;基于DGX Vera Rubin的SuperPOD将大型MoE模型token成本降至1/10。这些创新显著提升多轮对话、RAG等长上下文应用效率。 开源生态与物理AI并进 软件层面,英伟达扩大Nemotron开源模型系列,新增Agentic RAG模型、安全模型等。物理AI领域,开源Alpamayo自动驾驶模型让车辆具备推理能力,该100亿参数模型已搭载于梅赛德斯奔驰CLA量产车。同时,全球机器人领先企业均基于英伟达Isaac和GR00T开发生态。 Vera Rubin平台将于2026年下半年通过云服务商交付,标志着AI基础设施进入系统级协同设计新阶段。英伟达通过硬件创新与开源策略双轮驱动,进一步巩固其在AI计算领域的主导地位。
00:00 / 15:35
连播
清屏
智能
倍速
点赞0
00:00 / 04:05
连播
清屏
智能
倍速
点赞16
00:00 / 03:32
连播
清屏
智能
倍速
点赞22
00:00 / 02:51
连播
清屏
智能
倍速
点赞1
00:00 / 01:13
连播
清屏
智能
倍速
点赞62
各位观众朋友们,今天我们要聊的,是2026年CES展上最意味深长的一幕。当英伟达的掌门人黄仁勋,这位全球AI算力的总舵主,在他最重磅的Vera Rubin芯片发布环节,居然把最黄金的位置,留给了中国团队做的开源模型。 这不是简单的技术展示,这是全球AI权力格局的一次静默地震。 黄仁勋的PPT里,中国开源模型Kimi K2和DeepSeek V3.2,硬生生挤到了全球开源模型排行榜的前两位。这不是什么野榜,这是在英伟达新一代计算平台上的实测数据。更关键的是,当Kimi K2 Thinking跑在Rubin架构上,推理吞吐量直接翻了十倍,token成本砍到原来的十分之一。十倍速,十分之一成本,这组数字背后,是整个AI产业成本结构的彻底改写。 什么叫平价时代?就是过去只有巨头烧得起的大模型推理,现在中小企业甚至个人开发者都能用得起了。这就像当年福特的流水线让汽车走进千家万户,黄仁勋这次展示的,是AI应用的"流水线时刻"。 这里头最让全球市场意外的,是DeepSeek。黄仁勋亲口说,这是第一个开源推理系统,它的出现直接激发了整个行业的连锁反应。开源模型现在确实还落后顶尖闭源模型大概六个月,但问题是,这 gap 每六个月就会被追平一次。换句话说,开源社区正在以惊人的速度,把闭源护城河里灌满水。 这件事的财经意义远比技术意义更震撼。英伟达是谁?它是卖铲子的,卖的是算力这个AI时代最硬的通货。它为什么要不遗余力地捧中国开源模型?因为黄仁勋看得比谁都透:只有让AI应用真正便宜下来,只有让全球开发者都用得起、用得上,他的铲子才能卖得更多、更长久。这是典型的做大蛋糕思维。 对我们投资者有什么启示?三件事。第一,AI应用层的爆发临界点可能比预想来得更快,十倍速降本意味着大量过去不成立的商业模式,现在 suddenly works 了。第二,开源生态的崛起会重塑产业链价值分配,芯片和算力基础设施的确定性,可能高于某些闭源模型本身。第三,中国AI资产,特别是那些真正在开源社区有贡献、有影响力的团队,它们的价值远远没有被市场充分认识。#2026ces #deepseekv3 #kimik2 #rubin架构 #ai应用概念股
00:00 / 02:22
连播
清屏
智能
倍速
点赞62
00:00 / 01:29
连播
清屏
智能
倍速
点赞13
00:00 / 01:27
连播
清屏
智能
倍速
点赞12