粉丝2574获赞9213

今天我们深入聊聊英伟达 gtc 大 会的前瞻观点,内容来自摩根大通三月十二日刚刚发布的专题报告。这份报告的核心逻辑是,英伟达正通过系统及协同设计、芯片架构迭代和电力架构升级,进一步巩固其在 ai 基础设施领域的平台优势。 市场关注的焦点已经从短期增长幅度转向 ai 基础设施资本支出周期的持续时间。先看产品路线图的更新, ver rubin 预计暗计划在二零二六年下半年推出,四季度开始放量。 受近期 hbm 四设计变更影响,二零二六年供应可能依然偏紧。更高性能版本,也就是工耗两千五百瓦以上版本,以及更密集的 n v l 二八八机柜配置可能会展示,但量产时间会更晚。 入门整体性能相比 g b 三百有三到七倍的提升,重点在于降低推理成本。入门凹凸的路线图预计会重申,按照一年一代的节奏,在二零二七年下半年推出 四个入门芯片集成,搭配一 t b 的 h b m 四 e, 这是市场已知的信息。重点关注的会是开本机柜的配置选择,包括八百伏 h v d c 电力架构和互联方案。飞焖架构会有更多细节透露, 预计采用台积电 a 一 六制成,搭配 hpm, 五、二零二八年下半年推出。值得关注的是,某些版本的 fan 们可能会直接在芯片上堆叠 sram 或 lpu, 让其进一步提升低颜值性能,这意味着 sram 不是 替代 hbm, 而是针对特定任务的补充。 再看几个关键技术方向的进展, cpo 的 采用节奏是市场争论的焦点。报告认为,市场对 cpo 的 短期预期可能过高, 分两个层面看,一是用于柜顶交换的 spectrum x c p o。 交换机,二零二七年预计量很大,但下游交换机厂商和云服务商的热情不如上游供应商,大型云场不太可能放弃可插拔光模块的灵活性。二是用于开背机柜内部互联 c p o 与正交 p c b 背板方案并行研发,最终方案要到二零二六年底才会确定。摩根大通的判断是 c p o 在 整个产业链内的采用趋势,人物均衡,但光模块本身会因 g p u 和 asic 集群规模扩大而持续增长。 高压直流电源的引入比预期提前,原本预计在开门机柜采用的八百伏 h v d c 电源架构,但是可能会提前在 rooting 上以概念验证形式展示,让供应链提前准备。 这对 bbu 超级电容、碳化硅、氮化加 d c d c。 转换器等环节都是利好。液冷方面,组建价值量持续提升。 芯片级别 ruby 的 散热组建价值从 g b 三零零的三十美元提升到一百美元。计算托盘级别,价值量从 g b。 三百的一千六百美元提升到两千三百到两千四百美元,主要来自内置气管的采用,冷板也升级为镀金微通道设计。 内存和存储方面, hbm 仍是主流方案, sram 针对特定场景 nad 在 kv 缓存卸载中的作用会进一步明确, sokam 和服务器 dram 的 价值量可能超过 hbm。 最后看需求端的信号, 英伟达近期表示,之前给出的五千亿美元需求预估还有上行空间,但市场对需求端的反应已经不再像以前那样积极。讨论焦点转向了云厂商能否在二零二六、二零二七年后持续支撑 ai 资本支出。 快速回顾一下关键数据,如饼性能提升三到七倍。如本 ultra 搭配 e t b h b m 四 e finnman 采用 a 一 六制成和 hbm 五 cpu 交换机,二零二七年预期量达十万台八百伏 hvdc 电源架构,提前引入如炳散热组建价值一百美元,整算托盘价值两千三百到两千四百美元。 vivo 芯片功耗一千八百到两千三百四十瓦, robin ultra 四千到五千五百瓦,飞猛五千五百瓦以上。如果你觉得内容有帮助,欢迎点赞、评论、转发,我们下期继续聊 ai 产业背后的硬科技。

英伟达的 gtc 二零二六大会已经不单单是一场技术发布会了,它更像是一场决定未来 ai 产业格局的华山论剑。一份关于英伟达的研究报告,为我们揭示了这场盛会背后可能正在发生的一场深刻的战略转型。 这不仅仅是关于新芯片的发布,更是关于英伟达如何为未来几年的人工智能推理时代布下的一盘大棋。好了, 我们先来聊聊这次 gtc 大 会大家最关心的核心看点。这份报告里提到了三个需要特别关注的焦点,第一个是英伟达更新后的产品路线图,一直规划到了二零二八年的费曼系列 gpu。 第二个也是我认为最有意思的一点, 就是英伟达正在推出一系列全新的经过协同设计的定制化产品。第三个是在专有光学技术上取得大规模应用的突破。听起来有点复杂对吧?别急,我们一个一个来拆解。 我们先说这个听起来最玄乎的第二个点,就是协同设计的定制化产品,这是什么意思呢?你可以这么理解,以前我们一说英伟达,想到的就是它的 gpu, 一个通用的 强大的大脑,既能用来训练 ai 模型,也能用来让 ai 模型进行推理,也就是回答问题,生成内容。但现在 ai 的 应用场景越来越细分,对硬件的需求也变得五花八门,英伟达现在的打法就是针对推理这个环节, 推出更专业、更高效的专用引擎。报告里提到了几个关键产品,我试着用大白话给你解释一下。首先是 cpx, 这个东西是专门为 推理欲填充阶段设计的。什么叫推理欲填充呢?你可以把 ai 生成答案的过程想象成做一道菜。欲填充阶段就像是厨师在拿到菜谱后,把所有需要的食材都从冰箱里拿出来,准备好, 摆上操作台。这个阶段需要处理大量的上下文信息,但对延迟要求没那么高。所以 cpx 这个引擎就是个备菜专家,它优化了处理这个备菜环节,让后续的工作能更顺畅。接下来是重头戏叫 lpu, 全称是 language processing unit。 语言处理单元这个东西就更有意思了, 它专门针对的是低延迟解码,还是用刚才那个做菜的比喻。解码阶段就是厨师真正开始动手炒菜,然后一盘一盘把菜端到你桌上的过程。这个过程最讲究的就是快, 你不可能让客人等一个小时才上一道菜吧? lpu 就是 个超级快手厨师,它的核心任务就是极速的,一个词一个词的把答案吐出来,追求的就是极致的低延迟。 报告里还特别提到,这个 lpu 可能会采用基于 sram, 也就是静态随机存取内存的技术,并且最早可能在二零二七年的鲁滨 ultra 或者二零二八年的费曼平台上集成到英伟达自己的机柜里。 除了 cpx 和 lpu, 还有针对常上下文解码的 icmp 和针对批处理任务的 veracpu。 你 看, 从准备食材到快速烹饪,再到处理一大堆订单。因为打靶, ai 推理这个复杂的流程 拆解成了一个个独立的、可以被专门优化的步骤,然后为每一步都打造一个最合适的工具。这就像是从一个全能型选手转形成了一个由各个领域的顶尖专家组成的复仇者联盟。 这种专机专用的思路,目的就是为了在推理时代把性能、成本和效率做到极致。说完了定制化的推理引擎,我们再来看看第三个焦点,专有光学技术。这个技术听起来更硬核了,叫 c p o, 也就是供风装光学。它要解决的是数据中心内部数据传输的瓶颈。你可以想象,随着 gpu 越来越强,它们产生的数据量也越来越大,就像一条条越来越宽的马路,但最终都会汇集到一条主干道上, 如果主干道不够宽,或者红绿灯太多,就还是会堵车。 cpu 技术简单说就是把光学收发器,也就是负责光信号收发的模块 直接封装在交换机芯片旁边,大大缩短了电信号传输的距离,从而提升数据传输的速度和能效。报告里提到,英伟达可能会发布下一代的五十一点二 t 的 spectrum 六交换机和一百一十五 t 的 quantum x 交换机,并且会集成 cpo 技术。 这就像是给数据中心修了无数条无红绿灯、全立交的超级高速公路,让数据能够在整个 ai 级群里飞速穿梭。 所以你看,把这些点连起来,英伟达描述的未来图景就非常清晰了,它的产品矩阵会变得更加立体。 有用于训练的维拉鲁滨标准平台,有我们刚才聊的用于推理预填充的 c p x, 用于低延迟解码的 l p u, 用于长上下文的 ic m s p, 还有用于批处理的 vera c p u。 这已经不是一个单纯的 g p u 公司了,而是一个提供全套 ai 基础设施的超级供应商。甚至报告还猜测, 英伟达可能会和英特尔合作,推出定制的 x 八六 cpu, 进一步渗透到企业级数据中心,甚至是消费级 cpu 市场。 聊完了这些激动人心的产品和战略,我们再从投资者的角度来看看市场最关心哪些问题。报告也列出了一系列关键问题,我觉得这些问题其实也代表了我们普通人对英伟达未来的种种疑问。第一个问题,地缘政治中动的冲突会不会影响供应链? 其他国家对 ai 芯片的需求,也就是所谓的主权需求会怎么变化?能源成本上涨怎么办?这些都是实实在在的风险。 第二个问题,供应链的保障。英伟达现在几乎是每年都推出一代新产品,它能不能持续拿到足够多的金源、内存、基板和光学原件?这就像一个顶级餐厅,菜谱越来越复杂,它能不能保证每天都能采购到最顶级的食材?第三个问题, 关于 hbm, 也就是高宽带内存。既然英伟达推出了像 lpu 这样使用 sram 的 芯片,那会不会对 hbm 的 需求造成影响?这又是一个技术路线和市场份额的博弈。 第四个问题, c p o 也就是供风装光学的落地时间。这项技术到底什么时候能大规模应用?它对于英伟达的集群来说,是可选项还是必选项?如果是可选项,那客户可能就不一定会买单。第五个问题,现金怎么用? 英伟达现在现金流非常充裕,光是未来的供应预付款就高达九百五十亿美元, 还像 open ai、 anthropropic 这些公司投资了几十上百亿美元,这些钱除了投资还会用来做什么?是继续通过回购和分红回报股东?还是会进行更大规模的并购?第六个问题,成本。新一代的维拉 鲁冰平台能不能实现比上一代 grace blackwell 平台成本低十倍的单 token 成本?这直接关系到 ai 推理的普及速度。最后一个问题,软件, 硬件再强,也需要软件来驾驭。像 s g、 l a、 m、 l m 这些运行在库达之上的推理引擎,英伟达会如何布局来进一步巩固自己的护城河?你看 这些问题,从宏观的地缘政治,到微观的技术细节,再到公司财务和战略,几乎包含了所有方面。这也从侧面反映出英伟达这艘巨轮的航行,已经牵动着整个科技产业的神经。 好了,说了这么多定性的分析和未来的展望,我们还是得回到一些硬核的数字上来,看看英伟达的家底到底有多厚。 这份报告给出了从二零二五年到二零二九年的财务预测,我挑几个关键的数字跟大家分享一下。首先是每股收益,也就是 e p s, 预计会从二零二五年的二点八三美元,一路增长到二零二九年的十三点一八美元,年复合率非常惊人。 更有意思的是市盈率,也就是 p 一 报告预测英伟达的市盈率会从二零二九年的十三点九倍,这背后反映了一个什么趋势呢?一方面 公司的盈利在高速增长,另一方面,随着利润基数的扩大,市场给出的估值倍数会逐渐回归到一个更理性的水平。报告还特别提到,在二零二八年,英伟达的市盈率预计只有十七倍,这被看作是历史性的低估值, 对于一个如此高速成长的公司来说,这个估值水平确实非常有吸引力。再来看看资产负债表,这部分数字更能体现英伟达的超能力。报告预测, 英伟达的现金及等价物会从二零二六年的一百零六亿美元,暴增到二零二七年的一千一百六十一亿美元,再到二零二八年的两千六百零三亿美元,这是什么概念?就是公司账上的现金在短短一两年内可能会增长超过二十倍,这主要得益于其强劲的现金流和预收款模式。 同时,公司的股东权益也会从二零二六年的一千五百七十三亿美元 增长到二零二八年的四千八百八十四亿美元。这些数字都在告诉我们,英伟达不仅赚钱能力强,而且财务状况非常非常健康,家底越来越厚实。当然,报告也给出了一个三百美元的目标价,这相比当时一百八十二点六五美元的股价有超过百分之六十的上涨空间。 这个目标价是基于二零二七年每股收益的二十八倍市盈率在剔除现金后得出的。这个估值倍数也处在英伟达历史估值区间的中值附近,看起来是一个相对合理且乐观的预期。好了,聊到这里,我们今天关于英伟达 gtc 二零二六前瞻的讨论也差不多接近尾声了, 我们来简单总结一下今天聊到的几个核心要点。第一,殷伟达正在经历一场深刻的战略转型,从一家以通用 gpu 为核心的公司向一个提供高度定制化、模块化 ai 解决方案的平台型公司引进,这标志着 ai 产业特别是推理市场 正在走向成熟和细分。第二,这场转型的核心是推出一系列专机专用的 ai 推理引擎,比如负责备菜的 c、 p、 x 和负责快手出餐的 lpu, 这种好刚用在刀刃上的策略,只在彻底优化 ai 推理的性能和成本,为下一阶段 ai 应用的爆发打下基础。第三,除了芯片层面的创新,英伟达还在连接上做文章,通过 cpu 这样的专有光学技术 构建下一代超高速数据中心网络,确保海量数据能够在庞大的 ai 集训中畅通无阻,这同样是保持其领导地位的关键一环。第四,从财务数据来看, 英美达展现出了惊人的增长势头和财务实力,无论是每股收益的高速增长,还是资产负债表上即将迎来的巨额现金储备,都预示着这家公司在未来几年都将拥有强大的竞争力和投资潜力。 总而言之,即将到来的 gtc 二零二六不仅仅是英伟达展示新肌肉的一场秀,它更可能是一个宣言,宣告着人工智能行业进入了一个由通用计算向智能高效专用计算转变的新时代,而英伟达正努力成为这个新纪元的总设计师。

ai 届的春晚来了,今天市场最火的逻辑就是英伟达 ggc 大 会正式开幕,晚上黄仁勋就要演讲,市场都在等新一代 gpu 新架构,还有推理芯片、 cpu 夜冷这些重磅消息, 资金已经提前动手,今天芯片、算力、光模块、 pcb 全都在异动。简单给大家梳理清楚,这次大会主要看这几点,第一,新一代显卡算力芯片性能再升级,直接带动整个产业链需求。第二, cpu 光模块高速互联,高算力必须靠高速传输。 第三,高速 pcb 先进封装,新芯片离不开配套硬件。第四,液冷散热,高性能芯片功耗越来越大,散热是刚需,整个算力产业链又一次站在风口上。聊到这肯定有朋友问,具体该看哪些公司, 记好这六家企业都是低位。一、沃格光电 gtc 低位玻璃封装,玻璃基板 tgb 先进封装,适配 cpu 光模块 hpm 存储封装,契合英伟达入便架构,低损耗高散热需求。二、深圳华强电子,元气件分销龙头, 覆盖 ai 服务器、 gpu 周边芯片,高速 pcp 材料。英伟达产业链放量最直接受益全链分销吃算力红利, gtc 带动备货需求。 三、冠捷科技, ai 显示加智算终端,全球显示面板加智能终端龙头, ai 一 体机算力终端,数据中心频显需求爆发,深度受益 ai 硬件普及。 四、照明光学散热加新材料,功能性薄膜导热散热材料,适配 ai 服务器 gpu 高功耗散热,算力散热刚需材料, gdc 推高功耗方案。五、重达技术,高端 pcb 通过下游间接进入 ai 服务器供应链,适配 rubin 架构高速版需求六、龙洋电子超低轮廓铜箔适配 m 九 m 十高速 pcb 高频铜箔稀缺标地,英伟达 rubin 架构核心材料关注我,第一时间抓住市场主线,抓准核心龙头!

英伟达 gtc 与 ofc 两会催化出的 ai 硬件产业链梳理, gtc 发布, rubicon 三纳米 hbm, 四万两千 w 加全液冷 cpo 光互联, lpu 推力芯片算力互联,散热电源全面升级。 ofc 展示一点六 t 三点二 t 光模块通否归光,高速交换机商用化加速,共同主线,高算力加高速互联加高密度散热加高压供电, ai 硬件全面爆发。 ai 服务器, rubin 平台,万卡级制算中心,液冷八百伏高压整机代工集成 光模块, c p o 一 点六 t、 三点二 t 荒火归光转换机,高端 p c b 封装机板二十层加 m 九超低损耗 app 载板,高速高频液冷散热二千瓦加 gpu 机柜二百四十千瓦加全液冷标配 pu 一 一点一电源功率器件,八百伏 h v d c 高压电源, d r m o s 固态变压器, ai 芯片加速卡,国产 guacacq 适配训练推离 存储, hbm 接口, hbm 三 e hbm 四高带宽存储接口,先进封装测试 cools 二点五 d 三 deploy cpo 封装投资主线,塑揽算力底座互联革命硬件股价散热、刚需供电升级、 国产替代。风险提示,以上信息仅供参考,不构成投资建议。行业竞争、技术迭代、订单波动、估值波动等风险需关注。

有个非常重要的一个活动, gtc 这个大会按照目前的一个时间表呢,黄老板的演讲应该在三月十五号会进行,根据目前所释放的信息来看呢,这次的这个演讲应该核心就是两个内容,一个是关于今年到量产开始交付的另一代的产品,以及这个他的出品之后的下一代的产品啊,用黄老板的话说叫做这个世界前所未见的一代啊,新的新产品,每次的这个定位的产品迭代呢,都是牵动了整个产业链的相关的这个 机会。今天呢,我们也由我们国金电信团队和我们通信以及电子团队的分析师啊,一起来给大家对本次会议做一个前瞻啊,对相关的会议内容以及产业链的一些相关的投资机会啊,做一定前瞻的一个分享和布局。那么接下来我就把时间交给我们的几位分析师啊,先有请国金电信团队的文件来给大家分享一下关于电源这块的一个环节。 好的,谢谢姚老师。各位领导上午好,我这边主要是分享一下在 gtc 大 会上面电源这这方面可能会迎来一些催化, 那我们最近了解到的情况是因为了解这次的计算大会上面,它主要是针对未来的几个新的产品进行一个展示,像这个 rubin 这一代的芯片,还有就是后续的飞吻的这个芯片,那这两款芯片的一个特点就是它的功率会变得特别大,像 rubin 这一代的话,它会到两千瓦的这个功率, 可以慢慢到五千瓦以上的三千片的功率,那对于电源来说的话,它会导致这个如果电压等级不变,因为我一般电压等级目前来看的话,每一代产品都没有什么特别大的变化,但是如果电压等级不变,它的电流就会这么大,功率提升一倍,那意味着电流也会提升一倍。我们看这个电源这个环节的话,一次、二次、三次,那 越往这个后面去走,它电压等级越低,它的电流就会更大,那如果到了两千瓦级别的话,电流就基本上会到三千安的这个级别,那对于三次电源来说的话,是一个极大的挑战。所以现在针对啊更高功率,更大规模的这种 gpu 集群的话,英伟达是提出了第一个。我们去年和大家关注比较多的就是 hvc 八百伏的这个东西, 它主要针对的是一次电源这边将交流电转换成直流的这个过程中,过去用的是四十八伏,因为考虑到功率升级了之后,电流也会翻倍的升级,所以英伟达就提出它这个电压等级把四十八伏提升到八百伏,那这样子的话电流其实反倒会会降低啊。那还有一个就是三次电源,三次电源因为它是直接给 gpu 供电,它电压等级非常低,现在英伟达的架构的话, 三次电源这边的输出电压只有零点八伏,零点八伏意味着这个电流就到了铅氨级别啊。那现在英伟达的这个方案的话,它是用的这种分力的方案,所谓的分力的方案指的就是三次电源,它是分分它的各个气件,像主要的构成,像这个电感电容转筒, 它是分力的,放在这个 gpu 周围啊,放在这个主板上面啊,这种分力方案未来会有一个问题啊,因为它电流越高,比如说从现在几百、几百安培到未来几千安培,那它可能电流是四五倍的这样一个增长。 那如果装慕斯这边,慕斯这个工艺不提升的话,意味着这个慕斯它的耐流就不变,耐流不变的话,那这么高的电流只能去增加慕斯数量,所以就会导致这些需要更多的慕斯电感电容放在这个 gpu 主板周围啊,但是我们知道 gpu 的 这个面积啊,这个主主板这个面积它其实也是有限的,而且 gpu 的 这个面积也会越来越大, 他又变成一个,就第一个他放不下那么多的这个电源相关的期间,第二个就说他即使放下,他的布线的方式也会非常复杂,因为他放多了之后,他那个走线呢?是水形走线吗?他这样走线的话,路径一个路径比较长,会导致损耗比较大,热问题比较严重。第二个的话就是因为他那个布线比较复杂,他可能会产生一些这种电磁干扰啊什么的。那这个问题的话是一个越来越严重的一个问题, 所以现在其实呃业绩大家也提出了很多解决方案。那我们现在看到有一种方案,现在形象谷歌他已经 md, 他 们已经在批上使用,就是这个垂直供电方案,他们垂直供电方案实际上就是一个把分立的这种器械做成一个立体的一个模块,然后这个模块里面把电感电容还有这 mose 控制芯片全部集成到这个模块里面,然后他增加这个模块的数量,就可以提高他的这个耐流的这个等 级。然后因为他把这个电感电容 mose 集成在一个模块里面,所以他的这个占地的面积啊,空间啊就会小一些。 那这种方式不管是放在背面还是放在正面,都比原先的分裂的这种方案更节省空间。所以在入并,特别是入并 out 这一代,还有 finn 这一代,我们认为上这种模块的方案应该是概率非常非常大的。实际上现在除了英伟达以外,我们看到几乎所有的芯片啊,就是 gpu 啊, ac 啊,它都用的是这种模块化的这种供电方式,只不过有的它可能是放在正面的,是放在背面, 但是它这个模块化的供电方式都有一个特点,就是它需要做成那种立体的 pcb, 然后把这个电感或者电容啊埋嵌在这个 pcb 里面,那这样子的话一方面可以节省空间,另外一方面的话它对于 pcb 的 这个工艺要求会非常的高啊,它要需要就是 pcb 在 设计的时候又参与到这个电源的设计里面,要配合它们去做电感呀电容的这个布局 排列方式的设计。第二个他可能会用到一些新的一些材料,那第三个的话,他在制作的时候,他需要把这个呃基板做好,然后把这个电感电拿过来之后去压合,还有参与这个电感电压合的这样一个过程,那这个也会进一步提升他的这个呃生产的这个难度。 所以相比于一次二次来说的话,三次电源,特别是往模块化去走的这个方向,对于 p c d 这边的用量,还有他的这个技术门槛啊,都是有比较明显的提升。然后现在实际上就是我们呃在业内了解到就是飞吻这一带还是有挺大概率他会采用这种 官方叫这个 i v r 的 这种设计。所谓的 i v r 的 设计指的就是说类似于现在像笔记本电脑里面一样,他在芯片就在那个显卡呃里面,他就是在芯片里面去做一个电源啊,那他这个电源的话主要的目的就是为了把那个芯片输出这根电压等级提高。现在我们看到的芯片它是零点八伏吗?零点八伏如果是一千瓦的话,就得一千多安的这个电流。 那如果说在这个芯片里面啊,在京元这个层面,就把这个啊电源集成在里面,然后把这个零点,把它这个里面的这个内压等级从零点八伏啊,又通过电源然后提高到这 一点八伏或者三点三伏,那意味着电流它基本上就可以减少百分之五十以上啊。那这个其实对于呃这种铅氨级别这种电来说,这这个这个这种方式其实会有很大的,就是我们现在面临的很多问题都可以迎刃而解, 所以啊有可能在这个飞沫这一代三星电源这边还会迎来更重大的一些变化。那做成 i v r 的 话,实际上它还是需要 p c d 这些环节的,所以我们认为像 p c d 啊,还有像这个 joymax 啊这些环节,包括电感、电容这些环节,它 整个三星电源持续升级给带来的过程中,它的这个呃使用啊不会下降,而且还是越来难度越高,它的电量可能还会提升。然后因为三星电源的这个呃 迭代,它是一个持续到可能飞奔那一代继续还会有变化的这么一个一个迭代。所以现在业界对于三四电源这块,大家关注度都非常非常的高啊。那我们从投资上去看的话,这也是一个非常有前景的这样的一个技术研究的一个方向 啊。所以我们在这个时候的话,觉得 t t c 大 会上面啊,最有可能会比较超预期,因为市场之前对这件事情实际上是没有太多预期的哈,不像 hvc 之前,其实去年炒过好几轮了,但是这块的话,市场因为可能标的也比较少,大家其实并没有给到很多的关注。 打到这个东西,我们认为是有可能会超预期,因为优病跟飞梦他的这个单芯片功率提升的幅度确实非常非常的大。那这里面目前还没有得到解决的一个问题,就是这个电源, 特别是给 gpu 供电,这个电源怎么设计?那这个其实现在在内还是有,我们国内啊,海外也好,都还是有很多的分歧的,都还是在研究中的。所以这块的话,我们认为啊,那可能会是机智社会上面,特别是我觉得也是业内人会比较关注的这么一个方向。那这块的话,我们主要是比较看好做三次电源模块这个 pcb 的, 像中伏电路 维尔高也想去往这边坐,但是中孚电路进展会快一点,中孚电路已经进了这个 mts 为创立的三次电源的供应链了,然后他家那边在做验证,那这三家的话都是海外那些大厂最核心的三次的电源的供应商,所以进入他们的供应链也就意味着进入到了英伟达,进入到谷歌、 amd、 亚马逊这些企业的供应链了,所以含金量是很高的。 然后目前的话,因为这块实际上呃一些大厂,像台湾的公司呀,啊,还或我们大陆的公司在这块的话,呃,就是相对来说他们 pcb 性能其实还是比较 呃,比较比较比较偏紧的。然后店员的 pcb 呢,相对来说又是一个可能市场规模不算很大,但是需要密切的配合客户去做一些产品的迭代啊,设计啊这样的一个环节,所以好有有很多大厂他现在这块的这个投入还是不够,那中付的话是比较早就基本上是凹印到这个方向了,所以我们觉得这块的话,它还是非常有希望能够脱颖而出的。 那除此之外的话,我觉得金价会上面还有一个就是肯定是 hvc, 这个也是重中之重。因为啊,这个我们刚提到,就是说单芯片功率提升也意味着 gpu 集权的整个功率会提升,那么这个功耗的这个问题就会很突出。那八百伏主要就是为了解决这个 啊,功率提升之后,电流它可能损耗比较大这个问题,通过提高电压,降低电流,那这个方向也是非常非常确定的。那我们了解到的情况是,英伟达那边在 rubicon 这一带是基本上是比较确定的,要上这个 hvc 方案,包括它的一次、二次、三次都要做一些升级, 那我们这块的话主要推荐麦登米特,因为麦登米特本身在英伟达工业里面,然后他在入便这家配合英伟达做一些产品的开发,包括这个一次的八百试电转八百伏的这个产品,还有二次的八百伏转十二伏这个产品,他都有配合英伟达在做相关产品的运营啊,预计今年下半年会开始去送样。那这个也是我们大陆的厂商里面配合的呃, 最快也是配合的最紧密的一家电源供应商啊,所以他在这个机制大会上面,我认为应该也会转出他们相关的这个布局的产品。呃, 那这个就是我们主要的这个一个观点,然后其他的还有一些可能也会比较受益的标的的话,主要就像欧通本身也是做电源的,是谷歌电的公司,然后还有像这个钢铁的韦尔高,还有像博克新材这些做电感,它实际上未来也会受益于整个电源这种高功率密度产品渗透力的提升。 对,那以上是我这边的一个汇报,那接下来邀请我们这个通讯组的老师,然后分享一下 c p o。 的 观点 哦,好啦好啦,谢谢语文老师。那各位领导大家上午好,我是国际通讯组的研究员杨念,那在这里向各位领导更新一下关于呃, gdc 大 会 gdc 的 全标以及板块的观点。那我们是分成两部分来看, 首先是 scaleout 的 gdc 交换机。呃,那目前我们了解到的话, gdc 大 会主要展示的应该还是 quantum 三四零零以及以太网的六八零零、六八幺零这三款 cpo 交换机的一个是量产的时间表,还有一个是备货的情况, 那我们预计的话,呃这一个 id 和以太网交换机的量产时间点分别是会在今年的差不多十一十二月以及明年的两月份, 那其中呃以太网版本的 cpu 交换机的量产进度是有可能超预期的,呃就是说做一个提前。呃,除了这个量产时间表的话,我们看到整体 cpu 产业链的备货进度也是在持续的加速中,像目前了解到啊凯西店这边的量率已经大幅提升到了百分之九十左右,同时像上游的四大光源,然后沙狗以及 f u 越来越多的供应链厂商都能够认证到整体 c p u 备货是处在一个加速的阶段。那除了这些以外啊,目前根据我们了解到的产业链情况来看, n d 也有可能会推出一款 i d c p u 交换机的更新型 号啊。三四五二。那这一款相较于之前的三四零零的区别主要是在于啊 e l s 模组分装的四大的光源的数量从八个改为到六个,那这样上下单交换机对应差不多二十四个 e l s f p 的 模组,不过因为整体交换机容量不变,所以对于我们这个驾驶员的测算呃 相相反映也没有特别大的一个影响,整体呃改动比较小。那我们目前从这个当前的股价来看的话,我们觉得呃像 c p o 交换机的一个量产时间备货情况,呃,市场基本上是按照二七年呃十到二十万的这样一个预期去拍信的,所以我们对于整个 g t c 大 会,呃更加期待的是看 n b 能否去透露一些像呃大型的 c s p, 比如 mate, 微软等对于 c p o 交换机的一个接受度,或者 n b 和他们目前的一个呃合作情况。 还有就是像 scale out cpu 交换机不能有一些呃强配,或者说是 menu t 的 一些性质,那这些因素可能会作为 scale out e cpu 交换机进一步超预期的一个催化剂,带动呃 cpu 链的这些公司股价在进一步向上突破。 那以上是 scale out e 的 cpu 交换机,除此之外还有 scale up e 的 cpu 或者 npu 的 方案。目前来看的话, nb 在 gtc 大 会上展露呃展示入境 out 的 光入柜内方案可能性是非常大的,但这一块市场之前也有所预期。 哦,那目前最新的一个情况是,卢秉 outcher, 除了呃苏雪 a 肯可能和光影擎共分装以外,网卡也可能去和光影擎 共分装,因此整体单 gpu 对 应的光影擎数量啊会进一步增加到差不多五点五个左右。那除此之外的话,除了 gtc, 还有和 gtc 同步举办的 ofc 大 会中啊,我们了解到头部光能快手上也可能会和谷歌等 csp 去展示一个 n p o 方案的进展。呃,那目前看的话,可能是有两个三点二 t 拼起来的一个六点四 t 的 一个 n p o 方案。所以,呃,综合来看的话,我们觉得对于旭创新一生一样的大光现在有以下的三条逻辑,一个是呃 现在不如三月份,下游的下游客户的二七年需求会得到逐步的明确,因此整体的固执中疏会慢慢从二六年切向二七年。 另一个就是,呃像刚刚提到 scale up 域的光入柜内方案,可能会伴随着 o f c 大 会, g t c 大 会中 n p o。 方案的展示来逐步去 price in。 那 目前,呃同时对于这个 scale out 域来看的话,呃市场之前普遍会觉得 scale out 域的 c p o。 对 大光是 一个负荷上的铲屎。那目前来看的话,像旭创等公司,呃也已经通过 f a u e r s 模组等环节的,呃这个积极参与去进入,呃去布局这个 n b 的 c p o。 链,那这是呃两个这个 c p o 和呃 下有客户需求进一步切换的逻辑。呃,此外就是当前这几个大光虎家对于对应二七年的 p e 其实都不到十倍,像你去放尾利的话,呃它的下跌空间能力是非常有限的,并且 伴随着交市场去交易二七年以及 n p o。 预期的一个打入,目前市值仍然有向上翻倍的一个空间,所以当前位置的赔率会非常好,我们觉得是买入的一个绝佳的时机。那以上就是通讯组关于 g d c。 大 会的前站以及 c p o。 板块的分析。呃,那接下来,呃有请我们电子组的丁老师跟我们介绍一下电子组的相关观点,谢谢各位领导。 嗯,各位投资的朋友大家早上好。呃,和各位汇报更新一下整个到 ruby 架构,再往后面的技术迭代的情况下,对于呃元基建,也就是前面语文老师所表达的在三个点上的部分,嗯,对于各个元基建的这个价值量,或者说呃投资机会的带动,嗯,其实在这个这个技术的变化在前两代 h 系列到 g b 系列到现在 ruby, 再往后面来看的话, 整个三次电源芯片的功耗的提升,呃,对于原机的价值提升以及用量提升,其实一直都反映的比较明显,因为相对来说在三个电源的部分给到被动元器的空间是有限的,所以它这里面伴随着两重逻辑。第一个是单卡的功耗一直在往上走, h 系列从七百来到 g b 的 一千二,一千四,以及往后面上到入便的两千来以上,本身功耗就是提升的。 而在三次电源的部分,尺寸相对有限,所以留给被动期间的空间是越来越少的,在功耗提升的同时,它同步会伴随着说单个期间的这个性能的提升, 要不然就同伴随着就是技术方案的变化,这里面就办就就同步,前面也是提到过了,从原来的可能有分立式的方案,然后再往更多的垂直供电,或者说直接落到芯片供电的方案去做,那么这里面就涉及到哪些品类,他会直接受益,以及对应到国内的哪些公司,他们会有比较明显的带动。嗯,其实在元气片的环节或者三分卷的部分,它主要涉及到的,呃 品类,也就是电感的品类以及电容的品类,那么电感的话其实之前都有涉及过,就国内的公司是已经进入到 n v 链以及 ac 链的,包括,呃博克新材以及双流电子以及潜在的现在已经有一些订单的。在某科技这种标记。呃,那电容的部分,它其实还会再分的更细分一点,包括产电容,包括这个 m o c c, 呃,无论是哪个品类,他们其实在三次电源起到的功能都是为了给芯片供电, 那么在电压的提升,它是伴随着极大的电流波动的,所以对于瞬时供电的效率以及速度是要求越来越高的。 那么呃,我们可以常规的来理解,比如说从 h 系列到 g b 两百这个功耗的提升,我们看到的呃对应到价值量的变化,它其实是一个跟功耗相对来说是呃同步变化的,这不一定是完全现行的关系,但基本上这个量级的变化差异不会特别大。所以同样的到 ruimi 的 价格,我们现在可能能参考的方案来说的话, 整个价值量也是往翻倍以上的量级去走的。呃,这是一个就是无论是用量的提升还是价值量的变化,在在整个版子上肯定是有这样一个呃总体的价值量的升级的。第二个是基础也存在迭代。呃,那比如说现在 n v 都还是使用分力的方案,呃,这个是从 h 系列都是这样的。那但是 a c c 其实有很多厂商从去年呃大销量的过程当中,他们就在往模块化的方式走了, 这里面主要的功率芯片厂商 m p s 英菲林,包括后面的 ti 为成立,其实都有在往这个方向去做。那么呃模块化的方式,它对应到带来的是呃价值量的,就单颗的量级也是提升的。呃, 比如说以电感为例,原来 n v 的 方案可能三块钱一颗,然后到这个模块化的方式来说的话,这个电感一颗的价值可能能上到八到十块钱,然后如果里面伴随着同样的有技术升级,一些结构上的升级的话,可能能上到十五块钱,所以这个价值量的变化它是一个 多倍以上的增长。然后 n v 其实从 ruby 的 价格就最早一点,去年去他就有在试这个呃模块化的方式,然后再往后面来看的话,有后面上模块化是一个工号提升技术角度一个大的趋势,呃,所以这里面同样也伴随着呃一个就是本身的这个工号的增长所带来的大量提升,同样也伴随着技术迭代的变化, 到这个环节的公司,呃,单个卡周围的量级是提升的。那么我们参考现有的这些方案来说的话,比如说以电感还是以电感为例,因为它最直观,而且国内的供应商是供应进去的。呃,从原来 h 系列,它可能是一个二十五颗,单颗三块钱的这个价值量,到 g b 系列的话,应该是能够上到。呃,这个往往 百元级,以及往这个两百的这个价值量去提升到 a c 的 价值量的话是两百块钱,呃,然后以及到六倍的价格,我们参考工号的提升应该会再翻到一倍, 所以本身这个量,这个价值量其实反映的也比较明显。那么同样的这个逻辑下面,很多国内的公司其实是已经进入到供应链里面的,比如说博克在 n v 的 供应,在 m p s。 的 供应,然后生物电子在英菲尼和 m p s。 的 供应,同样呃,龙斯科技一家就是潜在正在进入的公司,也通过了英菲尼的验证。 所以在整个大的投资框架下面,它同样也伴随着国内公司进入到海外供应链以及呃业绩上会有持续的兑现的,这个,这个是呃其实不只是映射,或者不只是在呃导入的钢或者钢业的那个阶段,它是真的能够在今年很多公司能放出 eps 以及会受益于整个的市场容量的扩容的。 同样这里面又多了一层逻辑,就是市场容量的扩容之余,它可能一定程度上会伴随着供需的进圈,那部分的型号或者部分的软件从去年开始就已经出现了涨价了,比如说高端奶酪 cc, 比如说坦电容,呃 这样的品类,对你来看的话,呃其实国内的公司不仅能受益于我进入海外公链得到带来的这个业绩的增长,它同样也会伴随着价格的提升,呃直接的在利润上反映出来的弹性,这里面比较明显的,比如说谈金融,这里面可能受益的公司是申诺,呃,然后包括 m、 l、 c、 c 是 主要是海外的标的,呃存钱三星这样的厂商。 那么呃这个是整个三次电源的部分,同样在原电源环节,它也伴随着二次和一次的部分会有一些电源方案的变化,呃这里面会带来较大的价值提升。这里面主要涉及的厂商或者涉及的品类是牛角电容,也就是常规的这个铝定电电容当中的一类,在 psu 的 环节当中,可能整体的用量会三个多倍以上的增长,这是目前台大在试的一个方案。然后另外就是传统的呃,就是去年前年就已经兴起的一个新的新的产品,就是呃超级电容,虽然用的比较多的是 e、 d、 o、 c 的 方案,像江海的话,已经通过麦米在跟海外有供应了,麦米,呃,传统麦米和给内塔做供应,同样的也是在跟台大做 第二次审场这样一个节点。呃,所以其实整个的技术方案的趋势还是比较明确的,而且公司正常的推进产业的,呃,就是和客户验证的节奏,推进的节奏是比较顺畅的。那么核心其实在看呃什么时候能够再进一步,能拿到更多的订单,以及到,呃真实的在业绩端什么时候能看到持续的方案的一个趋势 啊?那么这个其实是在二次和一次的部分后面会进一步有带动的方向。那么现在还有一个,其实之前在汽车的成长的机会也会有的,像薄膜电容,再来看驾驶呢,也有提升,或者用量也有提升,但不像像牛角,包括在三次的部分,起亚的那些气垫弹性那么明显, 这也是可以潜在关注的一个方向,因为这个算是大家挖到挖掘过,但是价值量提升不是特别明显,但后面往这个更高频、更高功耗的这个趋势来走的话,必然也会带来一些价值量的变化。呃,这个是大概,呃,这个,呃对于远期镇的带动我们做了一个分析和汇报。呃,接下来请电星团队的曾双老师更新一下叶冷这部分的带动情况, 谢谢丁老师。嗯,各位领导早上好,我是国际电线分会领先,到目前来看的话,其实市场层面的焦点 是在三块,一块是芯片啊,以及由芯片所带动的 ai 部件和这个基础设施配套的一些,呃,这个推进的情况,那么呃无论是 ai 的 部件也好,还是这个基础设施的配套,其实最核心的还是要看到芯片昨晚到底发生了什么样的比较重大的变化。那么呃大家现在比较期待的一方面是在这个 gtc 大 大会上面有的这个 ruby 的 更加多的一些参数啊,的这个展出,以及这个对于飞曼的一些设想和首次的发布啊,那么这个里面还会包括这个最新的这个 l p u 处理器,那年初的时候在这个 c e s 大 会上,老黄是已经展出了六款的这个 ruby 平台产品啊,那么呃在飞曼这边的话,目前大家可以比较期待这个 caber 的 这个 n v 五七六啊,还有这个,呃飞曼这个 芯片,那么呃五七六它的架构的话是基于这个 ruby ultra 这样的一个巨贵形态,那么 g p u 的 规模会从这个 n l 一 四四 就是二百八十八颗盖啊,扩展到五百七十六颗盖啊,然后来实现一个,呃这个单机柜的一个更高的是 bm 和宽带啊。那么呃非买的芯片的话,其实也是采用到了台积电一纳米级的这个工艺,然后它的一个核心创新就是去采用了三 d 堆叠的这个 s i m 方式,然后把这个专为推理这个任务去优化的 l p u 芯片直接集成到 g p u 的 计算核心之上,那 l p u 是 这个 专门为这个推理而出的这个芯片也是目前就市场层数比较高的这样的一个芯片,那么 l p u 依靠集成芯片这个随机存储器 来存储这个呃这个模型的数据啊,读写速度是非常快的,那么呃目前的 l p u 还处于 demo 的 阶段,然后一个 computer tree 是 呃设计了十六或者是三十二张卡啊,或者是一个 rank 二百五十六张卡,那么这个目标是和 lucy 的 这个集成架构啊,计划在二零二八年去做一个量产。 那么呃这个里面对应到的呃散热的环节的一些影响,我们可以看到其实散热环节和芯片的这个性能提升是很相关的。其实无论是呃 blackberry 啊, lucy, famel 这条线上的 gpu 计算卡的变化,还是说呃我们刚才提到的 lpu 的 推理卡,那么市场看起来好像呃最关注或者讨论最多的有点是在三个点上,就是这个新产品是否要用到液冷,而 是否会带来更大规模的这个单位叶冷的市场,比如说我单柜的叶冷价值是否会有一个提升啊?以及说这一代的产品,这一代机会是否会涉及到一个新的叶冷的这个进府的这个呃使用。那么我们认为从这个叶冷市场来看的话,无论从单柜的价值量角度,还是总规模上,毋庸置疑就是二零二六年 啊,都是呃会以一个极其大的这个利率增长的,那么这个一方面是大有 xpec 啊,仍然看到是一个高速的增长。那么二零二五年亚马逊、 mate, 谷歌、微软 他们全年的一个资本开支同比增速啊,分别是百分之六十五,百分之八十四啊,百分之七十四和百分之五十四。那么给到的二零二六年的一个指引,曼达啊,亚马逊、谷歌的增速也差不多都还保持在百分之五十到百分之一百这样的一个增速区间里面,那么仍然是和去年差不多的一个水平,那我们也觉得是仍然属于增速比较高的这样的一个位置。 那么第二方面就是呃芯片工号提升所带来的,那么像袁老师前面提到的啊, ruby 的 单芯片会达到两千瓦,那么三百会提升到五千瓦。其实无论现在看到的国外的一个计算卡,推理卡还是国内自研的芯片啊,都在把叶冷的一个配置从可选提升到必选的程度,那么呃更前沿一点的是把单柜的这个叶冷的占比可能从百分之八十五提升到了百分之一百全叶冷的这个水平 啊,那么以及最新的这个 lpu, 如果我们按照单个处理就要部署十六或者三十二张卡,以及单这个 rex 可能会有二百五十六张卡的这个情况来看的话,按照呃这个阶阶段这种小冷板的部署方式的话,其实对于冷板的需求量啊,快捷头的需求量等等都会有一个大幅度的提升。那么另一方面的话,我们是认为今年在这个技术迭代方向上散热材料的变化, 呃是有望成为继这个前面大家讨论比较多的这个冷板结构啊,这个优化方向之后的一个比较重点的呃这个路径。那么除了前面呃这大市场已经讨论比较多的这个微风道冷板以外,这一周其实这个 那个 xash 的 systems 啊,一家研发这个金刚石冷却技术的企业,是向印度最大的这个自主云服务提供商交付了全球首批的这个金刚石的冷却 gpu 服务器,这个它是配置在英伟达 h 两百的这个服务器里面啊,预计能使到这个 gpu 的 计算能力提升百分之十五,同时去 显著的降低 tcu 的 成本啊。那么呃在这一周的话,其实也可以看到金刚石散热这个概念啊,大家的这个关注度和讨论度也是比较高的。那我们认为的话,今年散热材料呃的变化, 以及说这个迭代的这个方向,主要会基于啊两个路径,一个就是啊在冷板材料方面啊,比如说基于同材料呃给到的一些合金方案的优化,那么另一类的话,另一条路线的话就是 tim 材料升级啊,比如说这个金刚石的散热片啊,或者是这个液态金属的 方案,那么像金刚石的散热片,金刚石它本身这个材料就是地球上热传导率最高的材料啊,甚至说我们展望太空的数据中心,如果只能依靠辐射散热的话,金刚石理论上也是太空算力的最佳的这个散热方案 啊。那么呃液态金属的话,其实各个 c f t 厂商从二五年就开始做测试了,那么呃其实最早这个二五年的 c s 大 会上面,因为咱就已经展出了用到液态金属的这个计算卡啊,那么我们觉得高端的以及高性价比的芯片材料的话,是有望逐步的从今年开始有一个放量的。 呃,另外的话,就是在总体的一个叶冷架构的设计上面啊, logo 以及 logo 二手的话还是非常有可能在这种机柜级的笨啊,或者压缩机这些方面有一定的升级,所以我们觉得也可以啊,做一下持续的关注。那么另外的话,其实啊近期除了英伟达这条链的话,海外这个 s k 企业啊,新一代的机柜呃这个部署也带动了这个叶冷里部件的采购,以及机柜级别的这个总 呃总包组装的一些需求。那么尤其是国内头部的企业,我们看到就是历史上面在数据中心这个页冷的环节,呃已经具备了股,已经具备了这种全面条产品供应能力的啊,或者说是这种数据中心级的集成经验的这个厂商啊,比如说深林高兰伊维克、川润,其实目前和海外 isec 这一条链上的呃客户都有一些实质性的进展。 那我们认为的话,这个这个页冷板块来看的话,它作为数据中心基建呃最重要的一个组成部分,那么整体的板块情绪以及相关的一个底层逻辑,一个就是海外大厂开派斯的 持续高增速啊。第二个就是芯片性能的提升和功耗提升,它是一个强相关和正相关的。那么第三个就是算力,还是基于算力的镜头是电力啊,那么其实在芯片的功耗持续的在提升,那么这里面会涉及到的就是整个数据中心啊, p u e 值啊, 是有一个持续下降的一个需求的啊,那么啊从而就要求在夜冷在散热的这一块上能提供一些啊,这个更低功耗的,然后更节能的这样的方案。那么另外的话,我们觉得产业端的话,就需要持续去关注一些节点性的事件,比如说像啊业绩期啊,或者是啊这个海外啊大厂以及国内大厂的一些审厂啊,订单的释放的节奏啊等等的。 那么标地上面来看的话,目前啊和海外大厂对接,然后近期大家讨论的比较热的啊,像森林和这个 a w s 的 合作啊,那么科创新源在 n v 链上的一个推进,以及国内和这个呃祥字节的一个合作, 那么高兰这一边后续啊,也是有机会在这个 a w s 和谷歌呃上面拿到一定的这个订单,然后像川润股份和维地啊的一个这个对接和这个合作的这个展望,那么呃在几个大厂都经过了审场之后,也是啊开始 这个陆续的去接在手订单,然后做批量交付的一个进度了。那么从新技术方面的话,我们觉得啊,像前面提到的这个叶轮版的铜材料的一些迭代的话,我们是建议大家去关注这个钜微合金啊,那么从去年开始金属公司就已经有提到这个自己在呃去开发,以及说去对接送样的一些铜和这个金刚石的这个呃 合金材料啊,然后比如说像呃以及就是呃这个,嗯,这个 team 方向上的,像科创新源,斯邦达、沃尔德啊,然后威风道这个方向上的这个铝龙股份啊, 另外的话就是重要的这个零部件的供应商啊,那么像刚才提到的笨啊等等的啊,像这个飞龙股份啊,然后以及新锐科技在这个快捷所领域啊,可能会呃有比较快的一些代工的订单可以到手。那么这边是啊夜冷的一个情况更新。

彭博那边传来英伟达的劲爆消息了啊, c p o。 又有立好了,英伟达计划明年向我们交付 h 两百芯片了,时间是 before the lunar new year holiday mayfair, 也就是明年的农历春节假期之前啊。首批的交付规模是五千到一万个芯片模组,相当于四到八万颗 h 两百芯片。 不过这个只是小作文啊,我们这边呢,估计也要等川普同意才行。说明啊,我们这边缺芯的情况非常严重, 互联网大厂还需要 h 两百的骗子来缓解算力的需求啊。如果这个消息属实的话,批量的 h 两百骗子发过来,必须搭配顶级的光模块、 服务器以及夜冷设备才可以实现它的性能最大化啊。那么那几家龙头企业一定会受益,就等这个消息确认啊。我估计下个月彭博还会有相关的消息出来,到时候我会分享,喜欢点点关注,希望能帮到你。

大家好,我是一凡。本期我们聚焦二零二六年英伟达 gtc 全球开发者大会,深度梳理其算力观互联大模型全站战略升级,看懂英伟达从芯片霸主到全站 ai 服务商的关键转型。本期内容分五大核心模块层层递进解读。 第一,大会总览与核心战略闭环。第二,新一代 ruben gpu 平台 c p u 加液冷重构算力底座。第三, spectrum x 系列 c p u 交换机打通万卡集群互联瓶颈。 第四,两百六十亿美元加码自研开源大模型,补全生态闭环。第五,战略总结与国内产业链核心机遇。二零二六年, g t c 是 英伟达的关键战略转折点, 核心式完成从全球 ai 芯片霸主到全站式 ai 顶尖服务商的全面转型。本次大会三大核心发布形成了完整的商业闭环,以 rubin gpu 平台为算力底作用 cpo 加液冷突破算力与功耗瓶颈。以 spectrum x 系列 cpo 交换机为互联枢纽, 打通万卡集群光互联通道,释放算力价值。以自研开源 ai 大 模行为生态抓手,定义技术路线,反向拉动硬件需求,巩固行业话语权。这一闭环的核心根基就是新一代 ruby gpu 平台。 ruby 平台并非简单的参数迭代, 而是以 c p o 供风装光学加液冷原生集成,彻底重构了 ai 算力底座的技术标准。接下来,我们从规格、技术、市场、产业链四个维度全面梳理出并平台分三大版本,精准覆盖全场景 核心差异聚焦算力互联与功耗。旗舰版 ruben ultra f p 八,算力十二 ef lops 一 千两百瓦功耗, 原生集成一千六百 gpe cpu 接口,面向万卡大模型训练与国家级超算。企业版 rubin pro 三点八 e f lops 算力,六百瓦功耗 可选八百 gpe cpu 接口,适配行业智算中心。基础版 robin 一 点二 e f lops 算力,三百五十瓦功耗, p c i e 六点零接口,覆盖边缘 ai 与工作站场景。 其中原生集成 c p u 的 旗舰 ultra 是 决定行业走向的核心产品。 robin 平台四大核心技术突破,精准命中当前 ai 算力痛点。 第一, c p u 原生集成破互联瓶颈, g p u 与一千六百 g p e 硅光引擎共封装丹比特传输功耗降百分之六十,解决算力越强通信越卡的行业难题。 第二,全链路液冷解散热难题,全系适配冷板浸墨式液冷 ultra, 原声配套 u q d 八 v 二接口支撑单机柜一百三十千瓦高功率密度。第三, ai 训练全链路优化,原声兼容 coda 与尼莫框架 f p 八训练效率较上一代提升百分之八十, 训练周期缩短百分之四十。第四,万卡集群协调优化,端到端通信小于等于两跳,食言小于零点五 mill 秒,万卡集群算力利用率从百分之五十拉满至百分之一百,技术决定上限,市场需求决定天花板。 二零二六到二零三零年 rubin 平台权威预测如下,二零二六年首发元年,总出货八十五到九十五万片,其中 ultra 出货十二到十五万片,对应全球市场规模四百八十到五百二十亿美元,核心驱动力来自头部云厂商批量锁定 二零二七年三点二 t c p o 适配落地超算订单放量,总出货翻倍至一百八十到两百万片, ultra 出货三十五到四十万片,市场规模突破千亿。二零三零年智算中心建设高峰叠加存量替换启动,总出货七百五十到八百万片, ultra 出货两百八十到三百二十万片,市场规模达三千到三千三百亿美元。 ruben 平台将开启英伟达长达五年的新一轮增长周期。供货节奏方面,截至二零二六年三月, ruben 全系列已实现量产现货, ultra pro 直供核心客户交期七到二十天,基础版交期五到十天, ultra max 增强版已开放预定, 二零二六年 q 四正式供货,现货优先保障微软 mate、 阿里云等战略客户。产业链带动效益明确,每一万片 ultra gpu 直接带动二到二点五万只 cpu 光引擎、两百到三百台 spectrum x 交换机、一千到一千两百套液冷系统需求 是 c p o。 全产业链规模化商用的核心在体。讲完算力底座,我们再看如何释放万卡集群算力。 spectrum x 系列 c p o 交换机行业共识,算力定上线互联定下线 单卡算力再强,互联带宽不足、时延过高,万卡集群算力也无法充分释放。本次英伟达发布的 spectrum x 系列,正是要打通万卡集群互联瓶颈,实现光互联能效比的跨越式跃升。 spectrum x 三大核心型号全覆盖 ai 集群业绩架构、全场景 全链路 cpu 原声适配旗舰骨干型 sn 六八零零 l d 单台交换容量四百零九点六 tb, 每秒 五百一十二个八百 gb e c p u 原声端口五 r u 机型加原声夜冷,适配超大规模 ai 工厂骨干节点标准汇聚型 sn 六八一零 ld 单台一百零二点四 tb, 每秒容量一百二十八个八百 g p e c p u 原声端口二 r u 机型加原声夜冷, 适配集群骨干与汇聚节点接入型 s n 六六零零 l d 一 百零四 t b 每秒容量六十四个 o s f p 端口,夜冷可选适配业绩架构接入节点, 全系列均与入病 gpu 平台完成深度协调优化。 spectrum x 纳四大核心技术优势,精准命中 ai 疾群互联痛点。第一, cpu 原生集成体效硅光引擎与交换 a s i c 共封装,单端口功耗降三点五倍,整机功耗降百分之四十, 光连接点减少百分之八十,故障率降百分之九十。第二,极致带宽低时延,单芯片最高一百零二点四 tb 每秒交换容量,端到端转发时延小于零点五 mill 秒,为大模型训练提供确定性传输保障。 第三,全链路液冷协调,全系搭载 uq d 八 v 二液冷接口,与 robin gpu 形成算力加互联液冷一体化方案,适配一百三十千瓦机柜高功率密度。 第四, ai 生态原生优化与 cuda ai enterprise 深度联动, rosy 协议原生优化与 rubin gpu 实现端到端算力调度协同。市场预测方面,二零二六年 cpo 商用元年, spectrom x 系列出货量预计二点三万台,市场规模三十五到四十亿美元。二零二七年出货量五点四万台,市场规模八十五到九十五亿美元。二零三零年出货量二十万台,市场规模两百三十五亿美元。二零二六到二零三零年, c a g 二达百分之四十八到百分之五十五。 国内产业链核心机会明确,光引擎供应百分之八十份额来自中际讯讯、佳光子供应 叶冷配套核心厂商为曙光树创、英维客终端客户微软 mate、 阿里云等,已锁定二零二六年超五万台订单。硬件全站梳理完毕,接下来我们看英伟达最颠覆行业的动作。两百六十亿美元加码自研开源大模型长期以来,英伟达的核心优势在硬件, 全球 ai 芯片试占率超百分之八十,但 ai 模型层的技术标准始终由 open ai、 meta 等厂商定义。本次英伟达以两百六十亿美元巨额投入,补全全站生态最后一块拼图,完成从芯片制造到全站式 ai 顶尖实验室的战略转型。 技术路线上,英伟达选择了开放权重中间路线,公开模型权重供免费下载微调,满足企业数据隐私与定制化需求。 训练数据与底层代码不全部公开,兼顾生态开放性与技术壁垒。其核心目标是从底层定义 ai 模型技术路线,让自家软硬件成为行业事实标准, 同时通过开源模型反向拉动算力需求,形成正向循环。为此,英伟达宣布,未来五年累计投入两百六十亿美元,覆盖开源大模型全产业链,关键里程碑清晰,已完成五千五百亿参数超大模型预训练与技术验证。 本次 gtc 大 会将正式发布 namtron sunsuper 开源大模型。二零二六年底,二零二七年初,首批自研开源大模型正式发布并开放权重下载。 二零二六到二零三零年,完成开源大模型全产业链覆盖,形成全站生态赛道,市场空间广阔。二零三零年,全球基础大模型市场规模将突破五千亿美元, 年复合增长率超百分之四十,是 ai 行业增速最快的赛道之一。金融机构预测,若英伟达能在巩固硬件霸主地位的同时,拿下基础模型市场百分之十的份额,三年内每年可额外贡献五百亿美元营收, 形成硬件加模型双增长曲线,进一步巩固行业霸主地位。三大核心发布拆解完毕,最后做核心战略总结与国内产业链机遇梳理。 本次 gtc 大 会,英伟达通过 rubin gpu 算力底座加 spartman x cpu 光互联加自研开源大模型三大发布,完成了 ai 全站能力的闭环构建。 硬件端以 cpu 加液冷突破算力与互联物理瓶颈,确定下一代算力集群技术标准。 生态端以开放权重大模型定义研发范式,实现模型拉动、算力算力巩固生态的正向循环,彻底拉开与竞争对手的差距。对国内产业链而言,本次大会带来两大明确机遇, 国内 c p o 光引擎核心器械业冷配套厂商将深度受益于 rubin 平台与 spectrum x 交换机的规模化放量。 二是应用机遇,国内企业可依靠开放权重模型快速完成行业大模型定制化开发, 加速 ai 场景落地。最后,本报告的数据来源于英伟达官方公告产业链上市公司的公开信息及权威机构研报。需要说明的是,本报告仅供交流,不构成任何投资建议。感谢聆听,再见!

据习大会聚焦 ai 算力与推理革命,黄仁勋主题演讲发布三大核心突破,一是飞跃架构,二零二八量产,为全球首款一点六纳米台积电 a 十六 i 芯片,深度集成硅光通信,带宽提升十倍,能耗降百分之九十,推理能效比达前代三点二倍,单芯片功耗超五千瓦。产业链如下。

在当地时间周一的主题演讲中,王仁勋展示了新一代 ai 计算平台 vera rubin grog 三 lpu 芯片 cpu 交换机与太空数据中心模块,并推出 nimco 智能体基础设施,试图构建从边缘数据中心到轨道计算的全站 ai 生态。 在当地时间周二的公司活动上,王仁勋向分析师和投资者确认,英伟达预计将达成确认并交付超过一万亿美元的业务,称对实现超过一万亿美元的营收充满信心。王仁勋说,我可以确定的是,需求正以非常大的规模加速增长,而我们将能够通过供应来支持这一需求。