粉丝4.6万获赞9.2万

英伟达发布了新的芯片平台如饼,从应用角度看,最大的变化是对上下文的记忆,显著增加的是各种更高效的连接交换环节以及散热和新的存储架构。 一、 pcb 环节,为满足更高的传输速率, m 九级附铜板以及核心原材料需求会爆发。二、光通讯环节,根据第一性原理,光是最快的传输截止光模块一点六 t 进入了放量期,后续呢,会是三点二, t c p o 及 o c s 都是技术趋势。三、散热系统摩尔进液冷型摩尔定律走到了尽头,散热成了效率提升的最大的卡点,单机功耗大幅提升,使液冷变为了标配。四、存储环节, 数据传输加固的变化利好向量周期库存储速度要求提高篮子里边最高的规格 slc 利好最后鹿晗大幅降低了推力成本,利好各种 ai 的 应用落地。所以呢,我们可以重点关注以上技术环节对应的龙头股票呢投资机会。

今天这期视频跟大家聊一聊最近的产业上的一个进展啊,就是我们在一月六号 cs 展上啊,我们英伟达 ceo 黄仁勋啊发布的这个呃主题演讲,包括他推出的下一代的如饼架构。 呃,我们这一期视频的主要是跟大家讲一讲这个拆解一下这个如饼架构的一些技术特色啊。一个是如饼架构 将 ai 正式迈入物理时代啊,开启半导体测试的量价启程的周期啊。那么首先呢,入饼价购正式迈入量产阶段,预计首批产品将于二零一六年下半年呃送达客户,那么该平台通过顶尖硬件集成与架构创新,再次推高了数据 中心算力的上限,也就是呃入饼平台算是算力的又一节点时刻啊。呃,首先物理复杂程度的登顶啊。 呃,首先它采用的是台积电的呃三纳米的工艺啊,晶体管的数量突破了三千一大管,那么根据量测模型的晶体管数量的翻倍,将驱动测试数据量成三倍以上的增长,因为晶体管一多,你的整个芯片的这个 从后端验证测试可能就要转向事前预防了,所以你这种三倍以上的扩张,呃将大大的提高这个半导体测试芯片测试的这个用量。那么同时呢, hbm 四引发通道资源的挤兑,因为 ruby 里边集成了八颗 hbm 四啊,所以它的这个呃存内存的这个 预期又拉高了啊,那么测试机的数字版卡资源消耗翻倍啊,导致了它的整个的成成本,包括它呃产能维持成本,包括单台测试机的量都要提升啊,这是一个指数型的增长啊, 所以呢,在这个最新的入品架构里,预计总测试时长将延长百分之五十,也就说可能要花大量的时间啊,这个芯片在量产的阶段可能要大量的啊,包括我们讲的就是全检逻辑啊,全检全周期都要去检验测试 啊。呃,首先就是说入品,它面向的是未来机器人和自驾的这种物理 ai 时代啊,那么对可信的要求近乎万美元,所以量率乘极定律较为残酷,测试非常关键啊, 它的重心将转为事先预防啊。那同时黄仁新确认,这个烙饼架构采取百分百液冷的方案,取消了风扇以及传统的软管啊。冷板的架构上采用类似 g b 两百的这个大冷板的模组方案,一块大冷板覆盖一个 cpu 啊,加两个 gpu 的 组合,并采用 g b 三百单一小冷板的方案 啊。那么如饼交换机的方案与 g b 三百的架构类似,小冷板覆盖,同时光模块环节也采用冷板覆盖,所以全液冷的这个架构趋势是非常明显的,所以预测在这个液冷方案方面也能提升它大概百分之四十左右的价值量啊, 所以这个可能呃,叠加近期的这个如饼架构的催化啊,大家看到包括我们国产替代的这个设备,半导体设备的趋势呢,大家可以看到市场上表现 非常亮眼的,最近的我们国产的半导体设备啊,测试零部件啊,这些表现都不错。这个其实也是我之前很早跟大家讲的,就是半导体设备今年的先进制程的扩展逻辑啊,它的业绩是比较确定性,如果我们要 m f 三一级报啊,三月份的话, 那么春季造动如果是机构去做业绩线的话,国产替代半导体设备的业绩较为明确啊,较为明确呃,所以这也是近期的市场表现的一个逻辑了啊。所以这期视频呢,就主要跟大家讲一讲最近比较热的这个全新一代的主品架构啊,同时呢也是看到了市场上的聪明资金已经在选择一些方向的新机会了啊, 同时我觉得在这种量能维持下去的话,呃,能,如果维持两万五到三万一之间的量能的,所以就说你可能看好的一些 中期方向,我觉得不妨坚定的多看一看,哪怕呃说日内的调整,或者说这种,呃指数十几连阳之后的这种调整啊,调下去可能或许都是机会啊。所以就是还是那个逻辑不变,就是你看好的一些方向,或者说他未来能预期到要爆发要增长的方向,其实 重要的是你的认知到了之后,剩下的就是看你的耐心和交给时间啊。好吧,今天视频就到这。

推理成本大砍九成吗?英伟达这波操作要颠覆 ai 了吗? c s 展会上,英伟达一记重锤砸向 ai 圈,新一代如饼 ai 平台横空出世,推理成本直接叫上一代 blackwell 砍去百分之九十,相当于只要原来十分之一的成本,就能搞定同等 ai 推理任务。 更狠的是,他还把训练性能拉到了 blackwell 的 三点五倍,推理性能直接翻五倍。这里藏着两个关键问题,英伟达到底靠什么魔法做到成本大跳水呢? 这波降维打击之下,华为、韩五 g 这些国产算力芯片厂商能顶得住吗?今天咱们就把入病平台扒透,不仅搞懂它的核心机密,还会把它和国产主流芯片拉出来正面 pk。 最后说清,这成本下降九成,对整个 ai 行业意味着什么? 旭哥十二月十八日发布公开视频,国产英伟达那两期视频中已经给大家讲解过,半导体方面,国风新材、中磁电子等也分别在公开内容和会员内容中多次学习, 很多粉丝和会员早早的学习以后,到现在已经收获很大了。但我敢说,百分之九十九的人会继续错过旭哥这期学习机会。咱们接着聊正题 一,先搞懂本质, ruby 到底是个啥?不是单颗芯片,是超级计算机套装。很多人一听到新平台就以为是某颗芯片升级了, 其实 rubin 玩的是更高维度的玩法,它是由六款全新芯片组成的 ai 超级计算机套装。这六款芯片分别是 vera c p u、 rubin g p u、 第六代 nv link 交换机、 connectix 九超级网卡、 lufield 四 d p u 和 spectrum 六以太网交换机,每一款都有专属分工,组合在一起,形成了一个完整的算力生态。 用个通俗的比喻理解,这就像一支顶级的特种部队,不是靠单个士兵能打,而是突击手、狙击手、通讯兵、后勤兵完美协同,每个人干自己最擅长的事,整体作战效率比一群散兵游泳高得多。 以前的 ai 平台可能是全能兵,单打独斗而如饼,直接组了个专业军团,这也是它能实现性能和成本双重突破的核心基础。这里先抛个悬念,光靠组队就能降本十倍,肯定没这么简单,真正的关键在于协调、效率和技术创新的双重加持。咱们接下来慢慢拆。 二、核心拆解英伟达靠什么把推理成本砍到十分之一?三、大核心杀手锏这部分是重点,咱们拆成三个层面讲,每个层面都对应一个成本下降的关键逻辑,看完你就明白英伟达的底气在哪。一、杀手剪一六,芯片极致协同解决内耗问题 以前的 ai 平台,不同芯片之间的通信就像走乡村小路,数据传输慢,还容易堵车,很多算力都浪费在了等待数据上。这就像你和队友配合干活,信息传半天传不到,效率自然低,成本也就降不下来。 ubsid 平台专门解决了这个问题,通过第六代 nv link 交换机和 connectix 九超级网卡这些高速桥梁,把六款芯片的通信宽带拉满, hbm 四显存宽带达到二十二 tb 每秒,是 blanco 的 二点八倍。数据在芯片之间传输,就像走高速公路,畅通无阻。 原来浪费在等待上的算力全被激活了,单位算力的成本自然就降了。更关键的是,这个套装是英伟达全自主设计的, 从硬件到软件生态完全适配,不会出现兼容问题。就像定制的拼图,每一块都严丝合缝,而不是把不同品牌的零件应凑在一起协调效率直接拉满。二杀手剪二第三代 transformer 引擎让算力不做无用功 ai 推理的核心是处理海量数据,以前的芯片处理数据时,不管有用没用,都按一个标准处理,就像用大炮打蚊子,浪费了大量算力。而 ruben gpu 搭载的第三代 transformer 引擎,就像精准的智能筛选器,能针对性处理不同类型的数据。它支持的 nvfp 四数据类型,能在不影响推理精度的前提下, 数据处理的荣誉度降到最低。简单说就是只花最少的算力干最核心的活。这直接让 ruben 的 推理算力达到五十, flops, 是 blackwell 的 五倍,算力变高了,单位任务的成本自然就降了。这是典型的效率提升。降本三杀手减三,架构与工艺优化降低硬件本身成本 很多人以为性能提升就意味着成本上升,但英伟达反其道而行之。 ruben 平台没有单纯堆积晶体管,而是通过架构优化,让硬件的性价比更高。 比如它的 ver c p u 搭载八十八个定制核心,晶体管数量两千两百七十亿,看似很多,但通过合理的架构设计,让每一颗晶体管都能充分发挥作用。 另外,入病平台采用了百分之八十部件液冷散热的设计,不仅解决了高性能芯片的散热难题,还降低了长期使用的能耗成本。你也知道的,数据中心的电费可是一笔大开支,能耗降了,整体的推理成本也会跟着降。 更重要的是,微软如饼机箱的组装时间从两小时缩短到五分钟,规模化生产后,硬件的制造成本也能进一步降低。 这里给一组关键数据,如饼平台训练一百万亿代币的测试级,所需 gpu 数量仅为 blackwell 的 四分之一,而每个代币的推理成本直接降到原来的十分之一,推理成本降低了九成,这绝对是颠覆级的成本革命。 三、先厘清核心概念,训练算力与推理算力的区别、关系及未来趋势。讲完如饼平台的降本秘密, 很多朋友可能会有个疑问,既然平台既提升了训练性能,又提升了推理性能,那训练算力和推理算力到底有啥不一样?为啥这次英伟达重点强调推理成本下降?这俩的关系到底是啥?搞懂这个,才能真正明白 root 平台的价值所在。 一、核心区别,一个是教会 ai 做事,一个是让 ai 干活。用个也许不太恰当的比喻,训练算理就像老师背课,推理算理就像学生做题, 老师背课的时候要把所有知识点、答题方法、易错点都吃透,还要整理成教案,这个过程需要海量的资料和大量的思考,耗时耗力。而学生做题,你可以理解为是拿着老师背好的教案,针对具体题目给出答案,虽然也需要思考,但难度和工作量远小于背课。 具体到技术层面,区别主要在三个维度,第一,核心目标不同。训练算力的目标是学习规律,把海量数据输入模型,让模型从数据中总结出规律, 形成可付用的算法模型。推理算力的目标是应用规律,用训练好的模型处理新的输入数据,快速给出结果。比如你用 ai 生成图片、语音助手回答问题,都是推理过程。第二,计算特性不同。 训练算力需要大规模并行计算,要同时处理海量数据,对算力的峰值要求极高,还需要超大的显存贷宽来支撑数据传输,就像老师背课要同时翻几十本参考书。 而推理算力更看重低延迟、高能效,不需要同时处理海量数据,但要快速响应单个或多个小批量请求。比如自动驾驶汽车,每秒要处理传感器的实时数据,必须在毫秒级给出决策,这就要求推理算力反应快, 不卡顿。第三,使用场景不同。训练算力主要用在科技巨头、科研机构的大模型研发中, 比如 openai 训练、 gpt 系列、国内厂商训练、文心一言都是训练算力的核心应用场景。一个模型训练完成后就可以投入使用,一个模型训练完成后就可以投入使用。推理算力则渗透在所有 ai 应用的落地场景中, 从自动驾驶、人形机器人到手机 ai 功能、智能电网,只要有 ai 发挥作用的地方,就需要推理算力,而且是持续性的需求,又相互促进。 二、核心关系先有训练,后有推理,相互依存又相互促进。首先是先后关系,没有训练算力就没有可用的 ai 模型,推理算力也就成了无米之炊。 反过来,推理过程中产生的新数据又能反馈给训练环节,让模型持续优化。比如自动驾驶汽车在行驶中遇到的新场景数据,会被用来重新训练模型,让后续的推理决策更精准。 其次是成本结构关系,训练算力是一次性高,投入一个千亿参数的大模型,训练一次可能要花费上千万的成本。而推理算力是持续性低、成本叠加,虽然单次推理成本低,但随着应用场景的普及,累积成本会非常高。 这也是为什么英伟达这次重点功课推理成本。只要把推理成本降下来,整个 ai 应用的商业化门槛就会大幅降低。三、未来需求关系,推理算力需求将远超训练算力成绝对主力。其实行业内有个共识,未来五到十年,推理算力的需求规模将是训练算力的十到一百倍。 为什么会这样?核心原因有两个,第一,大模型的训练具有一次性属性,一个成熟的大模型不需要反复训练,而推理是高频次重复属性。一个模型可能要支撑一级用户的实时请求,比如 chat gpt 每天要处理数亿次对话请求,每次对话都是一次推理。 第二, ai 应用正在从少数巨头的研发游戏走向全行业的普惠应用,自动驾驶、人形机器人、智能家居等场景的普及,会带来推理算力的爆发式增长。举个具体例子,一辆 l 四级自动驾驶汽车,每秒需要处理的传感器数据量约为一百 g b, 对 应的推理算力需求约为一千 tops。 如果未来全球有一亿辆自动驾驶汽车上路,仅自动驾驶领域的推理算力需求就会达到十的十二次方 tops, 而目前全球整个 ai 行业的训练算力需求总和也才十的八次方 tops 级别, 两者的差距会随着应用普及越来越大。而 ruby 平台的出现正是踩中了这个趋势,提前布局推理算力的效率和成本优化,为未来推理算力的爆发式需求做好了准备。这也是为什么说 ruby 平台不是简单的技术升级,而是对未来 ai 产业格局的提前卡位。 四、 rubin vs 国产主流算力芯片差距在哪?讲完英伟达,咱们最关心的就是国产芯片能不能打,这里做了一张对比表,把 rubin 和华为韩五 g、 海光、木兮摩尔现成的最新芯片核心参数摆出来一目了然。从对比能看出三个关键结论, 一、算力差距明显。根据查询公开信息可知, rubin 的 推理算力是我们顶尖芯片的五到五十倍,这是技术代差导致的,短期内想追上难度极大。 二、成本差距客观存在,我们芯片的相对推理成本是 ruben 的 四到九倍,核心原因是算力效率低,生态适配成本高。三、我们的优势在差异化, 华为的全站自主、海光的 x 八六兼容韩五 g 的 行业适配,这些都是针对国内市场的精准定位,在安全可控和垂直场景下有不可替代的优势。可能有人会问,国产芯片在成本和性能上都有差距,是不是就没机会了?其实不然,后面咱们会讲市场格局正在发生变化。 五、深度影响如本及国产平台将重构哪些行业?当推理成本降到原来的十分之一,当高算力平台变得普惠,整个 ai 产业的应用边界会被彻底打破。 接下来咱们就逐个拆解如品平台以及未来有可能追上它的国产平台,会对人形机器人、新能源车、算力中心等多个领域以及我们普通人的生活带来哪些颠覆性影响?一、人形机器人从实验室、玩具到家庭必备,量产成本大降 人形机器人是 ai 算力需求最苛刻的场景之一,它需要实时处理视觉、触觉、听觉等多模态数据, 还要精准控制身体的几十个关节,既要看得懂环境,又要动得稳,对推理算力的低延迟和高能效要求极高。 目前主流的人形机器人员形机,光是单台的推理算力成本就超过十万元,这也是他无法量产的核心原因之一。新算力平台的出现会彻底改变这个局面,五倍的推理性能提升和十倍的成本下降,会让单台人形机器人的推理算力成本降到一万元以内。这意味着什么? 意味着人形机器人的量产门槛被大幅降低。未来三到五年,我们很可能会看到人形机器人走进家庭,承担家务,照顾老人孩子, 走进工厂,替代重复性的体力劳动。更重要的是,国产平台如果能追上新平台的水平,会打破海外算力芯片的垄断,让国内人形机器人厂商摆脱算力依赖,进一步降低成本。 想象一下,以后你可能有个能做饭、打扫、遛狗的人形机器人,而它的价格可能只相当于一台高端冰箱,这就是低推理成本带来的普惠价值。二、新能源车加速迈入 l 四级自动驾驶车路云协调更高效算力是自动驾驶的核心生产力,这句话一点都不夸张。 要实现 l 四级以上的全自动驾驶,汽车每秒需要处理的传感器数据量高达四千 gb, 需要的推理算力超过一零零零 tobes。 目前,这样的算力成本让 l 四级自动驾驶只能在少数测试车辆上应用。 新平台的低延迟、低成本推理算力,会让 l 四级自动驾驶的商业化落地提前三到五年。一方面,车载 ai 芯片的成本会下降,车企不需要再为了算力付出高昂的成本,能把更多资金投入到传感器、底盘等其他环节。 另一方面,新平台支持的车路云携同架构,能让车辆通过五 g、 六 g 网络,调用云端的推理算力,解决车载算力不足的问题。 比如在复杂的路口、场景,车辆可以把传感器数据上传到云端,借助云端的平台快速完成决策,再把指令传回车辆,实现毫秒级响应。对我们普通人来说,这意味着未来的新能源车会更安全、更智能,不仅能自动避让障碍物、规划最优路线, 还能结合实时交通数据避开拥堵,甚至能根据驾驶员的驾驶习惯调整车辆的操控风格。而国产算力平台的追赶,会让国内新能源车厂商在自动驾驶领域摆脱对国外厂商的依赖,形成自主可控的技术生态。 三、算力中心从高能耗巨兽到高效节能中书,运营成本大降算力中心是 ai 算力的大本营,目前全球的算力中心都面临一个核心问题,高能耗数据中心的电费占运营成本的百分之六十以上,而其中大部分能耗都消耗在了算力芯片的散热上。 撸饼平台采用的百分之八十部件液冷散热设计以及高效的协调架构,会给算力中心带来两大变化。第一,能效比大幅提升。 rubin 平台的 poe 能降到一点一以下,而目前国内主流算力中心的 poe 在 一点二到一点三之间。别小看这零点一的差距,一个十万台服务器的算力中心,每年能节省上亿元的电费。 第二,单位空间算力密度提升。 rubin 的 六芯片协调架构能让每平方米机房的算力提升三倍以上。这意味着算力中心不需要再占用大量土地,建设成本也会大幅降低。 对国内来说,国产平台如果能追上入便的水平,会加速国内制算中心的建设进程。目前国内已经确立了八个算力枢纽,这些枢纽大多分布在汽车产业集中的区域,高校的算力中心会为这些区域的 ai 产业、汽车产业提供坚实的算力支撑,形成算力产业的良性循环。 四、无人机及低空经济解锁更多应用场景从专业领域到大众消费,低空经济的核心在体。 目前无人机的应用还主要集中在航拍、测绘、物流等专业领域,核心限制之一就是推理算力不足。比如物流无人机需要实时识别障碍物、规划最优航线。农业无人机需要精准识别作物并虫害, 这些都需要强大的推理算力支撑。而目前的算力成本让普通消费者难以承受。 rubin 平台的低推理成本会让无人机的算力成本下降百分之九十,这会解锁更多大众消费场景。 比如个人娱乐,无人机能实现自动跟随、智能避障、 ai 构图应急救援,无人机能实时识别被困人员,规划救援路线。 更重要的是,低推理成本会推动无人机集群的应用,比如几十架甚至上百架无人机协同作业、大面积的农业质保、城市的环境监测等。国产平台的崛起,会让国内低空经济产业摆脱海外算力依赖,比如大疆夜行等国内无人机厂商能用上自主可控的高算力平台,进一步提升产品竞争力。 五、 ai 加消费电子终端设备更智能本地 ai 功能全面爆发现在我们的手机、平板、智能家居等消费电子虽然都有 ai 功能,但大多需要依赖云端算力, 存在延迟、高隐私泄露风险等问题。而 ruby 平台的低功耗、低成本推理算力,会推动 ai 功能从云端走向终端,也就是让消费电子本身具备强大的 ai 推理能力。比如手机能实现离线的 ai 视频编辑、 ai 语音翻译、 ai 图像识别、 智能家居能精准识别用户的语音指令习惯偏好,实现个性化的场景控制。智能手表能实时监测人体的健康数据, ai 分 析后给出精准的健康建议。这些功能不需要联网,响应速度更快,隐私保护也更好。 对消费电子行业来说,这会引发新的产品迭代浪潮。具备强大本地 ai 功能的设备会成为市场主流,国内的消费电子厂商如果能用上国产的高算力平台,会在产品创新上更有主动权,摆脱对海外芯片的依赖。七、对普通人的生活 ai 融入衣食住行,生活更便捷、更安全。 前面讲的所有行业影响,最终都会落到我们普通人的生活上。总结下来主要有三个方面的改变,第一,出行更安全便捷, 自动驾驶汽车能帮我们省去驾驶的疲劳,无人机配送能让快递更快送到家,城市交通会因为 ai 调度变得更顺畅,堵车会越来越少。第二,生活更轻松省心。 人形机器人能帮我们做家务,智能家居能读懂我们的需求。 ai 加医疗能让我们在家就能享受到精准的健康诊断。 ai 加教育能实现个性化的学习辅导,这些都会让我们的生活质量大幅提升。第三,工作更高效。 ai 能帮我们处理繁琐的重复性工作,比如文案拷写、数据整理、客户沟通,让我们有更多时间专注于创造性的工作。而这一切的前提都是推理算力成本的大幅下降。录屏平台以及国产追赶平台正在把这些美好的场景从科幻变成现实。 六、推理成本降九成到底意味着什么? ai 行业要变天了!这部分咱们从行业和普通人两个维度把这件事的影响讲透,这也是最有价值的部分。 一、对 ai 行业从贵族游戏变成全民普惠以前 ai 大 模型的推理成本极高,只有互联网巨头和大型企业能玩得起。比如训练一个千亿参数的大模型,光推理阶段的电费就要几百万。而 rubin 把成本砍到十分之一后,中小企业甚至个人开发者都能负担得起 ai 推理的成本了。 这会直接加速 ai 技术的商业化落地。比如自动驾驶的 ai 诊断能在基层医院普及, 中小企业也能用上定制化的 ai 客服、 ai 数据分析工具。简单说, ai 不 再是少数巨头的奢侈品,而是变成了各行各业都能用的必需品。二、对算力市场竞争从性能比拼转向效率比拼。 以前大家比 ai 芯片主要看谁的算力高,但如饼的出现,标志着行业竞争的核心变成了谁的效率高、成本低。因为当算力足够用的时候,成本就成了企业选择的关键因素。 华为的全站自主方案能解决卡脖子问题,虽然成本比如并高,但在政策和供应链安全的前提下,这是更稳妥的选择。这说明成本不是唯一的竞争因素,差异化需求同样重要。三、对普通人, ai 服务会更便宜、更普及 你可能没感觉,但 ai 推理成本的下降最终会传导到我们每个人身上。比如以后的 ai 生成视频、 ai 语音助手、 ai 教育辅导,这些服务的价格会越来越低。 自动驾驶技术的普及,会让出行更安全、更廉价。 ai 医疗诊断能让我们在小地方也享受到优质的医疗资源,这就是技术进步带来的普惠价值。 七、国产芯片的突围之路不是硬钢,而是精准、错位。看完前面的对比,可能有人会觉得国产芯片压力很大,但其实国产厂商已经找到了自己的突围路径,核心不是和英伟达硬钢性能,而是做精准错位竞争。 一、生态共建摩尔县城,参与制定制算开放互联 o s a 标准,支持一千零二十四张芯片组网宽带突破 t b 每秒级别。木兮和接月星辰搞芯片模型平台全链路协调,让模型效率提升三倍,通过生态协调弥补单芯片性能的不足。 二、垂直场景突破韩五 g 在 政府制算中心场景的试战率很高,海光信息的芯片兼容 x 八六生态,深受数据中心客户青睐。华为则在运营商、政企项目中强势突围,比如独家中标中国移动的重大 ai 项目。 在这些细分场景里,国产芯片的适配性比英伟达更好。三、政策与市场红利国内制算中心的建设主力是互联网企业、运营商和地方,这些客户更倾向于选择国产芯片,为国产厂商提供了广阔的市场空间。 二零二四年,国产 ai 芯片份额已经升到百分之三十,在刚过去的二零二五年,预计能够突破百分之五十,替代趋势非常明显。八、国产芯片的追超之路,技术方向与潜力项目解析 很多朋友看完我们与英伟达的差距,会问我们,难道只能靠差异化错位竞争?有没有可能在核心技术上缩小差距,甚至在部分场景实现反超?答案是肯定的,目前国内在多个技术方向和项目正在加速追赶,咱们逐一拆解。 一、核心追超方向三、大技术路径已显现潜力要缩小与英伟达的差距,核心不是单纯堆算力,而是在系统协调、效率、关键配套技术、全站生态自主三个维度同时突破,这也是国内厂商当前集中发力的方向,而且已经有了不少实质性进展。 第一个方向是 chiplet 心力技术,这相当于绕开先进制程限制的弯道超车力气,简单说就是把芯片拆成多个功能心力,像拼积木一样组合,既能提升性能,又能降低先进制程的依赖。 比如英伟达 roubo 平台靠六芯片协同实现效率跃升,而国产厂商在 chiplet 上的突破,正是要在协同效率上对标,甚至超越这种系统级优势。第二个方向是先进存储配套技术, ai 芯片的性能发挥离不开高宽带存储器的支撑。英伟达 roubo 用 hbm 四十限二十二 tb 每秒宽带,这是它效率高的关键之一。之前国内 hbm 几乎空白,但现在已经实现从零到一的突破,这会直接解决国产芯片数据传输瓶颈的痛点。 第三个方向是全站自主生态生化。英伟达的优势不仅在硬件,更在扩展软件生态的垄断。 国产芯片要追超,必须打破这种依赖,构建自己的全站生态,从底层驱动框架到应用工具链,实现自主可控,这样才能在实际部署中提升效率,降低成本。 二、国内潜力路线与项目四个关键方向值得关注基于这三大技术方向,国内已经涌现出几个有明确进展、具备追超潜力的路线和项目,覆盖了芯片设计、封装、存储等关键环节。 华为全站新力生态从硬件到软件的协调突破华为海思正在打造的全站新力生态,是目前国内最全面的追超路线之一。 这个路线不只是做单一新力,而是覆盖了从设计、制造、封装到应用的全链条,核心是通过模块化加国产化加开放协助实现自主可控。 在硬件上,华为建立了标准化的新力 ip 库,包括鲲鹏 cpu 和升腾 npu tce 六点零控制器、 hbm 三控制器,这些关键模块就像提前做好了各种高性能积木块, 更关键的是,它的互联标准兼容国际 u c i e 一 点一的同时,还自研了 high link 协议,延迟能做到五 i n s 以内,这意味着心力之间的通信速度极快,协同效率大幅提升。 软件层面也同步跟进开发了 high silicon chiplet studio 工具链,能实现心力拓扑、设计、热仿真等功能。还在深思 mindsbor 框架里加了插件,自动优化 ai 任务在心力间的分配,再加上和哈密拉斯的深度集成,能实现算力的动态分配, 整个生态的协调能力已经初具规模。这个路线的潜力在于能像英伟达、 ruby 一 样实现系统级优化,而且全站自主可控,完全避开卡脖子风险。韩五 g chiplet 加专用架构路线聚焦 ai 算力效率突破 韩五 g 的 追超路线很明确,就是把 chiplet 技术和自研 ai 架构深度结合,聚焦提升 ai 算力的核心效率。 它的最新产品思源三七零是国内首款公开发布支持 l p d d r 五内存的云端 ai 芯片,也是首次采用 chiplet 技术把两颗 ai 计算新力封装在一起,最大算力达到二五六 t o p s, 是 上一代的两倍。 这个路线的关键突破有两个,一是 muut 零三自研架构里面的 supercharger 模块能大幅提升卷积效率,还有多算子硬件融合技术能减少算子执行时间,让算力不做无用功。二是 magic mind 推理加速引擎, 这是业内首个基于 melit 图编辑技术实现商业化部署的引擎,用户不用多花开发成本就能把业务部署到韩五 g 芯片上,还能获得不错的性能。更值得关注的是,思源三七零支持 mru link 多芯互联技术,单芯片跨芯片通讯能力达到两百 gb 每秒多卡,运行效率很高。 在实测中,它在 racenet、 五零、 transformer 等主流 ai 任务上的性能已经能对标部分主流 gpu。 这个路线的潜力在垂直 ai 场景, 如智能安防、医疗影像,靠专用架构的效率优势,完全有机会实现局部超越。长电科技,先进封装加国产存储配套,解决底层硬件瓶颈。芯片性能再强,也离不开封装和存储的支撑,这也是国产追超的关键补短板方向。 长电科技在 chiplay 的 封装领域已经实现重大突破,封装量率达到百分之九十九点五,和国际巨头日月光持平,还完成了七纳米 chiplay 的 芯片的量产,甚至成为英伟达 hbm 封装的核心替代方案,相关业务年增速超过百分之五十。而存储方面,国产产业链已经实现从零到一的突破。 拓金科技的混合件和设备已经量产达到国际领先水平,盛美上海的设备能用于 tsb 同填充北方华创中微公司的相关设备也实现了商业化落地, 这些都是 hbm 生产的关键设备。长新存储已经实现 ddr 五 lp, ddr 五 x 的 量产性能和三星 sk 海力士持平,成本还低百分之十, lp ddr 五 x 的 功耗比镁光低百分之八。 此外,江波龙作为国产存储模组领域的核心企业,也实现了重要突破,为国产存储从芯片到终端应用的全产业链闭环提供了重要支撑。这个路线的核心价值在于解决了国产芯片的底层硬件瓶颈。之前国产芯片就算设计的好、封装量率低,没有国产 hbm 配套,性能也发挥不出来。 现在封装和存储的突破,能让华为、韩五 g 等厂商的芯片性能充分释放,相当于给国产芯片的追超铺好了地基。木兮摩尔县城兼容生态加高性能 gpu 路线 对于通用 gpu 领域,木兮和摩尔县城走的是兼容现有生态加自主研发高性能架构的路线,这也是快速缩小差距的务实选择。 木兮的 m x c 五零零芯片核心是兼容扩大生态,同时自研 m x m x 架构,提升算力效率,和接月星辰搞的芯片模型平台全链路协同能让模型效率提升三倍。 摩尔县城则聚焦图形加 ai 双能,它的 m t t s 八零芯片迭代速度很快,同样兼容扩大生态,能同时满足图形渲染和 ai 计算的需求。这个路线的优势在于能降低用户的迁移成本。 很多企业已经习惯了扩大生态的开发工具,国产芯片兼容扩大后,企业不用重新投入大量成本学习新工具,就能直接替换使用。目前来看,这个路线在终端 ai 计算、边缘计算场景已经有了竞争力。 随着架构的持续优化和生态的完善,未来在通用算力领域缩小与英伟达的差距,甚至在部分终端场景实现成本和效率的超越是完全有可能的。 三、追超关键,生态协调加场景落地双轮驱动最后要强调的是,国产芯片的追超,不是某一家企业、某一个技术的单点突破,而是整个产业链的协调发力。 从华为的全栈生态、韩五 g 的 专用架构,到长电科技的封装、长新存储的存储配套,再到木兮摩尔县城的生态兼容,每个环节都在补短板、提能力。 而且追超的关键还要靠场景落地,把技术突破用到实际场景中,通过海量数据的反馈,持续优化产品,形成技术突破、场景落地、迭代优化的正向循环。比如华为在运营商、政企场景的落地,含五 g 在 政府制算中心的应用,都是很好的例子。 随着国内制算中心建设的加速,国产芯片会有更多场景来验证和优化技术,这也是我们实现追超的最大优势。九、干货总结,看懂新平台的核心价值与行业影响 一、核心 root 本不是单颗芯片的胜利,而是六、芯片协同加高效引擎加架构优化的系统级胜利,通过提升效率,而非单纯对硬件实现了十倍成本下降。二、 行业影响 ai 推理从高成本走向普惠,加速商业化落地,算力竞争进入效率为王的时代。三、 竞争格局短期和 rubin 有 技术代差,但凭借安全可控、生态共建和垂直场景优势,国产芯片在国内市场的份额会持续提升。同时在 chiplet 先进存储、全站生态等方向的突破正在加速追超进程,部分垂直场景有望实现反超。 四、未来趋势, ai 计算会从追求性能转向追求效率,软件生态和系统协调会成为核心竞争力。其实,不管是英伟达的技术突破,还是国产芯片的奋力追赶,最终受益的都是整个 ai 行业和我们每个人。 技术的进步从来不是联合博弈,而是共同推动社会向前发展。当 ai 的 门槛越来越低,我们可以期待更多改变生活的新技术和创新应用出现。 记得点赞关注。也欢迎加入旭哥专属会员,看到更多专属内容,下期继续跟旭哥续续刀。本内容仅供学习,不涉及任何投资建议。投资有风险,投资需谨慎。

科技圈的春晚 c e s 二零二六上英伟达 ceo 黄仁勋,我们的老黄又扔下了一枚核弹,新一代 ai 平台 vera rubin 宣布进入全面生产阶段。这可不是一次普通的产品迭代, 老黄这次带来的不是一个简单的芯片,而是一个名为 vera rubin 的 完整 ai 超级计算机平台。官方是怎么描述它的?由六颗芯片构成的一台 ai 超级计算机, 这六颗核心包括了全新的 veracube rubin gpu、 最新的交换芯片、网卡、 dpu 和 cpu, 可以 说 是从计算连接到网络安全进行了一次彻头彻尾的架构革新。那么这个 rubin 平台到底强在哪儿?它凭什么能让我们如此关注?首先是性能的恐怖飞跃,核心的 rubin gpu 搭载了第三代 transformer 引擎, 其 f p 四推理算力达到了五十 p f flops。 这个数字可能有点抽象,但做个对比你就明白了,它是英伟达上一代王者 blackwell gpu 的 五倍,这意味着在处理 ai 推理任务时,速度快了整整五倍。更关键的是,在模型训练上, 用 vero rubin 平台训练超大规模模型能达到同样的效果,但需要的 gpu 数量只有原来的七分之一。 成本和效率的优化,这对于 ai 大 规模应用来说是革命性的,这就像是从蒸汽时代突然跃迁到了电气时代,生产率指数级提升。其次是设计理念的颠覆, rubin 平台采用了第三代完全无氧化加上百分之一百全液冷设计,这意味着更高效的散热、更紧凑的布局,为的是支撑极致算力下的稳定运行。有观众调侃说,这配置是给 ai 烧香用的, 话糙理不糙,这确实是为了满足未来更疯狂 ai 算力需求的顶配香炉。好技术很牛,但对我们投资者来说,更关心的是这波浪潮谁能受益? 钱会流向哪里?老黄在演讲中确认, rubin 平台已经进入全面生产阶段,基于他的产品将在二零二六年下半年通过合作伙伴面试,这意味着供应链的订单和业绩兑现已经进入了倒计时。第一层最直接的是先进封装和芯片制造, rubin gpu 集成了两颗芯片,采用了 h p m 四高带宽显存,这继续指向了高端封装技术的持续需求。 黄仁勋在去年十一月就透露,台积正非常努力支援相关需求,并且三星 s k、 海力士、镁光三大存储芯片巨头都在扩产支持英伟达, 这预示着高端封装产物 h b m 存储芯片的需求将继续火爆。虽然 a 股直接参与核心芯片制造的公司不多,但整个半导体设备的景气度会被高高托起。第二层也是 a 股市场可能更有肉吃的环节。 高端 pcb 和上游材料,这就是我们常说的卖水人逻辑。 ai 服务器对数据传输速度和信号完整性要求极高,这就逼着承载芯片的 pcb 版必须升级。 ruby 平台将开启 aipcb 高端材料的新时代。 具体来说,像 m 九附铜板、 q 系列电子布等高端材料的需求将会爆发,因为这些材料能提供更低的介电传输和信号损耗,正好匹配 ruby 平台的高速性能。 关注标的包括 pcb 制造、上游材料,以及在上游树脂电子部领域有布局的相关企业。 这个方向的技术壁垒高、价值提升明显,是 rubin 浪潮中非常值得深挖的金矿。第三层是散热和电源管理,百分之一百全液冷设计,意味着对液冷解决方案、先进散热材料和电源管理芯片的需求会大幅提升。 好洞察完行业,我们具体到 a 股投资该怎么看?短期看,今天 a 股盘面上相关的 c p o 概念反而领跌,这其实反映了市场的一定分歧和利好兑现的短期情绪。 rubin 平台内部采用了 c p o 技术,长期逻辑是顺的,但短期股价受多种因素影响,因此追高需要谨慎。 更应该关注的是那些真正在技术上和供应链上能切入弱病生态,或者因行业技术升级而确定受益的公司。中长期看,核心主线是高端 pcb 及材料链,这是确定性最高的方向之一。 重点关注在高速高频 pcb 板上有技术积累以及能够生产 m 九级附铜板、高端电子部等材料的公司。需要仔细甄别哪些公司是真正有技术突破和客户认证的,而不是仅仅停留在概念上。 延伸机会是散热与电源液冷技术供应商,能够提供高效电源管理解决方案的公司,将伴随 ai 服务器功率密度不断提升而持续受益。基础支撑是半导体设备与材料, 无论芯片如何迭代,对先进制造设备、特种气体化学品等基础需求是刚性的。这个板块的景气度与整个半导体创新周期绑定。 总而言之,英伟达 rubin 平台的量产不是一个终点,而是一个新的起点,它宣告了 ai 算力军备竞赛进入了一个新的更激烈的阶段,成本的大幅下降可能会催生更多。我们现在还无法想象。 ai 应用 对于我们投资者而言,关键在于沿着技术升级的路径,找到那些不可或缺的卖水人和铲子股。这场由 rubin 点燃的算力之火,必将照亮一批真正有硬实力的中国供应链公司的发展之路。

英伟达 rubin 芯片液冷散热深度分析基于 c e s。 两千零二十六的最新信息,黄仁勋宣布的 rubin 平台液冷散热方案标志着 ai 芯片散热技术进入新纪元。以下从技术必要性、需求变动、产业链影响三个维度进行系统分析。一、 rubin 芯片的散热从需要到必 须一,功耗激增使液冷成为唯一选择,单芯片功耗达二点三千瓦。 rubin gpu 的 热设计功耗 t d p 高达两千三百 w, 远超 blackwell 架构的一千四百 w 传统风冷散热极限仅三十到五十千瓦机柜已完全无法满足需求。风冷技术物理极限当前 g b 两百 n b l 七十二机柜功耗已达一百三十到一百四十千瓦,相当于两百台家用空调全速运转。 风冷已触及天花板百分之一百叶冷覆盖 root 平台采用无风扇设计,计算托盘和网络交换托架完全依赖叶冷,风量需求降低百分之八十, 冷却液流量需求增加近百分之一百二。无需冷水基组的技术本质黄仁勋所称的无需依赖冷水基组并非指不需要散热,而是指散热架构的革命性简化。高温冷却液直连 rubin 支持四十五摄氏度进水温度, 可直接利用自然冷却或冷却塔,无需传统冷水基组 chillers 制造七到十二摄氏度低温水系统,即能效优化,通过微通道冷板 m c c p 加镀金散热盖技术,在芯片级实现高效换热,降低对低温水源的依赖, p u e 值显著改善。传统风冷 p u e 普遍大于一点五, 液冷可降至一点二以下,数据中心能耗降低三十到百分之五十二。液冷需求变动,从可选到刚需的爆发需求侧变化指标, blackwell g b 两百 rubin vr 两百变动幅度单芯片功耗 一零零零 w 二三零零 w 加百分之一百三十机柜液冷价值量四万一千五百美元五万五千七百加百分之三十四冷却液流量精准加百分之一百翻倍市场渗透率逐步渗透百分之一百强制制的变化技术路线升级, 一、微通道冷板 m c c p 成为主流,将流道缩小至微米级,十到一千微米热交换效率提升三倍以上,可处理大于一千瓦每平方厘米热流密度。二、 从冷板式向进末式引进分析师预计二零二七年 viruban ultra 六百千瓦机柜将全面转向进末式液冷。三、芯片即散热创新,未来可能采用微通道盖板。 mcl 将冷却液直接集成到芯片封装内部,预计二零二七年下半年量产。 市场规模预测,叶冷组建价值量持续提升。英伟达 ai 服务器叶冷价值从 g b 两百的四点一五万美元, g b 三百的四点九九万美元, rubin 的 五点五七万美元,单平台增幅百分之十七,产业链起点已至 transforce 指出, ai 数据中心叶冷已从备选方案变为必需品, 国内二零二五年新建数据中心 pe 强制小于一点三,叶冷市场进入高速成长期。三、产业链影响与受益公司 受冲击方传统制冷设备商黄仁勋言论直接导致相关股票暴跌,反映市场对其长期需求的担忧。江森自控 johnson controls 股价一度暴跌百分之十一,创二零二二年以来最大跌幅。特林科技 train technologies 同步走低,冷水基组业务面临替代风险。摩丁制造 modern manufacturing 跌幅一度达百分之二十一后收窄至百分之七点四。 冲击逻辑,传统冷水机组在数据中心的定位被边缘化,但短期业绩风险可控,因现有数据中心改造需过渡期。二、核心受益方,叶冷解决方案商 a 股核心供应商领益制造 o 通过子公司利敏达切入英伟达核心供应链,供应 ruben 散热系统百分之九十五核心部件。 o 产品包括冷板分水器 manifold、 叶冷快接头 u q d n d q d 单机柜,价值五万两千九百二十美元欧块街头通过英特尔通用互差互换联盟认证,具备跨厂商适配能力。英维克欧,国内叶冷龙头服务谷歌及国内头部互联网厂商。二零二五年叶冷营收超二亿元, o v 字节跳动,腾讯、阿里、移动、电信等大型数据中心提供液冷系统。 o 二零二五年前三季度营收四十点二六亿元,同比加百分之四十点一九。净利润三点九九亿元,同比加百分之十三点一三。薄捷股份 o v 通道分层式水冷头已用于英伟达 代号 n 客户 gpu 测试设备。 o 积累微通道设计液态金属散热技术,具备向零部件供应商转型潜力。 国际参与者 fertek 维 d 技术在液冷领域拥有强大地位,但冷却器业务可能受损,股价先跌后反弹。其红科技 a v c 被英伟达接触为 ruben ultra 设计微通道冷板。三、产业链各环节价值分布芯片级散热 m c c p 冷板加镀金散热盖价值量最高。机柜级组建 c d u 冷却分配单元,分歧管快接头流量翻倍,带动需求系统及方案,整机柜液冷设计无 模块化架构,技术壁垒最高。四、关键结论与投资逻辑一、叶冷从可选项变为必选项, rubin 的 二点三千瓦功耗使叶冷成为强制要求百分之一百渗透率,带来确定性需求增长。二、技术迭代创造新价值微通道技术、 无风扇设计、高温冷却液等新方案,使单机柜叶冷价值量较 black 要提升百分之三十四,且向芯片级、系统级延伸。三、供应链深度绑定领益制造力敏达 供应 rub 散热系统百分之九十五核心部件应为客服务,国内头部客户具备稀缺卡位优势。四、短期市场情绪 vs 长期趋势传统制冷股暴跌反映预期变化,但夜冷产业链公司需关注产能释放节奏。 rub 平台二零二六年 q 三,启动交付 q 四、量产 二零二六年下半年订单将逐步落地。五、风险提示,需警惕技术路线变更风险及能耗扩张不及预期风险。 核心判断,英伟达入门平台不仅是算力升级,更是散热架构的范式转变,它通过芯片级液冷创新,解决了超高功耗散热瓶颈,同时简化了数据中心制冷系统,直接立好掌握微通道技术,具备精密制造能力的液冷核心供应商。

这个穿皮夹克的男人宣布 rubin 平台量产,中国 ai 产业或将迎来生死大考。在二零二六年科技春晚 cs 上,华人新宣布全新 rubin ai 平台全面量产,号称推理性能呢,是上一代 blackwell 的 五倍,成本却只有十分之一。 这里外里啊,就可以粗浅的理解为是不是增幅了五十倍啊。那也难怪啊,董王放开了 h 两百的限制啊,这差的不只是一个代机了。 那他还宣告物理 ai 的 chai 的 这一刻以来,那啥是物理 ai 啊?我之前啊,也有发过关于物理 ai 的 一个科普视频,那简单说呢,就是这 ai 不 再是只待在手机电脑里,而是要直接走进现实世界,控制机器人开汽车了。 那结果呢?他这个演讲一出啊,那有人欢喜有人愁啊。那今天呢,咱们就用大白话聊一聊啊,这 ruby 它到底是个啥?对叶冷有啥影响?那对我们的科技产业来说呢,是机遇和坑到底都在哪? 很多人以为啊,这个 ruby 是 个新款的 gpu, 其实不是啊,它是一套整合了六款全新芯片的平台,相当于把这个计算网络、存储啊,全打包成一个高效运转的 ai 工厂。 核心亮点呢,其实就两个,但每一个它都足以颠覆这行业了,一呢就是性能暴涨,还便宜。 ruby 的 推理算力是上一代 blackmagic 平台的五倍,推理成本呢,只有原来的十分之一嘛。那注意啊,这里说的是 ai 推理,不是 ai 训练。 对卖铲子的这个英伟达,它提高铲子的推理能力,降低推理成本。这就意味着啊,就比如自动驾驶、工业机器人等等啊,这些 ai 应用的大规模落地就要来了,也将会成为未来的一个重点。 二呢,就是它开启了物理 ai 时代。以前的 ai 啊,就只会读文本,看图片。 ruby 配套的三个物理 ai 技术呢,能理解物理定律的 cosmos 世界模型,实时响应的 newton 物理引擎。 那这几个技术啊,就能让 ai 真正的感知现实世界。比如啊,自动驾驶汽车,它能预判行人是不是要横穿马路,机器人能精准地抓握不同重量、不同材质的物体。 那更关键的是啊,英伟达已经官宣着入币平台全面投产计划呢,是二零二六年第三季度啊,启动全球交付,那全球的四大云厂商呢,都已经在排队等着部署了。那这波算力革命来的是又快又猛,就看咱们接不接得住了。 但谁也没想到啊,演讲刚结束,就有传言说,这个 rubin 呢,不用夜冷了啊,夜冷产业要凉了,那导致呢,相关的板块就集体下跌了。但这其实是个严重的误读啊,黄仁勋说的是 rubin 机架呢,不用水冷机, 不是不用夜冷。真相是啊,这个 logo 采用的是百分之百全夜冷设计,只是升级成了四十五摄氏度的温水止冷技术。也就是说,以前夜冷是要用十五到二十五摄氏度的冷水,需要水冷剂来降温。那现在呢,就直接用四十五摄氏度的温水啊,就能给这个芯片降温了,那热水排出去呢,还能回收利用。 这种升级,对液冷产业它不是利空,而是结构性的分化。对那些全站液冷方案商和精密冷板制造商呢,那是个好消息,而只卖水冷机的供应商可能啊,就要成压了,那可能就要考虑啊,在这个技术过渡的窗口期就要转型了,那 rubin 平台这么牛,对我们有什么影响呢? rubin 的 到来,对中国科技产业来说,它是把双刃剑,挑战很直接,但机遇也很明确。首先啊,这个 rubin 它再牛,它也不会卖给我们的, 这反而呢,可能会导致高端算力缺口的扩大,那需要凭证购买的这个 h 两百和 ruby 呢,差的两个代际 呢,而 h 两百还只是 gpu, ruby 呢,则是一个计算平台, ruby 的 低成本高算力呢,可能就会让国外的企业在 ai 推理效率上占有一定的优势,那我们要是想追平的话,那就需要花更多的成本啊,用其他的芯片来拼凑。 虽然呢,我们现在啊,靠算法优化,排兵布阵等这种方式呢,在努力的提高效率啊,相当于单兵作战能力,打不过呢,这我们就靠团队配合, 但这也只是权宜之际啊,我们的单兵作战能力也是要利用这段时间尽快赶上来才行的啊,否则一粒降石会终有撑不住的那一天的。其次是物理 ai 的 竞赛呢,将更加的激烈和困难了, 出品配套的自动驾驶机器人 ai 技术呢,我们没法直接引入,只能靠自给自足啊,这可能就会影响一些关键领域的发展速度。那不过呢,咱们在物理 ai 的 布局上呢,也是比较早的,在十四五规划的时候,就已经把这个物理 ai 相关的领域纳入到重点发展方向了,并且配套了专项的扶持措施,持续落地。 前几天我国的首家物理 ai 赛道的这个上市公司也在港交所挂牌上市了。那目前国内有几家公司呢,也是专攻这个物理 ai 的, 比如啊,像研发类似 cosmo 的 世界模型,参数规模和推理速度呢,已经接近国际水平了。 当然啊,这个捷径呢,还是这个 ruby 出来之前那面对 ruby 带来的冲击啊。咱们应对思路其实也是很明确的,简单说就是短期应急,长期自主。短期呢,还是要先靠这种替代方案补算力的缺口,比如用多卡并联加优化算法的方式呢,用数量弥补单卡性能的不足。 长期呢,就还得必须搞自主创新,一方面推进国产 ai 芯片的迭代啊,另一方面呢,就构建自己的物理 ai 生态,让更多的企业参与进来,形成数据技术到应用的这一个良性的循环。 如果你发布它本质上是 ai 从实验室走向产业界的一个信号,对我们来说,这确实是一次压力测试啊,但也倒逼我们啊,就加快自主创新的步伐了。以前呢,我们可能啊,依赖进口芯片啊做应用, 现在啊,必须从芯片散热生态全链条构建能力。所以啊,有个追赶的目标也不是什么坏事。那最后呢,想和大家探讨一个问题,就是这物理 ai 您觉得会先改变哪个行业呢?是自动驾驶、工业机器人?还是其他的什么领域呢?欢迎评论区聊聊,我是岩哥,关注我,一起看懂世界风云与中国发展!

我对老黄 c e s。 二零二六的演讲判断很简单,粗暴, ruben 让铲子更锋利,但是你能不能淘到金呢,取决于你到底能不能把这两本账算清楚。嗨嗨,我是阿瑞斯, c e s。 二零二六这两天刷屏了吧。先说一句啊,老黄这次没有复读他那句出圈的 the more you buy, the more you save, 但是呢,他讲的还是同一套国籍 算力啊,越算越便宜。 toolchain 呢,越来越像电费了,听起来是不是很爽呀,像不像买越多显卡省越多电费的,算福利经济学?老黄呢,是最擅长把参数翻译成你能省多少的了。我呢,也曾经在现场被他这一套震撼过,而这次的主角呢,是 rubin。 官方的趋势也很省钱,导向,要大幅地降低 tome 模型所需的算力呢,也要比 blackwell 少,并且呢,把节奏指向了二零二六年的下半年。 但是我想先反转一句,对产业实力好,对创业啊,则未必了。因为呢,你可能会听嗨了,算错了账,因为算你成本啊,至少得分两本账,而你处在不同的阶段,压你的账呢,也不一样。 第一本账啊,叫研发账,你以为成本是上线以后每次调用?但是呢,很多的应用团队呢,真正吞钱的是数据清洗,标注, 评测体系,微调、对齐叠带。这些东西呢,看起来不性感,但每一步都在烧 gpu, 尤其是你想把能力做成稳定可靠可复用。研发照呢,就像水龙头啊,关不掉。所以,研发降本的核心啊,不是少训练,而是少做无效训练。先把测评评测做清楚,再去训练。 早期呢,最要命的不是推理贵,而是研发浪费。第二本账啊,叫做规模账,当你的用户起来了,并发起来了,上下文变长了,任务变复杂了,推理测才会真正的变重。 行业里呢,也有人判断推理在总的算力的需求里面,占比呢,会越来越高。所以呢,别争训练贵还是推理贵,看阶段早期呢,被研发涨压规模化之后呀,就会被规模涨压, 阶段不同,压力的主因啊,也就不同。再看啊,第三件事情,就是应用类型,同样呢叫 ai, 应用成本差异啊,能差出一个数量级纯对话内客服知识库问答的,只要绘画别太长并发呢,别太夸张,推你成本啊,很多时候是可控的, 且代码 agent 类呢,长上下文,长输出,多轮式错工具链调用,一步一步走啊,一步一步烧。多模态数字人呢,就是从文字升级到了图像、音频、视频,尤其还要实时。成本不是限性的上升啊,是结构性的变贵,显存贷宽延迟稳定性一起压上来。 这也是为什么你看像 minus 这种走 agent 路线的呀,天然就是更吃算力了,因为 agent 不是 聊天,是真干活呀。而真干活呢,就等于多走了几步,多走几步呢,又等于更长的上下文,更频繁的工具调用,更高的失败从视率,等于 成本上来了,规模账啊,天然就是更重的了。再回到我自己的一个真实的场景啊,我们公司呢,现在也在做一个直播电商的 ai 中控产品,用 ai 去剔掉直播间里面大量机械,重复的工作,帮助客户呀,降本增效。这个核心呢,不是追求模型酷炫,而是真正的交付真实价值。 但是当我们准备把数字人放进直播间啊,成本结构就完全不一样了,实时多模态,音画一致稳定不掉线,这种场景往往是研发账一起变重。所以呢,我对老黄 c e s 二零二六的演讲判断很简单,粗暴, ruben 让铲子更锋利,但是你能不能淘到金呢?取决于你到底能不能把这两本账算清楚,并且呢,把你的成本变成了壁垒。最后呀,送你一个可以直接拿去开会的三问,超级实用啊!第一个,我们现在主要烧的是研发账还是规模账,比例大概是多少呢? 第二,我们是属于对话代码 a 阵的多模态,哪一类呢?哪一个环节最吃 gpu? 第三,我们的护城河到底是模型参数还是数据流程交付与行业的号呢?能不能做成非我不可? 评论区告诉我,你们现在啊,更像是哪一类?你们抵押的是研发账呢?还是规模账?好的,拜拜,下次再见。

英伟达明年量产的最新 ai 芯片 labing 架构服务器已经确定使用一点六 t 光模块、 m 九级 c c l 护铜版 p c b ai 服务器、八百伏 h v dc 电源 以及液冷系统。梳理了国内英伟达供应链相关受益公司一次一点六 t 光模块中继续创是一共占比百分之五十以上份额。新益盛和海外的菲尼萨是二三共 二是 m 九级材料 pcb, 圣红科技的七阶高端 hdi 是 英伟达必备 m 九材料 o a m 版护垫股份主要提供二十六层高频高速 m 九级材料的 u b b 版,方正科技是替补。 还有生意科技的七十八层正交背板、 c c l 附铜板、德芙科技和铜冠铜钛的 h e l p 四铜钛、飞利华和中高芯的微转针。 三是 ai 服务器,八百伏 h v dc 电源直接供应商主要是英诺塞科和麦格米特,中恒电器通过工业互联间接供货。 四是液冷系统,英维克是液冷系统集成供应商。纯中科技、思泉青材、呃创环科技、薄捷股份、中石科技是核心部件直接间接供应商。 蓝思科技战略收购原石科技母公司呃培美高,进入英伟达液冷服务器供应链。工业复联是英伟达液冷服务器制造商。谢谢大家!

黄仁勋带着英伟达又搞大动作了,二零二六年 c e s。 直接抢跑发布 logo, 这波操作到底藏着什么玄机呢?要知道,英伟达从来都是在 g t c 大 会发布重磅新品,这次偏偏选择了消费电子为主的 c e s, 答案就只有一个, ai 要从云端冲进咱们的物理世界了! 不管是 l 四级的自动驾驶、人形机器人,还是智能家电,以后都得靠超强推理算力撑着。 老黄这是提前锁定中端赛道。那么重点来了, robin 其实根本不是单块的 gpu, 而是六颗芯片组队的全站王者。有负责算力的 robin gpu, 专门 ai 推理的 verizon cpu, 还有像血管一样的 nv link 六交换机, 从计算到网络,再到安全,全给你包圆了。最绝的是性能暴涨,推理速度是上一代的五倍,训练性能提升三点五倍,内存宽带直接干到二十二 tb 每秒。但这些都不是最香的,真正颠覆行业的是成本大跳水, robin 把 ai 推理的 token 成本压到了原来的十分之一,这意味着什么呢?以后 ai、 智能体、自动驾驶这些烧钱项目都能大规模落地了,就像水电一样随处可用。微软 mate 直接下了数十万颗的订单, 这波算力革命是真的要来了。不过狂欢背后三个隐忧也不能忽视。首先是 ai 泡沫风险。首先 ai 泡沫风险软银翘水都在减持英伟达的股票,要是下游应用落地慢,巨额投入可能打水漂。 其次是产能平静,台积电的风装产能再怎么扩,也架不住巨头们疯抢。最后是地缘政治变数,中国市场的不确定性,还是英伟达绕不开的坎, 更关键的是,咱们国产算力也没闲着。华为升腾加 deepseek 的 组合已经在贵州落地,让行业大模型推理成本降低百分之六十五, 司法、教育、政务领域都跑出了时效。二零二六年的算力大战,早就不是单拼芯片性能,而是生态应用和产业链自主可控的全面较量。 总结一下, robin 的 发布,标志着 ai 从训练为王进入推理为王的新时代,普通人以后能享受到的更便宜的 ai 服务,投资者则要警惕泡沫风险。 而对咱们中国产业来说,这既是压力,也是机遇。自主可控的算力之路,每一步都得走稳。你觉得英伟达能稳坐算力王座吗?国产算力又能弯道超车吗?评论区聊聊你的看法。

二零二六开年第一乍黄仁勋闪亮登场, c s 二零二六一口气甩出了多项重磅发布,这次不只是卖芯片,英伟达直接重新定义了下一代 ai 基础设施。老黄开场直接给出了一串惊人的数据,现在模型尺寸每年增长十倍,模型思考用的 to token 数量每年增长五倍, 但每个偷看的价格必须每年降低十倍。为了接住这种需求的暴涨, veruben pod ai 超级计算机来了,它由六款自研芯片组成,其中 c p u 性能提升两倍, g p u 推理性能飙升五倍。这些狠货组合在一起,让单机价算力达到了恐怖的三点六 evlops。 老黄称这头性能怪兽功耗翻倍, 却不需要冷水,直接用四十五度的温水就能冷却,一年能帮数据中心省下百分之六的电。其次,为了解决 ai 推理的效率问题, 老黄寄出了三大神器。第一是 spectrum x 以太网供风状光学器件,能效提升五倍,专门给数据中心省电。第二是推理上下文存储平台,将上下文作为一等数据类型处理,让长对话和复杂推理不再卡顿,推理性能直接翻五倍。第三是 d g x superpod, 基于 ruben 打造的 ai 工厂蓝图,可将大型 mo 模型的 token 成本降低至十分之一。最后是应用层面的王炸,因为达发布了首个开源的 能思考的自动驾驶模型 alpha male, 它不仅能开车,还能像人一样推理。老黄称,搭载这套系统的奔驰 c l a 已经量产,还被评为了全球最安全汽车。开源加硬件,英伟达这波操作可以说又让护城河伸了三尺。

英伟达 rubin 散热系统深度解析及未来展望英伟达 rubin 架构作为 blackboard 的 下一代 ai 算力平台,其散热系统经历了颠覆性重构,核心围绕百分之一百,全面了超大尺寸均热冷板整合微通道冷板 mccp 技术 与四十五摄氏度温水冷却四大支柱展开,已应对单 c p u 高达一千八百到两千三百瓦的空号挑战 autopilot, 同时实现数据中心冷却效率的革命性提升。一、 散热需求的根本性转变 rubin 平台的散热需求源于 ai 算力密度的指数级增长,单克 rubin gpu 格号达到一千八百 r, ultra 版本更是接近两千三百 r。 最后上一代 blake 的 一四零零 w 提升近百分之六十五,传统单向冷板散热上限约一千五百, 风冷方案更是完全无法应对这种级别的热能,这迫使英伟达彻底重构散热架构,走向全液冷加微通道加温水冷却的技术路线。同时如变平台通过六芯片协同设计、 vr c p 与鲁炳 g p 有 emblanc 设计等,实现性能提升五倍,算理成本降低十倍,这种极致性能密度进一步放大了热管理的挑战。二、核心设计理念从碎钻到整钻的整合式 散热鲁炳散热系统最显著的变化是从 black 时代的多冷板分散式回归到单一大冷板整合式 设计。这种被业类称为暴力美学的方案带来了三大核心优势,全域覆盖 一张超大尺寸均热能板,覆盖 d p u h b m c p u 电源模块两所有发热部件,消除了传统方案中多个独立冷板间的热流不平衡问题,简化连接,大幅减少 u q d 可接头和内部微流道数量,提升系统可能性并降低泄露风险。同时简化组装流程,降低生产与维护成本。均热强化冷板内部,优化流道设计,使表面温差控制在五摄氏度以内, 彻底解决局部过热问题,为芯片稳定运行提供更均匀的热环境。这种设计理念与 g b 二零零时代的大模板模组方案相似,但在冷板材料、微通道工艺和热管理算法上实现了质的飞跃。

c e s。 二零二六没有新显卡,这意味着英伟达自二零二一年以来,连续五年在 c e s。 发布新硬件的传统就此终结。但老黄扔下了一颗更猛的核弹, 菲尔鲁本时代正式开启。他说, the amount of computation necessary for ai is skyrocketing the demand for nvidia, gpus is skyrocketing。 ai 需要前所未有的算力规模,而鲁本平台的答案是用六颗异构芯片组成一个超级计算单元。结果呢, 相比上一代 buico ai 推理性能直接飙升五倍,训练性能提升三点五倍,而单位 token 的 推理成本暴降十倍。这意味着什么? ai 算力将像电力一样变得廉价且规模化, 训练万亿参数模型从此主要是个工程问题,而不再只是烧钱竞赛。不只是芯片,老黄这次把未来也开圆了。 自动驾驶端到端模型受创,媚欧具备显示推理能力,能像人一样解释自己的驾驶决策,并且即将装车量产。 更关键的是,英伟达将物理 ai 的 全家桶,包括世界模型、机器人模型、全部开源,机器人的叉 g p t 时刻正在加速到来。总之,从生成内容的 ai, 到理解并改变物理世界的 ai, 英伟达的路线图已经清晰, 未来,你的车,你身边的机器人,可能都有一颗会思考的鹰尾巴心。而在这个只有玩家落泪的早上,一个由物理 ai 驱动的全新世界正在菲尔 rubin 的 轰鸣声中加速向我们走来。

兄弟们,出大事了!一年一度的 ces 消费电子大会今天正式召开,今年彻底变成了 ai 硬件的军备竞赛现场,但真正的王者根本不用走 p 台。黄仁勋一开口,全球的科技圈集体震惊,他宣布,新一代的 ruby 数据中心平台已量产交付,二零二六年的微软、谷歌、亚马逊将首批上车。这不是升级,而是降维打击。 ruby 有 多猛呢?直接改写了 ai 游戏的规则,训练的速度比上一代的 blackwell 快 了三到五倍,成本暴降,生成一次 ai, 结果成本真砍百分之九十, 这意味着什么呢?过去烧一个亿跑出模型的云巨头,现在花一千万就能干同样的活? ai 从奢侈品变成了日用品。更可怕的是,如饼不是单颗芯片,而是一套六芯片协同作战的 ai 航母战斗群。如饼 gpu 超级隐形算力拉满 virus cpu 八十八核定制,专为 ai 智能体设计。 未来, ai 不 再是问答机器,而是能自主规划调用工具,多步执行的数字员工。 ai 硬件的一个竞赛,正式从拼算力进入到了拼智能架构的时代,那谁将在这场风暴中狂赚呢?英伟达自己不造芯片,它的王炸全靠产业链的兄弟们来扛起来。第一光模块是数据高速公路的收费站 中 g 和新胜八百 g 到一点六 t 的 光模块,全球霸主如饼集群需要万科高速光模块互联,确定性非常的强。第二是服务器的制造, ai 基建的总包工头,工业互联,全球 ai 服务器的总龙头,深度绑定英伟达加云巨头,如饼平台首批整机大概率是由它来组装的。第三是高端的内存, 专利的燃料库,三星 s k、 凯力士 h b m 四内存需求激增, a 股的蓝起科技诚心存储,间接受益。第四,先进分装和基板是芯片的神经接线员,台积电的卡沃斯能吃紧 a 股的封测基板厂,比如说通服为电技术突破者或将分得一杯羹。 第五是散热和电源,属于隐形冠军,英伟克、高蓝股份、 rubin 的 工号飙升,液冷散热成为刚需,沃尔和才金、权华等磁性原件的一个厂商也同步受益。 那老黄为什么要提前亮剑呢?背后有什么玄机?表面上是锈肌肉,实则是摘掉压制 amd, 英特尔还在追赶 blackwell, 谷歌的 tpu 和亚马逊的川六五刚起步, 老黄直接把赛道升级成磁悬浮,让他们连尾灯都看见。他要的不是芯片的份额,而是整个 ai 生态的定价权。谁用我的平台,那就得按照我的节奏去跑。关注我,带你了解更多产业信息!

your name is greg, greg is a little girl can you can you jump? wow! 在 刚刚过去的二零二六年开年第一周,全球科技与资本市场的目光毫无意外地再次聚焦在了美国拉斯维加斯的 ces 展会, 而这次主角只有一个,英伟达 and vita。 今天我们就将深入剖析这场发布会,为您揭开 rubin 架构背后的商业逻辑,以及它将如何重塑二零二六年的全球 ar 算力版图。 第一部分,打破惯例的强跑战略意图深度解析首先,我们来关注第一个核心议题,为什么是 cs? 为什么是现在?熟悉英伟达的朋友都知道,其利来习惯在春季的 gtc 图形技术大会上发布重磅新品, 但这次黄仁勋打破了惯例,选择在 c e s。 这个传统上更偏向消费电子的展会上高调推出 rubin。 这背后的信号非常明确, ai 正在从云端走向物理世界。 c e s。 汇聚了全球顶尖的消费电子、汽车及家电厂商。英伟达此时发布 rubin, 意在向世界宣告 ai 下一阶段是物理 ai、 physical ai 与具身智能 and body intelligence。 无论是自动驾驶汽车、人形机器人还是智能家电,都需要强大的推理算力。黄仁勋在演讲中明确表示,未来车辆将以 l 四自动驾驶为主流形态,这不仅是卖芯片,更是在定义未来的生活方式。 u 本的提前亮相,是英伟达将其技术触角从数据中心延伸至终端设备的战略宣示。第二部分, u 本架构的全站魔法不仅仅是 gpu。 接下来我们深入技术内核,看看这次发布的 u 本平台到底强在哪里? 需要特别注意的是,我们不能简单地把 rubin 看作是一块新的 gpu。 正如英伟达所强调的极端协同设计, rubin 实际上是一个由六款芯片组成的庞大系统及解决方案。它包括,一、 rubin gpu, 核心算力引擎。 二、微软 cpu 专为 ai 推理设计的大脑。三、 n v link。 六、 switch, 解决芯片间通信的血管。 四、 connect x 九、 suprise i c, 连接外部世界的网络接口。五、 bluefield 四、 dpu, 负责数据处理与安全的管家。六、 spectrum。 六、 ethernet switch, 构建大规模集群的网络基石。 那么,这套组合拳带来了什么颠覆性的改变?第一,他解决了推理成本这一生死攸关的问题。目前大模型训练好之后真正落地应用时,最大的开销在于推理,即模型回答每一个问题所需的算力成本。 黄仁勋在发布会上给出了一个惊人的数据,如本平台将推理 token 的 成本降至 blackwell 平台的十分之一,这对于下游应用开发商来说,无异于一场及时雨,只有推理成本足够低, ai 才能真正像水电一样普及。第二,它再次拉开了与竞争对手的代差。 如本 gpu 在 n v f p 四精度下的推理性能达到了五十 plus, 是 训练性能三十五 plus, 提升三点五倍。 同时,它首次集成了八组 hbm 四内存宽带,高达二十二 tbs。 更令人瞩目的是其互联技术 第六代 envieline 将单 gpu 宽带提升至三点六 tbs, 而 ruben avril 七二机柜的总宽带更是达到了二六零 tbs, 这个数字甚至超过了目前整个互联网的骨干宽带。 这种暴力美学式的堆料,本质上是在构建一道极高的技术护城河,只有英伟达能提供从芯片到网络、从硬件到软件的全占最优解。第三部分,万亿订单背后的隐忧与变局。 在看到一片繁荣景象的同时,我们也需要保持一份冷静的财经视角,审视这场 a o 盛宴背后的潜在风险与挑战。首先是泡沫与预期的博弈。 尽管英伟达 cfo 克莱特克雷斯信心满满地表示,到二零二六年末,数据中心芯片的预期收入肯定会超过此前预测的五千亿美元,甚至可能更高,但资本市场对此并非毫无保留。 近期,包括软银、桥水在内的多家顶级机构坚持了英伟达,股票市场对 ai 泡沫的担忧始终如影随形。 虽然 ruben 的 发布提振了信心,但如果下游 ai 应用如 agent 机器人的商业化落地速度不及预期,这种以十年为单位的巨额资本开支可能会面临反噬。 其次是供应链的极限撑压, ruben 平台的复杂度远超以往,对台积电, coos 封装产物的依赖将更加严重。 虽然台积电计划在二零二六年底将 kolos 月产量提升至十点五万片,但面对微软、 mate 等巨头对 rubium 芯片的数十万颗级订单,产量瓶颈依然可能成为限制英伟达业绩释放的阿卡留斯之中。最后,也是最棘手的是地缘政治的不确定性。 尽管黄仁勋在 cs 上表达了对中国市场需求的乐观,但现实情况依然严峻。受出口管制影响,英伟达在中国市场的数据中心业务收入预期仍面临巨大不确定性, 如何在合规的前提下保住这一重要市场的份额,是英伟达管理层必须面对的棘手难题。 总结来看,英伟达 rubin 平台的发布无疑再次巩固了其在 ai 算力领域的绝对统治地位,它不仅仅是在卖一款性能更强的芯片,而是在通过全站垂直整合重新定义 ai 基础设施的标准。 对于二零二六年的市场而言, rubin 的 量产将是一个分水岭,它将推动 ai 从训练为王进入推理为王的新阶段。 对于我们中国的投资者和产业观察者来说,既要看到这种技术带差带来的紧迫感,也要清醒的认识到,算力军备竞赛的下半场, 比拼的不仅仅是芯片性能,更是生态构建、应用落地以及产业链的自主可控能力。好的,以上就是本期的全部内容,感谢您的收看,我们下期再见!

今天咱们的开年重磅恭迎新王系列暂告段落啊,毕竟家人们的注意力已经全面飞天,商业的那种。上午散客尼先生非常兴奋的告诉我,他早就航天了。传 spacex 开始神场寻找高性能材料、精密加工测量设备以及光伏等供应商。 这段话是不是似曾相识啊?把谷歌英伟达的名字换成 space x, 把 m 九级、 q 部、 pcb、 叶冷等关键词一换就又是一波啊。现在 zs 上英伟达说卢斌的叶冷技术换代,就又传 pcb 要降代,反正你早就去航天了。 依据全凭一张嘴加一张聊天截图,实在不行配个收益图。这东西能玩吗?反正是先信哥后信啊,就等您来玩,唯有祝福! 回到今天话题,英伟达 ceo 黄文轩究竟在 c e s。 上讲了什么呢?为什么王炸 rubin 的 正式发布并没有对英伟达带来明显的市场反应?并且去年全年英伟达的表现也不算出色,一直在高潮的只是大 a 的 精神大练们。 由于半导体目前几乎发展到了物理极限,台积电量产两纳米,英伟达如何推出新产品以维持世界级的估值就成了难题。那么这可难不住世界级卖卡员老黄啊, 他提出 it 行业摩尔定律已经过时了,唯有全站式携手创新来解决未来的算力增长需求。没错,就是买他家的新产品 ruby。 简单说啊, ruby 不是 gpu, 是 一个 ai 计算平台。根据英伟达官方说明,是将 cpu、 gpu、 交换机等 ai 服务器核心零部件集成在一起, 配合应用软件,可以大幅度的提升性能,降低功耗。具体参数到处都是啊,我们就不列了,只需要记住一个结论,老王扬言啊,训练性能提升三点五倍,推理性能提升五倍, talk 成本降低百分之九十。什么是 talk? 可以 看我前面的言判啊。众所周知,令华尔街恐惧的 ai 泡沫论 一直是英伟达估值的达摩克里斯致敬。核心就是说, ai 的 投入大,回报低,终端客户这些大互联网公司算不过账来,持续大规模投入买卡意愿存疑。现在推理成本如果打一折啊,那岂不是都好起来了?为什么 rupee 发布后,纳斯达克那边却没有波澜呢? 我认为有两个原因啊,一是英伟达没有公布 rubin 的 正式定价,是加量不加价,还是量价齐升?之前投资者交流会当中,英伟达有提到 rubin 将会按价值定价,暗示定价主要是依据其为客户带来巨大性能和价值提升,而非仅仅考虑硬件成本。那涨十倍好了。 第二呢,移动互联网之所以被公认为伟大的技术变更,是因为其商业模式的证明,无数公司通过社交和电商等新业务崛起获得重生。 ai 泡沫论的要害不在于成本端,而在于尚无能赚真钱的杀手级应用出台越免费啊,越是委曲求总结。正如巴菲特这次押注谷歌,试图复制他当年押注苹果采用移动互联网的风口,目前整个 ai 赛道除了英伟达都在亏钱, 这种情况恐怕今年必须要改变,不然所有人都下不来台。所以老黄在 c e s。 上也给大家带来了物理实验,在自动驾驶跟机器人等端测应用场景后面咱们会持续覆盖。当然我知道啊,家人们早已经给入便链安排的明明白白啊,事实对他们并不重要。