粉丝15.2万获赞306.2万

英伟达 vera rubin 架构 vera rubin 架构是继 blackwell 之后的下一代 ai 计算架构,于二零二六年正式进入量产和出货阶段。他以天文学家 vera rubin 命名, 象征探索宇宙和 ai 的 未知边界。与 blackwell 一 样, rubin 架构的核心理念是把整个机架当做最小计算单元,而不是单个芯片,通过极端协调设计来应对 ai 计算量爆炸式增长,尤其是智能体式 ai 和超长上下文推理的需求。 一、 vera rubin super chip 超级芯片 gpu 不 能单独工作,需要 cpu 为 gpu 翻译程序,分配计算任务和传输数据,这就是英伟达独特的易购计算架构。 与 blackwell 一 样,英伟达采用台积电 coos 封装技术,将 cpu、 gpu 存储和互联等组建,紧密封装为一片超级芯片。这片超级芯片中包含了一片 veracube 带、两片 rubin gpu 带和 nvlink c2c 第二代片内互联组建 veracube 带是一个基于 arm 架构的八十八核 cpu, 包含了两千两百七十亿晶体管, 支持一百七十六线城 cpu 的 内存使用 l p d d 二五 x 内存条采用 p c b 上的可拔插设计,未被集成到芯片内部。 rubin gpu 带是芯片中的主力 ai 计算引擎,采用台积电三纳米制成,包含三千三百六十亿晶体管, 每片 gpu 带与一个 hbm 四模块紧密连接。 hbm 四为 gpu 提供了高速存储服务,带宽高达二十二 tb 每秒,比 blackwell 的 hbm 三亿内存带宽提升二点八倍。 nvlink c2c 互联组建提供了 cpu 与 gpu 之间的一致性内存访问和协调, 让微软 cpu 可以 直接访问 rubin gpu 的 hbm 四、内存,实现 cpu 和 gpu 的 统一内存,试图速度是传统消费级 pci 一 内存接口的七倍以上。二、机架方案 采用了 nvidia virus rubin nbl 七十二机架主流设计方案,集成了十八个 computer tree 计算托盘,每个托盘包含两个超级芯片,整机架一共七十二个 gpu。 三、 pcb 方案 计算托盘中采用 cable free 无缆线设计,使用中央高密度 pcb 连接所有内部高带宽信号。计算托盘间的 skill up 互联方案采用铜缆背板连接,这将大幅简化组装,实现盲插和零手动布线,减少了故障点,提升了可能性。 pcb 材料采用 m 九级 ccl, 成本较 blackwell 明显提升。四、互联方案 机架内的互联采用 nv link 六 switch 芯片,提供了单 gpu 三点六 tb 每秒,单机架二百六十 tb 每秒,带宽是 blackwell 的 整整两倍。机架间互联采用三点二 t 可拔插光模块,主要用于 skyout 网络,实现机架间百万 gpu 级扩展。 这里老黄还将 c p u 作为备选方案。 nv link 六 switch 与光引擎共封装,以替代传统光模块和架内的铜缆背板。五、机架散热方案采用百分之一百液冷方案,使用四十五度热水冷却,无需冷水机,避免冷凝水风险, 提升能效,并简化数据中心基础设施。与上一代 blackwell 相比, ai 推理的单 token 成本降低至约十分之一,某一超大模型训练所需 gpu 数量降至四分之一, 整体推理性能提升五倍,训练性能提升三点五倍。 verran 不是 简单升级 gpu, 而是把整个机架重构为统一 ai 加速器,用系统级协同把下一代智能体 ai 和万亿参数模型的效率比推新高度,二零二六年下半年将开始大规模部署。

您可能不知道,硅谷赵博刚刚参加了二零二六年一月五号拉斯维加斯国际消费电子展 c e s。 要知道, c e s 可是一年一度全球科技圈的年度盛典,黄仁勋的 keynote 演讲又是整个 c e s。 的 开始, 并且给整个人工智能行业的发展开了个头,定了个调。简而言之,英伟达又把人类算力的天花板给掀了。这不是简单的芯片升级, 这是最新一代架构 wario ruby 的 全新架构。老黄指着身后这台二点五吨重的庞然大物说,这就是如宾炮的,里面装着一千一百五十二颗顶级 gpu, 它是人类历史上最强悍的 ai 工程。为什么它这么强?核心秘密在于第六代互联技术 nv link 六,它每秒传输的数据量相当于全球互联网数据总和的两倍以上。 是的,你没听错,贷款吊打整个互联网加起来的数据量。这彻底解决了芯片之间学同运算的塞车问题, 让上千颗芯片像一颗大脑一样丝滑运转,算力密度直接推到了物理极限。您看细节, robin 的 推理性能是上一代 blackwell 的 五倍,训练性能翻了三点五倍,而晶体管数量只增加了零点六倍。靠着极致的软硬件协同, 老黄硬生生把 ai 的 推理成本降到了现在的十分之一。这种效率提升简直是在作弊。面对 rubin, 国产芯片压力有多大?目前国内最强的芯片包括刚上市的摩尔,现成 算力还在追赶英伟达前两代的水平。虽然单卡性能我们在拼命追,但在 nv link 这种高速互联协议和 hbm 四这种顶级显存的集成上,我们正面临前所未有的隔离。 英伟达卖的是一套完整的算力电网,而我们还在艰难解决。单体发电机的寿命有差距,不害怕,视而不见才危险。路柄的出现,标志着暴力算力时代的终结, 智慧竞赛才刚开始。虽然山高路远,但中国心从不缺破局的勇气,看清差距才是超越的起点。这一波英伟达的王炸,你觉得国产芯片该如何突围?评论区见。

nvivo 新一代 rtx 六零系列显卡曝光,采用 rubin 架构性能获提升百分之三十。 本届 ces 二零二六是 nvivo 五年来第一次没在 ces 发布消费级显卡, vivo rubin ai 计算平台成了五台焦点。 不过,知名硬件爆料者 copi 七 kimi 在 x 平台指出, nvidia 将在 rtx 六零系列显示卡上采用 rubin 架构,内建 g 二二零 x 芯片,并将于二零二七年下半年发布新的 gpu 产品线。 rubin 是 nvidia 下一代数据中心架构,将取代 blackwell。 相较 blackwell, rubin 的 晶体管数量仅增加一点六倍, ai 峰值效能却提升五倍。 nv 利亚下一代游戏显卡将采用何种架构未有定论。若爆料属实, rtx 六零将直接沿用 rubin 架构,而非另行为次世代游戏显卡打造全新架构。 事实上,去年已有迹象显示, nv 利亚可能考虑将 rubin 用于 rtx 六零系列。当时半导体分析师发现, 原本专为机器学习运算设计的 rubin c p x 加速卡内,包含未起用、偏向图形处理用途的硬体模组, 若恩维利亚计划将 rubin 架构延伸至三 d 图形运算,加入这些模组就合理了。另从 rubin c p x gpu 规格来看,未来若移植到 r t x 六零九零等产品上,性能提升幅度可能达约百分之三十。 有一点可以肯定的是,下一代 r t x 显卡将更加依赖 ai 图像生成。黄仁勋在 c e s 二零二六上再次强调,未来的游戏图形发展将不再以纯粹的光炸性能为核心,而是更着重神经渲染。 考虑到这一点,就不难理解为什么英伟达可能会将 rubin 引擎移植到游戏市场了?

刚看完黄奕迅的演讲,给我看困了,但是当我看到这三个大家伙的时候,立马精神了, 那我身后的这三台巨兽啊,指的这一台就是 mv link 五七六,终于见到真身了,君姐在这看到的时候, mv link 七十二,比我高一点点啊,现在已经是两 两米的大个子了。中间这一台是 g b 三百的七十二,关键的关键,今天的新品 vr rubin 七十二,这里面的 rubin gpu 比 blackwell 架构训练提升了五倍,而且它还单独扩展了存储池。因为我们在 ai 训练系统里面非常关键的一点就是 keep touch 的 需求非常大,所以它扩展了存储池,整个系统架构是重新设计了。这里面有一个关键的更新,就是它的 vr 的 c p u 是 专门针对智能体推理全新设计的,所以说它的推理能力, 智能体推理能力会非常强。最后大家肯定很关心它的效能怎么样,每瓦的效能提升了八倍啊, 参数实在是太多,根本记不过来,总之就是金钱的味道。但是这么强的性能要怎么用起来,用在哪里?能不能带来真实的生产力?黄奕勋在演讲里面也给到了非常清晰的思路,下一期给大家拆解 physical ai, 看完大的再来看小的,这就是因为达到 d g x spark 个人 ai 桌面服务站,那它解决了一个核心的痛点是什么?我们个人在家里工作的时候,可以把本地 的算力跟云上的算力协调起来,处理简单的任务,可以用本地的算力,那处理复杂的任务的时候,就可以把云端的算力协调起来。这里面可以看到,因为达哥很多厂商都有合作同机啊,包括这家有一个很特别的 联想,就是前两天 y y 跟黄瑞勋在对谈的时候, y y 让黄瑞勋给他签了一个,那明天黄瑞勋结束演讲后,会马不停蹄 一起去参加联想的 takeaway 的 演讲,我们继续追踪。最后给大家辟个谣,这次发布会其实没有任何关于五菱系列增强版的消息,基本都是在围绕 ai 服务站上,大家感兴趣的可以在这个展台上来看一看。

在 gtc 二零二六上,英伟达发布了 vrv 屏,我们该如何理解 vrv 屏的百分之百全液冷呢?首先,从核心的定位上就能看到这种变化,百分之百全液冷意味着液冷不再是选配或是高配,而是系统正常运行的刚性条件。 另外,从硬件的设计上,我们看到 gpu、 cpu、 nv link 交换机、电源光模块,所有这些发热部件都是液冷的。 还有呢,从液冷与机架芯片供电的一体化设计上可以看到,液冷冷管替代了电缆,正在融合到一起。从技术方案上来看呢,也有几个关注点,比如说,呃,四十五度,温水直冷, 不用冷水机阻,靠干冷气冷却塔自然冷却 pe 降至一点零五左右。这里是可以大大节省功耗的。微通道冷板,微米级流道,低热阻、高换热、强断流,适配两千瓦以上的单芯片。 还有被反复强调的三无托盘、零风扇、零软管、零电缆,全硬管,快捷维护更可靠。此外呢,机柜的冷却流量较 g b 三百 n v l 七二也是显著增加的。 数据中心测,我们可以看到的是, veruby 的 架构节能超过百分之三十,液冷系统价值量占比大于百分之六十,冷板、分水器、快接头都是核心增量。 当然,对于冷却液洁净度、微通道加工精度等等也有极高的要求了。总之, verry rubin 把液冷从散热手段升级为 ai 算力基础设施的底层架构,是高工耗时代的唯一解。

g t c 二零二六英伟达 v 二 ro 变平台液冷架构技术迭代与核心变化解析伞二零二六 g t c 英伟达液冷方案变化三,全链路闭环标准化,彻底规避碎片化适配的先天缺陷本次 g t c 二零二六英伟达液冷方案的另一核心变化是完成了从芯片热界面到机房 c d u 单元的全链路散热闭环标准化,彻底解决了行业长期存在的 东拼西凑、碎片化适配导致散热效率不足、漏水风险升高的痛点,完全贴合液冷安全必须从全链路源头把控的核心逻辑, 所有技术路线均为本次大会官方敲定。英伟达官方在入品平台中首次锁定了芯片级三层前置散热架钩,全部为出厂标准化标配,彻底终结了客户自行适配散热材料的碎片化模式。 金刚式热沉热导率高达两千到两千两百瓦每米开,是传统铜材料的五倍以上,加液态金属热界面材料 导热系数五十到八十瓦每米开,较传统硅脂热阻降低百分之六十以上。加精密微通道夜冷冷板,这套方案从芯片端就大幅降低了热传导阻力,避免了因芯片端热量到处不畅倒逼后端夜冷系统提高流速、提升压力 进而增加漏水风险的恶性循环,从源头优化了整个液冷系统的运行工况,也是当前唯一能量产 满足两千三百瓦 gpu 长期稳定运行要求的散热方案。同时,英雷达首次明确了如饼平台液冷全链路的技术规范,开放了官方生态认证体系,对于 manuf 的 快插接头冷板 c d u 的 核心部件制定了统一的适配标准。国内领益、利敏达等厂商的 innmanfort 与快插接口已进入如饼价购的官方合格供应商体系,这意味着客户无需再自行 先订机柜,再找第三方适配散热方案,直接采用官方标准化的全链路整柜交付方案即可, 从根源上规避了碎片化适配带来的设计缺陷、兼容性问题,彻底跳出了先进外壳在不散热的致命误区,实现了全链路散热效率与安全的统一。

大会中也提到了是万亿级别的一个算力市场,而且它这一款芯片基本上是提高性能,同时是减少了一个算力的消耗,使用的 tok 是要更少,但是能达到的效率是更高,更加的适用于像无人驾驶啊,零延迟的一个人机交互啊,有点类似于我们现在这种石油,它变成刚需。

刚结束的 gtc 二零二六大会上,英伟达呢,憋了一个大招,正式的推出 vivo rubin 平台。这个不是单芯片啊,而是一套全家桶塞进了七款芯片进去,从 vivo cpu、 rubin gpu 到交换机网卡、 dpu 全都给你配齐了。最猛的是新加入的 george 三 lpu 这个芯片呢,专门盯着 ai 推里的命门,延迟和功耗大, google 三 l p x 机架二百五十六块 l p u 挤在一块,光 sram 就 一百二十八 g p, 推力贷款直接干到了每秒四十 b p 和 vivo 入并平台一配合呀,推土推力吞吐量功耗比直接翻了三十五倍。 三星代工的 l p u 芯片,下半年呢,就能出货了,分析师郭明基也都预测了,二零二六年到二零二七年, l p u 能卖四百万到五百万颗,机柜的出货量呢,明年能够冲到两万。 那么这波英伟达的算盘呢,其实很清楚, ai 呢,早就不是生成一点文字图片那么简单了,现在要搞智能体、物理交互这些借势反应的活儿,延迟高一点,用户体验呢,直接会垮掉。没有 弱变呢,就是来解这个套儿了。 lpu 的 高速内存贷款、专制 dico 的 阶段的延迟,并还能够把推理成本啊往下压。但更值得注意的是,英伟达正从卖芯片转向卖整站方案。 以前呢,靠 gpu 打天下,现在 cpu、 交换机网卡全自己造,再配上液冷功耗优化软件,把 ai 工厂的每块砖啊都攥在了自己手里。 这对于行业来说呢,可能是算力积淀的一次大洗牌了,谁能更快地适配这套新体系,谁啊就能在智能体、物理、 ai 这些新的赛道占先手,而值得注意的是呢,国内那些给英伟达做 pcb 的 企业啊,这波估计又得忙起来了。

ar m 加 r t x 五零七零,英伟达往消费级 cpu 市场投了一颗重磅炸弹。如果你对数码圈的印象还停留在英特尔和 amd 争 cpu, 英伟达独霸 gpu, 那 你可能要准备更新一下认知了。 就在这个马年开年,黄仁勋掏出了一枚时隔十一年的回马枪,消费级 c c 芯片 n e x。 别急着划走,这颗芯片不是那种跑个分好看,一玩游戏就露馅的样子货,它是真的往芯片里塞进了一张完整的 rtx 五零七零,一张桌面级独显,就这么被塞进了 so c 里。 根据供应链的最新消息和多家外媒的证实, nvidia 与联发科联手打造的这颗 n e x 处理器将在二零二六年上半年正式登场。而这颗芯片最疯狂的地方在于它的 g p u 规格参数。不会说谎, cpu 部分,二十核 arm 架构分为两个十核集群, g p u 部分集成了四十八个 s m 单元,六千一百四十四颗 c u d a 核心。 这个数字意味着什么?简单做个对比,目前桌面端的 r t x 五零七零刚好也是六千一百四十四颗 c u d a 核心。 你没看错,那个让你在二 k 分 辨率下唱完三 a 大 作的甜点卡,现在被老黄当作核显,塞进了一颗笔记本处理器里。虽然受限于笔记本的功耗强和 l p d d 二五 x 的 限制,早期工程机的跑分只摸到了 r t x 二零五零的屁股, 但那是因为还没吃饱电一旦性能释放,这哪是核显?这分明是核弹!这甚至让人产生一个幻觉,以后买笔记本是不是不用看有没有读显了? 为什么是 arm? 老黄在下一盘大棋。很多人会问,好好的 x 八六不用,为什么非要折腾 arm? 答案藏在苹果的 m 系列芯片里。苹果用 arm 架构证明了在保证性能的同时,能把功耗和续航控制得让 x 八六阵营汗颜。 而现在的 pc 市场,正在经历一场从纯算力到能效比的价值观重塑。更重要的是数据传输通道的瓶颈。 现在的电脑里, cpu 和 gpu 是 两家人,哪怕是住在同一个主板上,也是通过 pci 通道传纸条。当 ai 模型越来越大,本地推理的数据量爆炸时,这个通道就成了拥堵的早高峰。 黄仁勋看得明白,想要让 ai 算力真正飞起来,必须让 c p u 和 g p u 说,同一种语言,无缝协做。 n e x 采用了统一内存架构, c p u g p u ai 模块共用同一块内存池,彻底解决了数据拷贝的延迟问题。 这对于运行本地大模型、实施 ai 绘图或者视频理解的用户来说,体验将是颠覆性的。 戴尔、联想已经上车,这是要围缴苹果?既然是重返消费市场,光有芯片不够,还得有兄弟捧场。 这一次,老黄的号召力依然恐怖。戴尔和联想已经确认成为首批 oem 伙伴,据说戴尔正在用这颗芯片打造下一代 alienware 游戏本和外星人轻薄本。而联想那边更是备好了拯救者 yuga 甚至 ideapad 的 多条产品线,准备全面铺货。 这阵仗摆明了是冲着两个对手去的。正面苹果的 macbook 系列、微软的 windows、 arm 生态一直被诟病,高通枭龙 x 系列虽然续航追上来了,但游戏兼容性和 gpu 驱动还是软肋, 而英伟达手里握着超过四百万 c u d a 开发者,以及几乎全覆盖的游戏生态。 c e x 目前主攻 arm, 但英伟达也没把路堵死。 消息称,他们还在和英特尔合作开发 x 八六架构的 rtx soc, 准备把英特尔的 cpu 核心和英伟达的 gpu 封装在一起。 这就叫两手都要抓,两手都要硬。当然,吹得再狠,也要看钱包的脸色。分析师普遍认为,搭载 n e x 的 笔记本定价将非常敏感, 如果能把价格压在一千到一千五百美元区间,凭借买 c p u 送 r t x 五零七零的噱头,绝对能引爆市场。 但如果因为成本过高冲到两千美元以上,那可能就会像当年的 tigra 处理器一样,成为小众即刻的玩具。写在最后,还记得二零一五年吗? nvidia 在 移动搜 c 市场杀鱼而归, tigra 系列几乎成了绝唱。 十一年后, ai 浪潮把老黄重新推回了牌桌中央。这一次,它不是以一个挑战者的身份,而是以一个规则制定者的身份回来的。 n e x 不 仅仅是一颗芯片,它是英伟达从数据中心、汽车机器人一路反推到个人电脑的最后一块拼图。 如果这颗塞进五零七零的芯片真的成功了,那么 pc 行业可能要迎来一个最残酷的洗牌期。毕竟,当老黄开始认真做 cpu 的 时候,隔壁的两位还睡得着吗?

就在昨天, gtc 二零二六大会发布的 vera arm cpu 搭载八十八个自研 olympus 核心,性能是前代产品的两倍。这不仅是芯片升级,更是生态体系的全面转向。传统 x 八六架构在 ai 计算中面临内存宽瓶颈, vera cpu 专为数据中心场景优化,支持 cksl 三点零内存扩展,将内存容量提升至 tb 级。 更重要的是,它与 rubin gpu 深度协同,构建易构计算新范式。 gpu 的 架构革命正在重新定义服务器的性能边界。当算力需求爆发,每一颗核心的效率都决定着 ai 工厂的整体产出。

我的嗨,科技圈发生这么大的事情,国内居然一点热度都没有。二六年一月份英伟达发布他的最新算力集训为他鲁冰的时候,那个评论区叫热闹啊, 真的都吹上天了。华为发布超算机群,国内几乎都没什么人知道。三月一号巴塞罗那世界移动通信大会预展上,华为直接甩出阿特拉斯九五零超级智算机群,正面硬钢英伟达最新旗舰维拉鲁宾 n v l 七二,看完你就懂了,英伟达 h 两百为啥两个月一张卡都没卖出去? 我们先来看看架构啊,英伟达的微拉鲁滨是一颗微拉 c p u 加两颗鲁滨 g p u 组成的一个计算单元,整个机柜一共是七十二个这种单元,也就是说七十二颗鲁滨 g p u 加三十六颗微拉 c p u 属于顶级单机柜方案。 而华为的阿特拉斯九五零直接上到八千一百九十二颗深腾九五零芯片,是真正的万卡超级智算中心。我们再来直接对比算力,这个最直接,英伟达这套训练算力是二点五亿 flops, 而华为直接做到八亿 flops, 是 英伟达的三点二倍。推理算力这边,英伟达是三点六亿 flops, 华为直接干到十六亿 flops, 是 英伟达的四点四倍还多。说到这,你们肯定说你华为八千多张卡胜之不武, 不是英伟达不想做万卡集群是做不到,是架构天生受限,他用的是 nv 令,可封闭互联整机机柜带宽只有两百六十 tb, 每秒一跨机柜速度和效率直接掉下来,只能玩小集群。而华为能做万卡集群的杀招是零驱全光互联技术, 总宽带高达十六 bp 每秒,是英伟达的六十二倍,相当于全球互联网峰值宽带的十倍,数据传输根本不堵车,时延低至两百纳秒 万卡同时干活不再卡顿的万卡集群,统一内存一千一百五十二 tb, 是 英伟达的十五倍。 全光通信无阻塞,上万颗芯片跟一颗芯片一样,协同单卡我们承认还有差距,但是在超大规模智算这个赛道,华为靠通信底座加全光架构,直接实现了弯道超车。 未来的 ar 算力早就不是比谁单卡强,而是比集群、比互联、比协同。中国智算正在从跟跑走向真正的全球领跑。

表现不好的时候,我就打到他开个旁白的东西,哎,你咋吃的?这个 top 我 在网上查的,好像蛮贵的。嘿嘿嘿,昨天咱们说了, top 就是 ai 的 工资,你用一次 ai 就 等于给他结一次账,上面写着消耗多少, top 应付金额是多少?但是很多人心里都会问一句,说把成本打下来,它真的能打下来吗? 我跟你说句实在的,能不是画饼,是技术结构彻底改变了。以前英伟达就是卖熟食的,你买回去自己跑, ai 自己凑自己调,怎么用全靠你自己。 ai 干一点活就要耗大量的算力,大量的电,成本下不来, token 自然就会贵。想要把这个成本真正的打下去,光靠换一块芯片根本不够。所以老黄这一次直接拿出了一套全新的东西, verry rubin。 它不是简单换一块更快的芯片,而是把整个技术结构重新做了一遍。同样的电量,同样的时间, ai 能干出好几倍的活,活一多平摊到每一次服务单位,成本自然就被砸低。 以前是买熟食自己折腾,现在 rubin 直接给你一整套现成的饭店。他做的就一件事,把 ai 的 工资,把 token 的 成本狠狠的打下来,打的特别便宜。所以 token 就是 ai 服务的计费单位,而 rubin 就是 让这个计费单位变得平价的一套体系。 哪能问你有没有清仓啊,没有清仓,一笔也没买,哈哈哈,这个机会买什么到他懂得,我指望他有这个行情,我要把他买得有了行情,何止是经济上人民币的收入增加,还是心情的愉悦。我不等唛,我就慢慢等这个机会。

都在说什么金刚石要隔夜冷的命定调啊!英伟达 rubin 散热金刚石在三年之内绝不可能落地 任何阶阶段炒作。英伟达 rubin 将采用金刚石散热的都是与产业背离的啊,非蠢急坏的人。那么赌金刚石散热,你跟现在去赌石有什么区别? 我们来看看产业逻辑,单片二英寸的这个金刚石片,光光是电费成本就要超过一万元,整个售价超过两万元,相比主流的这个水冷头,成本差异要达到二十倍,水冷才一百五十美元啊朋友们, 而且生产一片这个金刚石你就要几个礼拜,你怎么去满足英伟达今年几百万级的这个 gpu 的 这个出货? 那么我们来看看到底什么更容易落地啊?那反观这个 team 材料,因为它更薄的导热层,那么技术上反而是可行和落地的,对吧?所以在英伟达接下去的两代产品里面,页冷的方案上面还是能板块接投 c d u 的 技术方案。天下首页橱窗下单即可获得更多产业信息哦!

最近呀,很多朋友问我麦根米特,说看不懂,一方面呢,它是跟着苗红的 ai 服务器电源的核心供应商,深度绑定英伟达。 另一方面,股价却喋喋不休,特别是二零二五年底那份业绩预告,净利润大幅下滑超过百分之六十五,更是给市场浇了一盆冷水。 但与此同时,一个关键数据却被很多人忽略了,公司的合同负债,也就是在手订单,在二零二五年三季度末比二季度末翻了一倍。 一边是火焰,一边是海水,订单翻倍,利润大降,股价下跌,这背后到底发生了什么?是公司不行了,还是市场先生犯错了? 今天一姐就带大家来解开这个谜团。首先啊,我们得承认,这份财报确实不好看,利润为什么下降?几个原因都很直接。第一,毛利率在下滑,说明市场竞争在加聚,或者说公司为了抢占市场份额,在价格上做了一些妥协。 第二个,研发投入并没有减少,这个在雄市里对于利润是双重压力。第三呢,就是汇率波动,二零二五年汇率波动比较大,公司海外业务占比超过三成,汇率损失吃掉了一部分利润。 第四是最重要的,就是他们在做积极的海外扩张。麦格米特在泰国、印度的工厂正在建设和投产,这些新基地前期的折旧费会直接的反映在财报上,短期内必然会拖累利润。 你看这几条,条条都打在利润上,所以如果你只看这张利润表,那股价下跌似乎是理所当然的。 但是投资不能只看后视镜,我们来看看那些真正决定公司未来的东西,最核心的就是我开头提到的合同负债这个指标。你可以简单理解为公司已经收到客户定金,但是还没有交付产品的订单。 他从二零二五年中的零点六一亿猛增到三季度末的一点二三亿,翻了一倍。这说明公司的产品非常抢手,下游客户正在疯狂给他下订单,这些订单会在未来的几个季度变成实打实的收入和利润。 那么他拿了这么多订单,产能跟不跟得上。这就解释了为什么他要顶着压力去泰国长沙建新工厂。这二十六个亿的定增,大部分是为了给未来的 ai 电源订单储备产能。 所以现在你再看那些拖累利润的因素,高研发、建新厂,他们还是利空吗?不,他们是为了借助未来破天富贵的必要投入,是典型的短期阵痛换取长期增长。 所以麦格米特的故事是一个非常经典的案例,市场往往是短视的,他会因为一份难看的财报而恐慌的抛售。但是聪明的投资者会穿透这些短期的盈利波动,去寻找那些真正驱动公司长期成长的核心要素,技术、产品、客户和订单。 当所有人都盯着利润表上的符号时,你有没有看到资产负债表上那翻倍的订单呢?好,一一带你穿透科技的迷雾,我们下期见!

大家好,我是刘叔,英伟达 root 直接开启百万级元气剑时代,做元气剑搞芯片贸易的这波一定要盯紧!英伟达 root 这次直接重构了 ai 服务器计算拓盘三无设计、无电缆、无软管、无风扇,全靠盲插连接器加全液冷,组装速度直接快十八倍。 存储 hbm 四全面替代 hbm 三 e 单卡二百八十八 gb 宽带飙到了每秒二十二, tbpcb 直接干到了二十层到三十层,陶瓷玻璃芯基板开始量产。 mv 六跑到了每秒三点六, tb 高端连接器的需求直接翻倍!电源单机柜一点三亿个元气件,碳化甲、碳化硅成了行业标配,散热上风冷彻底被淘汰,冷板快茶夜冷全面爆发! 从 blackwell 到 ruben, 不 只是顺利的出生,也是每一颗电子元基建都在这里重新定价,这些全都是大增量。下一期我再讲讲牛叔看好的戏分类目,关注我,我是牛叔,只讲独家干货!

英伟达黄仁勋正在偷偷囤一种粉末,不是面粉,是比黄金还贵的金刚石威粉。为什么?因为他知道 ai 芯片的生死命脉,根本不在算力,而在散热。你知道现在训练一个 gpt 四级别的模型,电费烧掉多少吗?八千万美元, 其中百分之四十不是花在计算上,是花在给芯片降温上。就像你花了五百万买了台法拉利,结果每天花两百万给它装空调。现在的 ai 芯片有多烫?英伟达 h 一 百跑起来内部温度超过一百度,都快能煎牛排了。 传统铜片散热,那是用吸管给火山降温,直到有人把钻石搬了出来。对,就是你求婚用的那玩意。但现在国内某中科院合作单位就是河南的老厂,把它做成了比头发丝还细的粉末,贴在芯片背面,散热效率直接飙到铜的五倍。什么概念? 同样算力,温度直降六十度,能耗砍掉百分之四十,散热体积缩小百分之七十。 换句话说,以前需要三个风扇猛吹的显卡,现在一片钻石贴膜搞定。更恐怖的是价格,二零一九年这种金刚石微粉真比黄金贵。现在呢? 国内供应链把培育钻石技术卷成了白菜价,八英寸热成片已经量产,直接打进英伟达下一代 vera rubin 供应链。二零二六年被业内称为钻石散热商业化元年, 市场空间有多疯?从今年的零点三七亿美元,干到二零三零年的一百五十二亿美元,五年四百倍复合增长率百分之一百五十。这哪里是赛道,这是印钞机! 看清楚了,这不是概念炒作,上游河南某培育钻石龙头已经能量产高纯度金刚石微粉纯度达到五 n 级, 这是英伟达认证的入门券,江湖人称人造钻石一哥。中游郑州做 c v d 设备的厂,做金刚石热沉片毛利率超过百分之六十,比卖真钻石还赚钱。还有许昌某超硬材料老厂,手里握着四万多吨压机型,能碾压同行。 下游,英伟达, amd 已经官宣,下一代 ai gpu 全部换装金刚石同复合散热,这不是试验,是批量订单,肯定有人杠。钻石散热早就有了,也没见普及啊。对,以前贵,以前只能用在卫星和雷达上一颗散热片购买套房, 但现在某东方大国的供应链把成本打下来了,以前是军用航天,明年就是你的游戏显卡。记住这个铁律,凡是某东方大国能量产的,价格都得吸展,凡是价格吸展的,市场都得爆炸。 最后说个暴论,未来三年,金刚石散热材料可能会是 ai 赛道里涨幅最猛的,细分不是算力芯片,不是光模块,是这种比黄金贵的粉末。因为当所有人都在挖金子的时候,卖铲子的人才是稳赚的, 而当铲子变成了钻石做的,也许卖铲子的人就是下一个首富。所以,别再去追那些已经翻倍的 ai 大 票了,真正的黄金坑,往往在那些你看不懂、看不起,但贵得离谱的技术里。 等到英伟达发布会正式展示钻石散热显卡那天,这桌菜早就上齐了,你要么现在上桌,要么以后买单。关注我只讲主力,不敢讲的真相!

英伟达的 black cube 系统还没捂热,下一代 vr ruby 已经来了。今天就带大家看一下英伟达下一代 vr ruby 算力系统的核心细节。这套为 ai 打造的机架级系统,除了由七十二颗 ruby gpu 和三十六颗 vr cpu 外,整套系统更是由一百三十万个组建构成, 汇聚中国、越南、泰国等二十多个国家和地区的八十多家供应商,堪称全球产业链协同的 ai 算力巅峰之作。性能层面, verubing 的 功耗虽为前代两倍,但每瓦性能较 blackwell 提升十倍,算力能效比直接跃升,这一突破的意义十分直观。此前一度电仅能支撑一单位的 ai 算力运行, 如今一度电可输出十单位算力。正是由于功耗上升, verubing 也是英伟达首个百分之一百液冷散热的系统,全机架采用液冷闭环架构,不仅散热效率大幅提升, 还能比传统蒸发冷却节约更多水资源。传输与运维同样亮点,拉满 n v link 芯片,数据传输速度翻倍至两百六十 t b 每秒单机架需五千根铜缆连接总长达两英里, 维护效率大幅简化。 like 有 机架更换计算托盘需两小时, vr ruibing 仅需五分钟 s o c a m 低功耗内存支持单独插拔,告别主板焊死设计运为成本直线下降。面对 amd 等对手的竞争,英伟达正用 vr ruibing 压住未来,这头由全球供应链支撑起的算力巨兽,你期待吗?