我原本以为英伟达在三月二日发布五九五点七幺驱动后就能稳定一阵子了,毕竟这是给五九五点五九擦了一波大的,没想到还有高手。 就在昨天,英伟达发布了五九五点七六热修复驱动,解决了在显卡超频时 gpu 电压可能会受到限制,从而无法发挥显卡应有的性能,也就是解除了五九五点七幺左电压的臭毛病。同时还修复了生化危机安魂曲中使用次表面散射时可能会出现白色发光点, 改进了生化危机,安魂曲中路境追踪的性能,解决了星际公民游戏客户端启动时崩溃的问题,解决了 h d c p 显示器上浏览器中播放多米奥 d r e m 内容时可能会掉驱动。我建议所有玩生化危机安魂曲还有更新到五九五点七幺驱动的用户尽快安装此版本。
粉丝3.2万获赞64.6万

四十亿美元,英伟达买的不是芯片,而是光。二零二六年三月二日,黄仁勋突然抛出巨资,将 lumentum 和 coherent 两家光学巨头死死绑定。当大家还在为 gpu 芯片的算力惊叹时,英伟达已经悄悄掐住了全球 ai 的 另一个命门。 这背后的真相藏在一个被所有人忽略的物理极限里。传统的铜线快要被 ai 庞大的算力烧穿了。 随着 ai 计算规模的爆炸式增长,数据中心内部的铜缆连接已经成了最大的拖累。铜不仅速度跟不上 gpu 的 狂飙,更致命的是耗电。目前铜缆传输功耗占到了整个 ai 数据中心电力的百分之三十以上, 如果任由这种模式发展下去,到二零三零年, ai 将吞食全球百分之十的电力。为了打破僵局,英伟达瞄准了硅光子技术, 用光代替电传输数据,能效可以直接提升三点五倍,网络功耗骤降百分之六十五。 这是一场从比特到光子的物理学自救。但这绝不是一次简单的技术投资,而是一场极其冷酷的供应链围角、生态垄断。英伟达用四十亿美元换取了未来能源的优先供应权。就像早期的石油巨头垄断炼油厂一样,黄仁勋不再满足于只卖蒜粒引擎, 他要掌控整个 ai 的 光学神经系统。投资协议明确要求两家公司在美国本土建厂破产,这既是为了规避复杂的全球供应链断裂风险, 也是在用真金白银换取对关键组建的绝对控制权。这笔救命钱让两家光学公司的股价瞬间飙升,却让竞争对手们倒吸一口凉气,英伟达正在构建一堵难以逾越的生态壁垒,试图在触发反垄断红线之前完成垂直整合。 这场科技巨头的狂欢,却在舆论场里撕扯出截然不同的情绪。一方面,资本市场为能源转型和铜价利空陷入集体亢奋。另一方面,现实焦虑却在不断蔓延。当 ai 承诺的效率跃升迟迟未能普惠大众时, 公众看到的是少数巨头用高昂的环境代价换取万亿市值。这是一个极其刺骨的社会隐喻。硅光子技术让数据传输达到了光速,但这种光速资本主义也在无情的加速财富集中。 数据中心的物理瓶颈被打破了,但现实中信息与阶层不对称的鸿沟却越来越深。在 这趟以光速狂飙的科技列车上,底层民众难以触及 ai 红利,却被裹挟着承担时代的高昂能耗。当物理的极限被光子轻易突破,资本垄断的边界,又该由谁来踩下刹车?

又要聊科技圈和资本市场最热乎的一条大新闻,英伟达又砸钱了,而且是四十亿美元的大手笔,这到底是怎么回事儿呢?就在这周一,英伟达官宣了两笔大投资,分别投给两家做光学技术的公司,一家叫 lumen, 一 家叫 coherent, 个投二十亿美元。 这可不是简单的财务投资,背后是实打实的锁单,包含了几十亿美元的采购承诺,还要拿人家未来先进激光组建的产物权。 听到这,可能有朋友要问了,英伟达不是做芯片的吗?怎么就突然去搞光学了?这个问题问到点子上了, 大家想想,未来的 ai 集群,从现在的万卡级别,要发展到百万卡级别,会遇到什么问题?最核心的两个功耗和带宽,传统的铜线传输和可插拔光模块已经快扛不住了, 而供封装光学技术,也就是 c p o 能把光引擎和芯片封装在一起,功耗更低,贷款更高。黄仁勋说的更形象,要建下一代极瓦级 ai 工厂,这工厂的血管是什么?就是高速光互联。 所以,英伟达这四十亿美元,本质上是在给自己未来的算力帝国铺路搭桥,而且是那种最核心、最先进的光桥。 那对我们 a 股投资者来说,最关心的肯定是这钱流进了谁的口袋,我们有没有机会分一杯羹。虽然钱直接给了两家美国公司,但产业链的导效应已经显现了, 今天开盘, c p u 板块就集体高开,汇率生态、科瑞技术直接涨停。券商研报里也点出了一批受益的公司,光芯片和光引擎这块中继续创新,益盛、天福通信、圆结科技这些是四重点。圆结科技已经能量产 c w, 七十毫瓦的激光器芯片, 一百毫瓦的产品也在验证中了。设备这块,罗伯特科、聚光科技、捷普特这些也被机构看好。捷普特前两天还二十厘米涨停过, 大家发现没有,这已经不是单纯的光模块概念了,而是往上游的更精密、更难做的光芯片和硅光设备在延伸。更有意思的是,这波 ai 基建浪潮不只是英伟达一个人在战斗, met 也出手了, 刚跟康宁签了六十亿美元的大单子,要买光纤,这又带火了一批光纤,中天科技被机构推荐,长飞光纤、烽火通信、永鼎股份也都在受益。名单里 还有叶冷, ai 芯片工号越来越高,叶冷已经从可选变成 b 选项了。看看维 d 技术的财报,订单增长好几倍,国内做叶冷的龙头英维克,还有森林环境高栏股份,这些也都是这条赛道上的选手。 说到这,我想从一个老朋友的角度给大家几句心里话。第一,别把受益当 b 涨,产业涨多了也会回调,看到概念就冲进去,往往是买单的那个。 第二,要分清谁是真龙头,谁是蹭热点。像中际旭创、天福通信这些已经深度绑定海外大厂的,和那些刚刚宣布布局的含金量完全不一样。 看研报、看业绩、看订单比看概念更重要。第三,要有产业眼光,别只看 k 线。英伟达这四十亿美元告诉我们的核心信息是, ai 竞争已经从芯片性能升级到系统级的光互联能力。 这个 c 道不是短期炒作,而是未来三到五年的产业趋势。最后提醒大家,好公司也要好,价格追高有风险,耐心等回调才是真功夫。

哈喽,大家好,我是才哥。就在昨天,科技圈和资本市场最炸的新闻莫过于英伟达豪掷四十亿美元,一头扎进了光学赛道。 三月二号,英伟达宣布和光通信巨头 lumentium 建立深度合作,不仅给出了数十亿美元的长期采购承诺,还直接砸了二十亿美元真金白银去投资,支持对方建晶圆厂扩产能。 消息一出, lumen 股价直接涨超百分之十一,另一家光学大厂 coherent 更是狂飙近百分之十五,纷纷再创历史新高。 很多朋友可能问问答,这是图什么?其实答案很简单,这是在为它下一代的 fireman 架构铺路。现在 ai 大 模型越做越大,传统的电连接已经快顶不住算力需求了,光互联也就是用光线来传输数据成了突破瓶颈的关键。而我们常说的 c p o, 也就是供风装光学技术,正是实现这一目标的核心路径。 新伟达这一步等于直接给整个 cpu 赛道按下了加速键。那么站在这个风口上,国内有哪些核心公司能分到一杯羹呢?咱们来挨个梳理一下。这些公司大多都和北美顶尖的科技大厂有着深度绑定。 首先看天福通讯,全球光机电风装龙头深度绑定英伟达、微软、谷歌等北美算力大厂与头部光模块厂商在光引擎、 cpu 相关组建领域布局领先, 为 ai 光互联场景提供核心封装解决方案,是北美算力建筑设施建设的核心供应商之一。你想想,英伟达自己都下场投钱做 cpu 了,那像天福通信这样已经深度绑定的供应商肯定会跟着受益,毕竟后面的产能扩张、技术迭代,都离不开这些核心组建的支持。 接下来是源接科技,国内高速光芯片龙头核心产品已进入斯柯、英伟达等北美大厂供应链,在二十五 g、 一 百 g、 两百 g 高速率光芯片领域实现突破。作为 cpu 技术的核心底层组建供应商,支撑北美 ai 算力网络的光互联需求,助力产业链自主可控 光芯片可是 c p o 技术的心脏,没有高性能的光芯片,光互联就是空谈。圆接科技能打进英伟达的供应链,说明它的技术实力已经得到了行业最顶尖玩家的认可,未来随着 c p o 的 普及,它的市场空间肯定会越来越大。 再看罗伯特科,聚焦光电子高端智能装备,为英伟达、博通等北美大厂的光芯片、光模块产线提供自动化与检测设备。随着 c p o 产能扩张与技术迭代,公司装备业务将迎来北美算力厂商的需求放量,成为全球 c p o 产业链扩展的重要支撑。 你想啊,英伟达给霖曼腾投了二十亿建精原厂,那工厂里的自动化设备、检测设备肯定得跟上吧。罗伯特科做的就是这个,相当于给 cpu 产业链的扩产保驾护航。这种卖铲子的生意,在行业爆发期往往能吃到最稳的红利。 还有环旭电子、全球电子制造服务龙头深度合作苹果、英伟达、微软等北美科技巨头,在高速互联光模块封装领域具备成熟产能,积极承接 ai 相关高速光通信模组与 c p o 相关封装业务,是北美 ai 算力其他设施建设的核心制造伙伴, 环旭电子的优势在于它的制造能力,不管是高速光模块还是 cpu 封装,都需要高精度的制造工艺,而环旭电子在这方面已经积累了多年的经验,和英伟达、微软这些巨头的合作也非常深入,未来肯定能从 cpu 的 商业化进程中分到一杯羹。 聚光科技同样值得关注,国内激光光学核心厂商光学组建与激光技术已供应英伟达、谷歌等北美大厂,可应用于 c p o 相关光互联模块,为 ai 光互联场景提供核心光学解决方案。深度参与北美下一代算力基础设施的技术迭代。 聚光科技的技术比较硬核,它的光学组建和激光技术是 c p o 光互联模块里非常关键的部分,能给英伟达、谷歌供货,说明它的技术水平已经达到了国际一流。随着 c p o 技术的不断成熟,它的产品需求肯定会越来越大。 世嘉光子专注光通信芯片与器械,部分光器械产品已进入思科、谷歌等北美大厂供应链,在光分路器、高速光器械领域具备产能优势。随着 cpu 技术对光器械需求提升,公司将受益于北美 ai 光通信芯片设施的扩容需求。 释迦光子虽然不像前面几家那样和英伟达绑定的那么深,但它在光机电领域有自己的优势,尤其是光分路器和高速光机电,这些都是光通信网络里必不可少的东西, cpu 的 普及会带动整个光通信产业链的需求,释迦光子自然也能跟着受益。 光库科技深耕光通信无源器件产品供应,微软 mate 等北美云厂商在光连接器、光衰减器等领域具备核心竞争力,为高速光模块与 cpu 系统提供基础。光机电支撑 直接受益于北美 ai 算力网络的建设浪潮。无源器械可能听起来没那么高大上,但却是光通信系统里的基础,就像盖房子需要的砖块和水泥一样。光库科技在这方面做的很扎实,和微软 mate 这些云厂商的合作也很稳定。随着北美 ai 算力网络的建设加速,它的产品需求肯定会持续增长。 智尚科技聚焦精密制造与电子散热,为硬维、达斯科等北美大厂的光模块算力设备提供散热解决案与精密组建 cpu 技术对散热与精密制造要求更高,公司相关业务将迎来北美 ai 算力场景的新增长机遇。你可能没意识到散热对于 ai 设备来说有多重要,尤其是像 cpu 这种高级程度的技术,发热量会非常大,如果散热跟不上,设备很容易出问题。 智尚科技在散热和精密制造方面有自己的一套解方案,能给英伟达斯柯供货,说明它的技术已经得到了验证,未来 cpu 的 普及会让它的散热业务迎来新的增长点。 最后看华工科技,国内光通信全产业链龙头,旗下子公司深度绑定微软、英伟达、谷歌等北美头部客户,在八百 g 一 点六 t 高速光模块与 c p o 相关技术上持续推进, 是北美 ai 光互联与 cpu 商用落地的核心参与者之一。华工科技的优势在于它的全产业链布局,从光芯片到光模块再到 cpu 相关技术,它都有设计,而且和微软、英伟达这些巨头的合作非常深入,相当于直接参与到了北美 ai 光互联的核心建设中, 这样的公司在 cpu 赛道上肯定会占据重要的位置。总的来说,英伟达这四十亿不仅是投给 lument, 更是投给了整个 ai 光互联的未来 cpu 赛道的商业化进程正在被巨头们强力加速。 你想想,以前 cpu 还只是停留在实验室里的技术概念,现在英伟达直接砸钱进来,带动整个产业链一起往前跑,这就相当于给整个赛道打了一剂强心针,未来 cpu 的 商用落地速度肯定会比我们想象的要快。 好了,今天的分享就到这里了,再次强调,我跟你说的所有内容都是基于公开信息整理的,只是跟你交流下行业动态,绝对不构成任何投资建议。 毕竟投资有风险,入市需谨慎。你要是真的想投资,还是得自己多做功课,多研究。要是你觉得今天的内容对你还有点参考价值,欢迎点赞、关注、评论,咱们下期再见!

据华尔街日报最新报导,英伟达计划在三月举行的 gtc 开发者大会上,正式推出一款专为人工智能推理定制的新芯片。黄仁勋长期宣扬的通用 gpu 万能论终于被现实给打破了。手里握着超百分之九十训练市场份额的英伟达,为什么突然要启动第二条产品线?他曾经引以为傲的技术壁垒是不是真的开始显露疲态? 今天我们就来拆解英伟达发布定制推理芯片背后的算力洗牌局,以及整个科技圈正在面临的变现焦虑。经常关注 ai 服务器和算力市场的朋友应该能敏捷的察觉到,过去几个月整个行业的风向已经变了。之前大家都在疯狂砸钱搞大模型训练,那是前期均被禁赛的阶段。但现在随着能够自主执行任务的 ai 代理被大规模部署, 市场真正的需求已经从前期的算力堆叠正式转向了目前的大规模推理时代。在这个大趋势的转变下,英伟达原本那套打法开始行不通了。 尽管英伟达的 hopper、 blackwell 以及未来的 rubicon 系列 gpu 在 训练领域享有绝对的霸主地位,而且也享有最高的定价权,但在实际的大规模推理业务中,劣势非常明显。目前众多开发 ai 的 企业发现,用传统的通用 gpu 去运行模型,不仅采购成本极其高昂,而且消耗了海量的能源。 如果单纯从企业日常的运营效率来算账,这些传统 gpu 根本就不是最优解。具体是为什么?我们从底层拆开来看, ai 推理通常可以被分成两个阶段,一个是提示词解释,另一个是逐词生成响应。在第一个提示词解释阶段,任务能够很好的契合通用 gpu 强大的并行计算架构,所以效率劣势并没有那么显著。 但是到了逐词生成响应这个阶段,也就是真正输出结果的时候, ai 通用 gpu 就 显得力不从心了。由于架构设计的局限性,算力利用率提不上来,再加上 gpu 本身就不低的功耗,直接导致客户的综合推理成本居高不下, 成本降不下来,客户自然就会去寻找替代方案。这直接催生了包括谷歌 tpu 和亚马逊 tree n 在 内的大厂自研芯片加速入局,也使得很多原本极其依赖英伟达的客户在选择底层硬件时变得犹豫了起来。 面对这种算力生态四面楚歌的压力,英伟达的反应非常果断,那就是彻底放下对单一产品线的执念,用资本换时间。去年底,英伟达花了两百亿美金直接收购了 rock 团队,目的就是把他们独创的语言处理单元,也就是 lpu 技术纳入麾下。而在即将到来的 gtc 大 会上,我们要看到的这款推理新芯片,就是整合了 lpu 技术的新产物, 它和英伟达传统的 gpu 架构完全不同,是专门针对模型推理来设计的,能够大幅度改善前面提到的逐次生成响应阶段的效率难题。 华尔街日报的消息称,这款为推力而生的新产品目前已经拿下了头部大单, openai 已经同意购买这款新处理器,并且计划利用这套新系统来改进他们自家的 codex 代码生成工具。英伟达的目的再明确不过了, 就是想用这款高效率的定制芯片,把那些因为高昂成本而犹豫不决的客户重新带回到自己的基本盘里。从整个商业生态的视角来看,在这一波 ai 浪潮里,英伟达几乎吸走了市场上大部分的利润。 对一个庞大的产业来说,这不仅是不健康的,更是缺乏长期可持续性的。如果从商业周期的角度来审视,早期的巨额资本支出为了抢占高地,这符合商业逻辑。但是,如果长期的资金投入始终无法转化为实际的业务收益,或者企业发现自己根本没有停止花钱开始丰收的那一天,摆在面前的只有无穷的算力支出和更无尽的未来回报, 那么资本市场必然会失去耐心,一旦耐心耗尽,整个板块都将面临极其惨烈的重新定价。所以,英伟达下个月要在 gtc 上推出的这款推理芯片,不仅仅是启动第二产品线那么简单,它是对行业算力成本高起的一次低 头,也是应对资本市场盈利焦虑的必然选择。在算力战场从训练全面转向推理的今天,谁能真正帮客户把综合成本打下来,谁才能在下半场笑到最后?

英伟达三月十六号的 gtc 大 会会有一款新的 gpu 芯片 fan 亮相,那么这个 fan 呢,到底会不会给哪些戏份赛道带来机会呢?今天倒是有一个啊,关于钻孔跟钻针的, 因为这个 five 曼芯片呢,它需要 m 九级比较硬度的材料,同时呢,它又是多层堆叠,所以说钻孔就比较的难,同时呢,对于钻针的消耗呢,又特别的大。国内呢,做钻孔跟钻针的就那么几家相关核心的公司, ai 一 搜索全都知道了,这是一个积分赛道,有可能有大机会。

二零二六年三月二日,摩羯士丹利发布了一份名为将英伟达重新定位为半导体中的首选的深度研究报告。这份报告的开篇就极具冲击力,大摩宣布正式将英伟达重新列为半导体板块的第一顺位首选股。很多人可能觉得英伟达已经涨到头了,但数据却说出了截然不同的真相。 在过去的两个季度里,英伟达的股价几乎维持在一百七十七左右原地踏步。但与此同时,市场对其当前季度的盈利预期在短短半年内竟然狂飙了百分之三十八。大摩认为,目前该股对应二零二七财年 e p s。 的 市盈率仅为十八倍,这不仅不是高位,反而是一个让人惊喜的配置切入点。 那么,大魔加码的底层逻辑究竟是什么?第一是供应链中真实存在的疯狂打款。报告指出,这种清晰度并非来自猜测,而是来自真金白银。那些超大规模云服务商正在向供应商下达长达三年的订单,有些甚至已经在本季度提前支付了二零二八年百分之一百的全年收入预付款。 如果大客户们打算明年就停止投入,他们绝不会在现在就把后年的钱全付了。第二是产品路线图形成的降维打击。 尽管市场上有 icc 或 amd 的 竞争,但英伟达手中握着一张即将于下半年出货的王牌,如本架构。大摩的调研显示,即使是那些自研芯片或使用竞争对手产品的巨头,在二零二六年与英伟达的业务往来预计仍将增长百分之八十以上。 目前,英伟达依然掌控着约百分之八十五的市场收入份额,我们来看看大模模型给出的硬核预测。一、收入规模,预计二零二六年 g a a p 收入将达到两千一百五十九亿美元,而到二零二七年,这一数字将跳升至三千五百三十八亿美元。 二、盈利能力,二零二七年的每股收益预计将达到七点九二三、价值空间,大模维持二百六的潜在溢价空间。 当然,任何投资逻辑都要看两面,大摩也给出了理性的风险预警,如果存储价格持续翻倍,英伟达下半年的毛利率可能会从预期的百分之七十五略微下修至百分之七十四左右。此外,如果 ai 终端市场未能如期爆发,或者出口管制进一步收紧,股价也可能回测至一百六十的水平。 但整体来看,大摩的信心非常明确,目前市场对增长持续性的担忧正处于一个情绪低点,而这往往就是反转的开始。当全球最顶尖的科技公司已经开始提前锁定二零二八年的算力门票时,你真的认为这场竞赛已经结束了吗?

股友们,这条消息对得起重磅两个字。就在刚刚,英伟达分别给 lucentum 和香港公司各投二十亿美元,加起来四十亿美金。这钱不是小数目,而且不是普通的财务投资,是带着采购协议的,是要锁定人家未来产能的。 很多老铁可能会问,英伟达不是做 gpu 的 吗?怎么突然砸钱给两家做光的公司?背后藏着什么秘密?咱们直接说。核心黄仁勋在声明里提到一句话,叫下一代计瓦级 ai 工厂。啥意思?就是 ai 算力规模要从现在的万卡级别往百万卡级别冲。 但问题来了,当几百万张卡放在一起跑的时候,怎么让他们之间高速通信?传统方案扛不住,贷款也跟不上? 这时候就需要光,但不是以前那种光模块,是更狠的,技术叫 c p u, 中文叫供风装光学,说白了就是把光学器械直接塞进 g p u 的 肚子里,让光信号代替电信号传输。 这样做的好处,数据说话,工耗能降百分之五十到百分之七十,信号损耗能从二十二分倍锐减到四分倍。对于动辄几十亿建一个数据中心的大厂来说,这账太好算了。咱们再深挖一层,英伟达这部棋,其实是算了一笔大账。你看他们这几年 投数据中心、投大模型公司,投 ai 应用,现在又砸钱投光器械,逻辑很清晰,要把整个 ai 生态圈在自己手里。但光器械这块,说实话是以前最容易被忽视的瓶颈。 高速率激光器这东西因为生产工艺太复杂,累积环节特别难搞,产物一直卡脖子,英伟达这四十亿美金投下去,直接帮他们建金源厂扩产能, 这意味着什么?意味着到明年后年,当别人还在为拿不到货发愁的时候,英伟达的供应链是稳稳的。来看一组数据,根据行业预测,到明年全球八百 g 以上的高速光模块出货量要增长二点六倍,一点六 t 产品正式进入量产元年, 整个疏通高速光模块市场,明年的规模预计冲到三百五十二亿美元,增长率超过百分之一百三十六,这个赛道正在进入爆发期。再说回咱们 a 股,很多老铁关心这对国内产业链有什么影响?逻辑其实很清晰,全球需求起来了,国内龙头必然受益。 中际续创新益盛、天福通信这些都是全球主流云厂商的供应商,只要海外大厂加单,他们是直接喝汤的。 再往上游看,光引擎、微透镜、光纤阵列单元这些细分领域技术壁垒高,价值量也高。比如硅透镜,现在已经占了数据中心单模光模块百分之七十五的份额, 国内做这块的,像藤井科技、聚光科技都踩在风口上。还有一个方向值得盯着,就是国产激光器、圆结科技、常装华新这些虽然在高端领域还在追赶,但现在整个行业产能紧张,给了他们宝贵的窗口期, 只要产品能打进去,就是增量。最后给老铁们捋一下逻辑, ai 算力发展到今天,单纯的堆芯片已经不够用了,真正的瓶颈在互联,谁能把光的问题解决好,谁就能在下一轮竞争中抢到身位。 英伟达这四十亿,表面上是买能,实际上是买时间、买技术,买未来三五年的护城河。咱们古有要记住一句话, ai 的 下半场是光的战场, 从可插拔光模块到 c p o 供风装,技术迭代才刚刚开始。那些掌握核心光芯片、光引擎能力的公司,接下来的想象空间比很多人想的要大得多。好了,以上仅供参考,不构成投资建议。市场有风险,投资需谨慎。今天就聊到这儿,点赞关注,下期见!

英伟达近期驱动彻底失控,连续两版正式驱动均出现严重 bug, 从硬件安全风险直接演变为了性能暗砍 rtx 五零系用户务必警惕。二 月二十七日,英伟达推送五九五点五九驱动,本意是优化生化危机久,结果上限及爆发灾难性 bug, 显卡风扇识别异常直接停转,高温覆盖下温度飙升,官方当天紧急下架,堪称最翻车的驱动之一。 本以为三月二日推出的五九五点七一能解决问题,仅修复升华为一九 bug 与风扇故障后,更隐蔽的问题接踵而至。 wccftech 实测实锤 rtx 五零九零出现核心电压强制降低,频率被锁三 g 赫兹以下,即便手动超频也无法突破限制,性能被人为限制。 同时也有用户反馈,它的五零八零在超频下同样被限制到了三 g 赫兹以内,电压也有所降低。 我用我的五零八零来进行同步对比,五九五点七一与五九幺点八六测试了默认与超频之后的分数对比,取三次测试的平均值,三 d mark timespace extreme 跑分仅提升百分之零点五,几乎无增益。 speedway 倒是提升了百分之五,但是超频后对比之前的驱动, timespace 反而降低了一分, speedway 低了九十分,这还是保守超频远没碰到三千频率, 五零八零已出现了微弱的性能倒退,换到旗舰五零九零频率与电压被双重限制,性能损失只会更严重。从风扇停转到按锁电压看性能应答,两板驱动接连出现漏洞,五零系显卡用户限阶段强烈建议停留在五九两点八六。

哈喽,大家好,英伟达要发布新的推理芯片了。那这个是华尔街日报的报道,他说呢,在英伟达三月份的 gtc 大 会上,将会发布一款专门为推理设计的芯片。那我们知道现在英伟达它的芯片都叫做 gpu, 那 gpu 的 能力呢?其实是会更偏向当前这些大模型的训练, 就是把这些大模型给做出来。但是在训练之后的推理阶段,也就是在大模型的日常使用上,用 gpu 来做大模型的推理, 有可能在成本上并不是最优的。那这个时候一些专门为推理所设计的定制芯片,比方说谷歌的 tpu, 比方说亚马逊的春年,可能在成本上就会有一些优势。 那现在呢?因为他自己终于也开始要做自己的推理芯片了。而且呢,根据花旗日报,虽然说它这个推理芯片暂时还没有发布,但 但是客户也都找好了,那就是 openai。 那 昨天 openai 刚刚公布融资,又融到了一千一百亿美元,其中有英伟达的三百亿。那看来 openai 又可以拿这笔钱去找英伟达买新的推理芯片了。那这一次英伟达全新的芯片呢?也和它去年底的一个收购有关。 那去年底英伟达收购了一家专门做推理芯片的公司 grog, 那 这个不是马斯克那个 grog, 这个是 grog, 一个做推理芯片的公司。那这家公司的创始人呢?也是谷歌初代 t p u 的 设计者之一,所以说 grok 设计推理芯片其实是有特长的。那在去年底的时候,英伟达花了两百亿美元获取了 grok 全部的技术, 以及把这个创始人挖到了英伟达自己的公司里面,那关于 grok 的 技术,我们再提一下,它其中一个比较主要的技术路线就是放弃了 hbm, 在 grok 公司原本所设计的芯片里面是完全没有 hbm 的, 它全部用的是叫 sram, 那 这跟传统的 hbm 堆叠在 gpu 旁边不一样, sram 是 完全集成在芯片里面的, 也就是在电路设计的时候就把它设计在整个芯片里面,代工呢也是完全交给台电代工,不需要再从外部去购买 hbm。 不 过呢,这个纯 sram 的 路线可能有一些极端了,它也是 grok 自己之前的技术,那现在因为它用它的技术设计出来的全新的推理芯片, 可能多少还是会做好 sram 和 hbm 的 结合,但是呢, sram 的 比例可能会高一些,那也就是说在全新的推理芯片上,对于外部的 hbm 的 需求可能会相对小一些。那我们就看三月的 gtc 大 会,看这个芯片到底会怎么样。

算力战争开启第二阶段英伟达即将在三月的 gtc 大 会上推出 lpu 语言处理单元,这标志着算力的战争即将从争夺训练效率的第一阶段进入比拼推理响应的第二阶段。 那么,什么是推理?大模型需要先训练用户,再向训练好的大模型提问。于是大模型启动推理过程,先输入用户问题,再依据以训练好的参数计算得到答案,最后将答案返回给用户。 未来的智能体需要依靠大模型的推理能力,用户对智能体的任何一次指令都可能在后台触发几次甚至几十次的大模型推理,任何哪怕十毫秒的推理延迟都会被反复叠加放大几十倍,导致用户感受到严重的卡顿。 于是,大模型推理的响应速度直接决定了智能体用户体验的好与坏。尽管英伟达的 h 一 百在模型训练上无可匹敌,但在面对实时聊天、逻辑推理等 token 生成任务时,传统 gpu 架构开始显得力不从心。 打个比方,如果将算力比作汽车的运力,那么 gpu 和 lpu 就 像是重型卡车和跑车的区别,只要时间足够,重型卡车的运力绝对碾压跑车。但是在大模型的推理中,响应用户的每次提问只需要少量的算力, 但是需要极快的响应速度, lpu 这辆跑车无疑就是最好的选择。那么 gpu 不 适合快速推理的原因是什么呢? 一、显存强。 hbm 显存不算快,数据与 gpu 核心间的往返延迟也很大。二、低效率。 gpu 专为海量并行设计,但在处理竹子生成这种串形推理逻辑时,大材小用且功耗惊人, 因此 lpu 放弃了 hbm 方案,直接在芯片内部集成了 sram。 相比于 hbm 封装的 dm 片上, sram 响应速度比片外 hbm 快 几个数量级。 drm 采用了电容结构,每一位二进置数据存放在一个电容中,数据的读写就是电容的充放电过程,这需要一个短暂的时间,导致了数据的读写有延迟。优点就是结构简单,价格便宜。 而 sram 采用了锁存结构,每一位二进置数据需要六个晶体管构成的锁存结构,锁在一个双稳态电路中,数据读写不需要等待电和聚集,只要接通电路便瞬间完成读写,读写速度比 dram 快 几百倍。 缺点就是结构复杂,价格昂贵。 sram 其实就是目前 cpu 和 gpu 等计算芯片上的高速缓存,以英伟达 h 一 百为例, 一、二级 sram 高速缓存容量合计也就一百多兆,价格昂贵。相同容量的 sram 高速缓存与 hbm 内存价格相差一百倍以上。 考虑到成本问题,单片 l p u 并不会像传统 h b m 方案那样集成太多 sram, 而是利用 l p u 集群实现模型参数的高速存储。在下一代 verubin 或 fabmon 架构中的全新 l p x 机架,预计搭载两百五十六个 l p u 单元。 从技术难度上来讲, sram 极度消耗晶源面积,这非常消耗台积电的代工才能。更重要的是对 pcb 技术的挑战。首先需采用新一代的 m 九级 pcb 基板, lpu 使用 cobo p 替代现有的 cobo 封装,直接将硅中介层与 pcb 连接, 这对 pcb 的 层数、精度和热稳定性的要求大大提升。另外,下一代 fan 们架构起用垂直供电方案所需的三次电源 pcb 需要用到五十层以上、工艺难度极高的特殊 pcb。 在 这个技术框架下, pcb 单价暴涨是板上钉钉的事,符合要求的 pcb 厂商也将向最具技术实力的头部企业集中。


今天咱们来聊一个最近引爆 a 股的话题,就是英伟达四十亿美元豪赌 c p o。 你 知道吗?二零二六年三月二号那天,英伟达突然宣布给两家光子技术公司 lumentum 和 coherent 各投了二十亿。这消息一出来, a 股的 c p o。 概念股直接就起飞了。 没错,我那天看盘的时候都惊呆了,汇率生态直接二连版罗伯特科,还创了历史新高。不过我一直挺好奇的,英伟达为什么要花这么多钱投这两家公司啊?这四十亿不只是单纯的资本投入吧,好像还有采购承诺和优先使用权。 你说的太对了,首先咱们得先搞清楚,这两家公司可不是什么无名小卒。 lument 和 coherent 都是全球光子技术领域的巨头,在光芯片、光模块这些核心环节都有很强的技术积累。 英伟达投的不只是钱,更重要的是锁定未来的潜能和技术。你想想,现在 ai 算力需求暴涨,传统的电互联已经快顶不住了, c p o 作为下一代光互联技术是突破瓶颈的关键。英伟达提前布局,就是为了确保自己在 ai 算力竞赛里能拿到最先进的技术和足够的产能,不被竞争对手掐脖子。 哦,原来是这样,那你能不能再给我解释一下, c p o。 技术到底是什么?它为什么能突破传统光模块的瓶颈啊?行,咱们就来掰扯掰扯。 传统的可插拔光模块是把光收发器做成一个独立的模块,插在交换机或者服务器上。但问题是,随着算力越来越强,数据传输量越来越大,这种可插拔的设计就会带来很多损耗,功耗也会蹭蹭往上涨。 c p o 就 不一样了,它是把光引擎直接集成在交换机的主板上,去掉了中间的连接器和线缆,这样一来,不仅功耗降下来了,数据传输的密度也能大幅提升。 你可以理解成以前是用快递把数据从一个地方送到另一个地方,现在是直接在两个地方之间修了一条直达的高速公路,效率自然就高多了。这就是为什么说他是从电互联向光互联的泛式转移,相当于换了一套更高效的通信系统。 这么一说我就明白了,难怪英伟达要砸这么多钱进去。那为什么这次投资还能提振国内的光通信产业链呢? a 股那些长得好的公司,比如汇率生态、罗伯特科,他们在 cpu 产业链里都扮演什么角色啊? 这就涉及到产业链的联动了。虽然英伟达投资的是海外公司,但 cpu 是 一个庞大的产业链,国内很多公司其实已经在里面深耕很久了。 比如汇率生态,你别看他名字听起来像是做环保的,其实他通过控股武汉均衡,已经切入了光模块和光引擎的研发生产,而且 coherent 还是他的第一大客户,这关系就很直接了,英伟达投了 coherent, 汇率生态自然就能跟着受益。 哦,原来汇率生态是这么个情况,难怪他长得这么猛。那罗伯特科呢?我记得他好像是做设备的。 对,罗伯特科的子公司 ficentech 是 全球领先的 cpu 设备供应商,而且和英伟达、博通这些巨头绑定的很深。二零二六年一月的时候,他还拿到了和台积电、英伟达一起开发的三百毫米双面晶圆测试平台的量产订单,这说明他的技术实力已经得到了行业顶级玩家的认可。 c p o 技术要量产离不开先进的测试和封装设备,罗伯特科正好在这个环节占据了优势。那元杰科技呢?我之前好像听说过,它好像是做光芯片的。 没错,元杰科技是国内领先的光芯片 idm 厂商,已经量产了 c p o 领域关键的 c w 七十米瓦激光器芯片,一百米瓦的产品也通过了验证。 光芯片是 c p u 技术的核心部件之一,圆结科技能在这个领域实现量产,说明它已经掌握了核心技术。而且它二零二五年的业绩预告显示,纽亏为盈,股价两年涨了十倍以上,这也反映了市场对它未来发展的看好。 除了这几家,还有中际旭创和新益盛,他们又是做什么的呢?中际旭创和新益盛都是传统光模块领域的龙头企业,在可插拔光模块市场占据了很大的份额。虽然现在 c p o 还处于早期阶段,但他们也在积极布局 c p o 技术, 比如中继续创已经在 c p o 光引擎方面有了一定的技术积累。新一胜也在研发 c p o 相关的产品,它们的优势在于有成熟的供应链和客户资源,一旦 c p o 技术大规模商用,它们可以快速转型,抢占市场份额。 原来国内产业链的各个环节都有公司在参与啊,那市场上有一些数据,比如 light counting 预测二零二六年八百 g 光模块出货量会增长一倍以上,一点六 t 光模块出货量会爆发。 cpu 端口在二零二七年可能占据八百 g 和一点六 t 端口总数的百分之三十。这些数据背后的产业逻辑是什么呢? 这些数据其实反映了 ai 算力需求爆发带来的光通信升级需求。你想想,现在大模型的参数越来越多,训练和推理需要的算力越来越强,对数据传输的速度和密度要求也越来越高, 八零零 g 光模块已经不能完全满足需求了,所以一点六 t 光模块的出货量会爆发。而 cpu 技术因为能解决功耗和密度的问题,会成为下一代光互联的主流技术,所以它的市场份额会快速提升。 简单来说就是 ai 算力的增长,道逼光通信技术升级 cpu 正好能满足这个升级的需求,所以市场对它的预期很高。