粉丝23.9万获赞88.7万

一个好消息,一个坏消息。好消息是,英伟达的 h 二百芯片明年二月份就能到达中国客户手中,发货总量在五千到一万套模组,每套模组包含八颗芯片,也就是四万到八万颗 h 二百。 英伟达给渠道上的 h 二百八卡模组的单价是一百四十万人民币,比 h 二零贵了大约百分之三十。 不过,从两种芯片的算力来看, h 二百的算力大约是 h 二零的六点七倍。花一点三倍的钱买到六点七倍 h 二零算力的芯片, h 二百的性价比非常有吸引力。作为一款对美国出口政策超规的芯片, h 二百需要特别出口许可, 也就是上交出口收入的百分之二十五。第一批的 h 二百的价值预计在十亿到二十亿美元之间,英伟达必须上交美国政府二点五亿到五亿美元特取出口许可的费用。如果按英伟达二零二六年预计向中国交付一百万颗 h 二百芯片的标准, 对应二零二六年的收入达到二百五十亿美元,美国政府轻松分走六十亿美元。坏消息是,尽管 h 二百的性能远超 h 二零,但依然不是英伟达最先进的产品。 业内普遍认为,这既是英伟达向中国大陆客户清库存,也是美国通过刺激芯片维持对中国本土产品的领先,从而扰乱我们的自研芯片产业,限制中国半导体产业发展。 这难题和压力再一次给到了中国芯片企业,二零二六年对于芯片行业又是一场硬仗。

兄弟们呢,变天了啊,就在这两天,全球科技圈发生了两件大事,一件事在太平洋那边,一件事在咱这边。看懂这两件事啊,你就看懂了二零二六年的科技风向。 先说美国那边,微软可以说是英伟达最大的金主爸爸了,但他现在终于是造反了。一月二十六号,微软正式发布了自研的麦尔二百芯片。这是什么概念?三纳米工艺,专门用来跑推理的。那现在模型训练完了,该上线赚钱了。哎,微软才发现, 用这个英伟达还是太贵了,那我就自己搞一个吧。这其实是一个巨大信号,全球的 ai 算力正在发生架构性的分叉,通用的 gpu 不 再是唯一的神了,通用的芯片开始上位了,说白了,那以后就拆个 gpu。 回你一句话,有可能用的不再是英伟达的显卡了,而是微软自己的心, 英伟达的垄断护城河啊,正在被他们的客户们亲手填平。再看看咱们这边啊,华为也是没闲着,反手是甩出一个王炸。那一份最新的硫化物固态电池专利曝光,那单次充电续航三千公里,五分钟充满。虽然这还是专利啊,离量产还有距离,但说实话,想想都挺刺激啊。 最后,咱们资本市场也在动,那阿里的平头哥,百度的昆仑心都在计划分拆上市,那为什么呢?那因为造芯实在是太烧钱了,必须去二级市场拿钱,同时也为了规避风险,给国产算力留住火种。那总结一下,二零二六年的科技战,已经不是简单的卡脖子了,美国巨头在搞内斗和降本, 中国科技这边正在搞换挡超车和资本突围,现在的局势是软硬件正在双重脱钩,一个新的秩序正在建立。关注老李啊,带你透过现象看透科技本质,我们下期再见。

有没有理工男告诉你们一个大快人心的好消息,这段时间呢,呃,内存价格不是疯涨吗?对不对?相对于今年的最低价格的时候,应该涨了差不多有十倍吧, 哈哈哈,不管是最新的 ddr 五也好,或者 ddr 四 ddr 三也好,真的涨疯了,从而引起呢,固态硬盘呢,价格也涨疯了,至少三倍,我知道至少三倍。还有更疯狂了,以前那种不值钱的,多少年前了? 五年前的,像引跳那种 p 四五零零那种垃圾产品,很多人呢,也把它炒上了天价,牛逼牛逼!但好消息就是,这一群人呢,都被套住了。为什么呢?很简单,哈哈哈,一群两百。现在虽然全部要停产了吧, ai 芯片一停产呢,就把那个 hbm 的 那个那个那个内存的那个产量给全部释放了出来,因为 egb 的 hbm 芯片呢,呃,至少要消耗三倍的那个普通的内存那个芯片。所以哐的一声,今天呢,内存就全都下来了。 然后呢,深圳的那帮像猎狗一般专门掏缸的应战老了,纷纷都被套住了,哈哈哈,开心吧。所以说,天理昭昭,呃,恶人始终有恶报,大快人心吧,哈哈哈。

全球 ai 算力赛道迎来重磅消息,云计算三巨头的终极对决终于落下关键一子,微软憋了大招的麦亚两百芯片强势面世, 不仅直接叫板谷歌,亚马逊更是见指算力霸主英伟达,一场颠覆行业的算力革命毅然拉开帷幕。 今天我们就深挖这款芯片的硬核实力,拆解云巨头集体自研背后的深层逻辑。作为微软专为 ai 推理量身打造的算力猛兽,妈呀,两百一亮相就亮出了王炸级配置,基于台积电三纳米工艺精工打造,内置一千四百亿晶体管的超级大脑 单颗芯片在 f p 四精度下算力狂飙超十 petflops, f p 八精度也突破五 petflops, 而功耗却死死控制在七百五十瓦以内,真正做到了性能与能效的双开挂。更惊人的是,单块芯片就能轻松驾驭当下最大的 ai 大 模型, 堪称算力界的全能王者。存储和拓展方面更是堆料拉满,两百一十六 gb 的 hbm 三 e 存储带宽高达七 tb 每秒,堪比数据传输的光速通道,还支持六千一百四十四个加速器集群无缝联动,算力爆发如排山倒海。 硬核对决之下,玛雅两百的 f p 四性能是亚马逊 trimium 三的三倍还多, f p 八性能更是直接碾压谷歌第七代 tpu。 微软直言,这是超大规模云服务商中性能最强的自研芯片。 如果说性能是玛雅两百的硬核铠甲,那性价比就是它的致命利刃。这款芯片堪称微软迄今效率最高的推理系统,每美元性能比现有最新硬件飙升百分之三十, 而这背后正是云巨头们集体自研的核心密码。随着 ai 服务的规模化落地,推理成本早已成为云服务商的心头大患。 而此前这部分算力几乎被英伟达 gpu 一 家独霸,居高不下的成本让各大厂商苦不堪言。 自研专用芯片就像是云厂商们的绝地反击,不仅要把原本交给英伟达的巨额利润夺回来,更要用更适配、更高效的方案,彻底打破算力垄断的枷锁。更值得关注的是,微软的野心远不止于此, 麦芽两百服务器果断放弃了英伟达的英菲尼邦的连接标,转身拥抱以太网,直接斩断了与英伟达生态的绑定。同时还联合 openai 打造专属编程工具,包建指英伟达的 cuda 生态护城河,甚至已经悄悄启动了下一代麦芽三百的设计,步步为营,布局深远。 目前,这款算力猛兽已经开始在美国中部数据中心安家落户,未来还将逐步席卷全球。从谷歌、亚马逊到微软, 云计算,三巨头集体亮剑自研 ai 芯片,这不仅是算力产业从通用 gpu 向专用 asic 的 时代迭代,更是对英伟达算力垄断的集体突围。 这场没有硝烟的战争,必将推动算力成本断崖式下跌,技术创新加速狂奔,而整个 ai 产业都将在这场改革中迎来新的曙光。

电脑又涨价了,但是呢,有个好消息,听说英美达呢,有一个叫什么两百型号的显卡,然后呢?你哥说是不生产了,然后产量会释放。实际上现在根据我个人感觉啊,内存条根本就不取, 小飞机市场啊,根本就不缺货,哪有缺货的意见啊,你看现在拼多多和抖音,他们买点内存卡加钱实际上并不够。我感觉全是炒作,真的全是炒作,等在等待他们挂树上那一天啊。 几个月之后如果他们想上楼顶的话,你们适当的可以圈一下。哒哒哒哒哒哒哒。特别是卖电脑的,哎,特别是有库存的。

英伟达突然宣布春节前向中国交付 h 两百芯片,这背后到底藏着什么秘密?注意看,首批五千到一万套芯片模组,相当于四万到八万颗 h 两百芯片,按市场行情估算,价值超四十亿美元。 但更让人震惊的是,中国还没批准任何采购订单。先看性能对比, h 两百的 f p 十六算力高达一千九百七十九 tlaevs 是 a e 零零的六倍多, 比 h 一 零零还强百分之二十。显存带宽四点八 t b 每秒,是 a 一 零零的二点四倍。但 a 八零零和 h 八零零作为中国特供版 i v link, 带宽被限制在四百 g b 每秒,比原版降低百分之三十三。 美国对华芯片封锁从二零二二年十月开始,二零二五年一月更是建立三级限制体系,中国被列为第三等级。 但近期美国相关部门宣布允许 h 二零零出口,条件是收取百分之二十五的销售分成。关键来了,英伟达 h 系列库存只有十万颗,本质是北美 csp 大 厂不要的, h 系列产量已全部转移,卖完就没了。 有消息称,国内部分科技企业已在洽谈采购,相关预算规模暂未公开。中国 ai 芯片现状如何?华为升腾九一零 c 算力达八百 tylops 是 h 二零零的百分之四十, 含五 g 思源五九零,约为 h 两百的百分之四十九,海光 dcu 仅为百分之四十,但二零二五年中国 ai 芯片市场本土份额已达百分之四十。 更有意思的是,甘肃、贵州、内蒙古对使用国产 ai 芯片的数据中心提供高达百分之五十的电费补贴,而英伟达不享受国产芯片价格仅为 h 两百的三分之一,还没有百分之二十五的额外费用。

微软联手台积电全打英伟达微软最新发布的 mate 二百芯片采用台积电三纳米工艺制造。微软在公告中毫不掩饰地宣称, mate 二百是所有超大规模云浮入上中性能最强的自然芯片, 在多项测试中超越亚马逊的第三代 tree name 和骨骼第七代 tpu。 从这大家不难看出,面对英伟达在 ai 芯片市场的强势地位,全球科技巨头正在掀起一场去英伟达化运动。 虽然英伟达如今规模很宏大哈,但受安全问题、价格问题以及其数据中心 cpu 抢占市场的影响,英伟达它是能依然能强势上涨呢?还是说已经走在了没落的路上了呢?

大家好,我是带你进入二十一世纪最贵的圈的幻时。二零二五年十二月,半导体行业迎来了一个标志性的事件,特朗普政府正式批准英伟达向中国出口 h 两百 ai 芯片。 很多人将此解读为贸易关系的缓和,甚至有人认为这是算力危机的解除。但是在幻时看来,这种乐观可能为时过早,因为这并不是美国政策的回暖,而是一次基于利益最大化的战术修正。核心就在于有一个附加条款, 每一颗 h 两百需要缴纳百分之二十五的额外费用,这在半导体贸易史上非常罕见。今天,我们剥离情绪,用商业逻辑来拆解这背后的深层意图。 h 两百是基于 hopper 架构的产品,虽然它拥有一百四十一 g 的 hbm, 三 e 的 显存现 性能也要强于 h 二十,但是在英伟达的技术路线途中,它已经不是最前沿的尖端武器,美国本土及其盟友正在转向更先进的 blackwell 甚至 ruby 架构。美国政府算盘打得很精, 因为放行这次次旗舰的产品,既能维持对华的技术带差,又能让它重新占领市场。过去两年的严防死守结果如何?大家都看到了,英伟达在中国的营收占比从百分之二十五跌至个位数。更重要的是,这种真空期倒逼出了中国本土的算力生态, 比如华为升腾、九幺零 c、 海光、摩尔建成等厂商已经在部分场景下实现了对英伟达的替代。所以现在的解禁,本质上是美国意识到了封锁边境硝烟递减之后,转而采取的一种清消压制的策略。那么我们再来谈谈这百分之二十五的费用, 这不仅仅是关税,更像是一种技术租金。这笔钱最终流向哪里呢?是美国政府的财政收入。对于中国互联网大厂而言,这是一个两难的选择。买意味着成本飙升,而且贵链安全依然掌握在别人手里,毕竟政策随时可能回调 不买。 h 两百成熟的裤带生态和显存优势,在短期之内训练的大模型中依然有不可替代的优势。所以这就是杨某用一款尚可的产品,配合高昂的一家,试图在抽取中国产业利润的同时,延缓中国企业适配国产芯片的意愿。那 那么这对中国芯片是利空吗?短期看确实会有冲击。 h 两百的入场会分流一部分原本转向国产算力的客户,毕竟商业公司追求的就是效率和稳定性。英伟达的生态壁垒依然存在,但是长期的逻辑没有改变。 经过这几年的教育,中国产业链已经形成了一个核心的共识,那就是供应链的安全高于一切。 h 两百的解禁是带条件的,是不稳定的, 企业不敢把身家性命完全压在一个随时可能被切断的供应链上。因此,未来的格局幻视判断将是双轨并行。一方面,大厂会采购 h 两百解决燃眉之急,另外一方面,为了对冲风险,国产芯片的采购比例不仅不会降低, 反而会作为战略备份被强制拉升。最后我想说的是, h 两百的解禁不应成为我们放松警惕的理由,这百分之二十五的额外费用,实质上是在提醒我们,核心技术如果不能自主可控,我们就永远处于被定价、被收割的地位。二零二六年将是国产算力从可用走向好用的关键之年。 面对 h 两百的回归,我们需要的不是感恩戴德,而是保持定力。对于投资者和从业者而言,关注点不应仅仅停留在英伟达的股价波动上,更应关注国产先进支撑 hbm 存储以及国产算力生态的实质性突破。我是带你进入二十一世纪最贵的全能化石。我们坚持理性,下期再见!

今天咱们来聊一聊英伟达在它们最新的这个 rubicon 架构,也就是 vr 二零零 n v l 七二的 gpu 里面,采用了微通道冷板的液冷方案。是的,那这个方案呢,不光大幅地提升了散热的效率啊, 同时也让整个夜冷产业链迎来了新的机会。没错,这个话题最近真的很火啊,那我们就直接进入今天的讨论吧。首先咱们来聊一聊,为什么英伟达在它们最新的这个 rubin 架构,也就是 vr 二零零 n v l 七二的 gpu 里面,会选择微通道冷板这种散热技术。 其实微通道冷板它就是在传统的这种散热冷板的基础上,把它内部的流道做到了微米级哦, 然后这样的话,就会让冷却液在流道里面流动的时候,它的这个传热的距离就大大缩短了,所以它的散热效率就会有一个质的飞跃。听起来确实很厉害,那这个东西在实际应用上面跟之前的比会有什么明显的不同吗? 就郭明奇他有讲过, vr 二零零 n v l 七二,它是会搭配镀金的散热盖,然后用这个微通道冷板来做散热,那相比之下, g b 三百它其实对液冷的依赖没有这么高。嗯, 另外呢,就是 vr 二零零 n v l 七二,它里面的计算托盘和网络交换托架都是没有风扇的设计, 所以它的这个整个机柜的冷却液的流量需求是几乎翻了一倍。那这就意味着它的 c d u 啊,分气管、水冷板以及 q d 这些都要跟着升级,但是它的这个机柜的风量需求就可以降低百分之八十。 行了解完 vr 二零零 nvr 七二这个架构的升级,那咱们再来说说数据中心的夜冷方案到底有哪些优势,以及它的市场空间到底有多大?为什么现在越来越多的数据中心会倾向于去选择夜冷,而不是传统的风冷? 因为现在就随着 ai 模型越来越复杂,那算力的需求就会越来越高,所以芯片也好,服务器也好,它的功率密度都在大幅的上升。对,那这个时候呢?整个数据中心它的发热的总量也是在增加的,所以对散热的要求就更高了。 确实是这样,那跟传统的风冷比起来,叶冷到底强在哪里?叶冷的话,它的散热能力是非常强的,它的功率密度大概是风冷的四到九倍,而且它的能耗成本也更低,所以现在已经成为了高功率数据中心散热的主流方向。 那根据这个华创证券的预测啊,到二零二六年,英伟达的 gpu 出货量会达到一千两百五十万克,嗯,那对应的冷板式液冷的市场规模就会高达一百七十三亿美元, 再加上其他的厂商 asac 芯片的液冷的需求也会有十二亿美元,所以整个市场空间还是非常可观的。明白了,那最后我们要聊的就是这个微通道冷板技术,它的未来趋势,以及它在产业链里面带来的机会, 你觉得这项技术会成为下一代散热的主流吗?其实不少机构都认为微通道冷板它是很有潜力成为未来散热的一个主流的技术方向的,因为这个方案的变化也会让供应链的格局发生一些改变, 那这个时候其实对于国内的一些夜冷的产业链的企业来讲是一个很好的机会。是的,比如做传统的 vc 的 厂商,做夜冷模组的厂商,做散热器的厂商,甚至是做三 d 打印的厂商,都有可能会从中受益。嗯,好。我们今天把这个微通道冷板 在英伟达最新的 gpu 架构里面的应用给大家聊了聊,然后也顺带展望了一下夜冷技术在数据中心的市场和产业链里面即将掀起的一些新的变化。 ok 了,那么这期节目咱们就到这里了,然后感谢大家的收听,咱们下期再见,拜拜。拜拜。

如果你是微软的掌舵人,每年要把数百亿美元亲手送进英伟达的口袋,你会有危机感吗? 为了打破这种算力税,微软的第二张底牌卖两百,正式出牌了。这不是实验室里的 ppt, 第一批卖了两百,已经在爱荷华州的数据中心正式上架,由台积电代工。但这颗芯片的强大不在于参数,而在于它懂业务。 它是专门为抠拍了和 openai 打造的御用大脑,以往用通用 gpu 跑 ai, 就 像是用万能扳手拆螺丝,而卖两百则是原厂定制的电动起子, 这意味着更低的延迟、更高的能效,以及最核心的更低的算力成本。微软这部棋很清醒,不想在 ai 竞赛中掉队,就不能把命脉一直交给别人。 虽然微软已经拿回了在算力成本上的一家群 当硅谷巨头纷纷开启自研芯片模式,英伟达的霸主地位真的会被动摇吗?或者说,你觉得未来的 ai 世界会是通用算力的天下?还是这种专机专用的时代?评论区聊聊你的看法,我们一起拆解算力背后的生意。

上周还有一个事情也蛮重要的,就是英伟达花了两百亿美元收购了 ai 推理的芯片公司 rock, rock 是 主打 lpu, 它的特点就是推理速度超快。我们来 rock 自己的产品页面来看一下它自己的 lpu 的 推理速度。问他一个问题,基本上就是没有延时,这个速度是我录屏的直接速度,没有加速。比较有意思的是英伟达的口径,他说不叫收购, 他说叫用现金整合 go 核心团队,还有知识产权 ip, 其实主要还是为了避免防垄断的审查。 这个收购其实相当于也承认了一个事实,就是说在接下来的推理的时代, gpu 并非是万能的,像 lpu 的 话,可能更适合这种超低延迟的推理场景,看一下他们的物理层面的差异啊。 gpu 的 特点,它是依赖高贷款的内存, 特点是容量大,但是数据它是在芯片之外的,所以它会有能量高,也会有一定的物理延时。但是 l p u 的 特点就是完全抛弃了外部的显存,使用了片上的 sram, 它容量小,而且就带框高, 数据就在计算芯片的隔壁,所以基本上没有什么物理上的延迟。架构层的差异, gpu 它为了通用性肯定牺牲了一定的性能,没办法把性能压榨到极致。 lpu 它就专门为这个事情去定制的芯片,没有复杂的硬件调度。 其实 grok 的 创始人最早也是从谷歌出来的,那它跟谷歌 tpu 的 一个区别呢?谷歌 tpu 的 设计,它不是完全为了低延时, 它其实是为了谷歌整个生态的规模,还有高并发的一个场景,因为它要同时服务全球几十亿人的推理,还有搜索的请求。英伟达它已经有了计划,就是会将 gork 的 lpu 整合进自己的库达生态。也就是说未来 开发者在英美达的生态写代码的话,那他可能就会自动判断,如果是训练相关的任务,那就扔给 gpu 去处理,如果是实施推力型的任务,那就可以丢给 lpu 去处理, 那这样子它整个生态的金融能力就更强了。那对 amd 来说相当于竞争就更残酷了,因为现在英伟达它还多了一个竞争力嘛。前面有 mate 收购 manus, 现在又有英伟达收购 grog, 其实这个二零二六年的在推理方面的应用其实是趋势蛮明显了。 他这个里面其实还不单是像之前一样看算理,看总的拥有成本。现在还有一个词叫需要看美焦耳智能,就是你消耗同样的一个能量能够产生多少 token, 这个指标现在变成了推理方面的一个衡量指标。