00:00 / 02:48
连播
清屏
智能
倍速
点赞24
00:00 / 03:29
连播
清屏
智能
倍速
点赞191
00:00 / 13:16
连播
清屏
智能
倍速
点赞315
最近芯片圈有个消息传得沸沸扬扬,说谷歌下一代AI芯片TPU v8要彻底抛弃HBM高带宽内存。很多朋友听到这个第一反应是:HBM是不是要凉了?谷歌是不是在搞什么大动作? 今天咱们就掰开揉碎了聊聊这件事。先说结论:这不是简单的"不用HBM了",而是谷歌在酝酿一场架构级的自我革命,时间点指向2027年。 为什么会传出这样的消息?核心触发点就两个。第一个是HBM的全球性产能短缺。美光科技最近发出警告,说AI引发的高端存储芯片短缺"史无前例",而且将持续到2026年以后。HBM产能被AI加速器大量挤占,已经冲击到手机、PC这些传统消费电子领域。 第二个原因是HBM本身存在物理天花板。传统HBM是焊死在主板上的,容量受限于CoWoS封装面积,短期内很难突破。 在这样的背景下,市场传出谷歌正在评估一种全新方案:不再把HBM作为TPU的主要本地内存,而是彻底移除HBM,独立建设DRAM内存机柜,通过池化方式为TPU动态分配内存资源。 这个架构被拆成了三层来实现。第一层是传输层,采用全光互连,通过OCS光路交换与定制化CXL类协议,降低跨机柜访问延迟。第二层是存储层,用大规模DRAM阵列替代本地HBM,这样单张TPU的可用内存可以从现在的192GB或256GB,直接提升到512GB甚至更高。第三层是控制层,增加专门的内存侧CPU服务器负责调度与管理。 这套方案还有一个隐性红利:大幅降低对台积电CoWoS先进封装的依赖。原本HBM芯片占据硅中介层上的大片面积,现在这些面积可以全部腾给TPU的计算核心。 但这里必须强调:这个方案指向2027年及以后的演进路径,而不是当前TPU v8已经落地的设计变更。截至目前,并没有谷歌官方的交叉验证,可信度仍停留在分析师推演层面。 不过,谷歌在光互连领域的布局是实打实的。从TPU v4开始,谷歌就在大规模部署OCS光交换网络,最新的TPU v7 Ironwood机柜已经实现了9216卡的超大规模集群。TrendForce的数据显示,受谷歌高速互连架构带动,2026年800G以上光收发模块的出货占比将从2024年的19.5%上升至60%以上。OCS技术本身还有"省电"优势,单台OCS交换机功耗仅约100瓦,而传统交换机要3000瓦,耗电量减少了约95%。 #hbm内存 #谷歌tpu #ocs光交换 #内存池化 #澜起科技
00:00 / 03:18
连播
清屏
智能
倍速
点赞146
00:00 / 01:40
连播
清屏
智能
倍速
点赞3949
00:00 / 03:21
连播
清屏
智能
倍速
点赞31
00:00 / 02:25
连播
清屏
智能
倍速
点赞117