00:00 / 02:16
连播
清屏
智能
倍速
点赞238
00:00 / 06:47
连播
清屏
智能
倍速
点赞45
00:00 / 03:00
连播
清屏
智能
倍速
点赞731
00:00 / 01:41
连播
清屏
智能
倍速
点赞19
00:00 / 02:13
连播
清屏
智能
倍速
点赞309
00:00 / 01:25
连播
清屏
智能
倍速
点赞40
00:00 / 01:12
连播
清屏
智能
倍速
点赞3
00:00 / 00:59
连播
清屏
智能
倍速
点赞15
00:00 / 05:40
连播
清屏
智能
倍速
点赞48
00:00 / 06:33
连播
清屏
智能
倍速
点赞90
00:00 / 02:49
连播
清屏
智能
倍速
点赞1558
00:00 / 00:48
连播
清屏
智能
倍速
点赞8
最近芯片圈有个消息传得沸沸扬扬,说谷歌下一代AI芯片TPU v8要彻底抛弃HBM高带宽内存。很多朋友听到这个第一反应是:HBM是不是要凉了?谷歌是不是在搞什么大动作? 今天咱们就掰开揉碎了聊聊这件事。先说结论:这不是简单的"不用HBM了",而是谷歌在酝酿一场架构级的自我革命,时间点指向2027年。 为什么会传出这样的消息?核心触发点就两个。第一个是HBM的全球性产能短缺。美光科技最近发出警告,说AI引发的高端存储芯片短缺"史无前例",而且将持续到2026年以后。HBM产能被AI加速器大量挤占,已经冲击到手机、PC这些传统消费电子领域。 第二个原因是HBM本身存在物理天花板。传统HBM是焊死在主板上的,容量受限于CoWoS封装面积,短期内很难突破。 在这样的背景下,市场传出谷歌正在评估一种全新方案:不再把HBM作为TPU的主要本地内存,而是彻底移除HBM,独立建设DRAM内存机柜,通过池化方式为TPU动态分配内存资源。 这个架构被拆成了三层来实现。第一层是传输层,采用全光互连,通过OCS光路交换与定制化CXL类协议,降低跨机柜访问延迟。第二层是存储层,用大规模DRAM阵列替代本地HBM,这样单张TPU的可用内存可以从现在的192GB或256GB,直接提升到512GB甚至更高。第三层是控制层,增加专门的内存侧CPU服务器负责调度与管理。 这套方案还有一个隐性红利:大幅降低对台积电CoWoS先进封装的依赖。原本HBM芯片占据硅中介层上的大片面积,现在这些面积可以全部腾给TPU的计算核心。 但这里必须强调:这个方案指向2027年及以后的演进路径,而不是当前TPU v8已经落地的设计变更。截至目前,并没有谷歌官方的交叉验证,可信度仍停留在分析师推演层面。 不过,谷歌在光互连领域的布局是实打实的。从TPU v4开始,谷歌就在大规模部署OCS光交换网络,最新的TPU v7 Ironwood机柜已经实现了9216卡的超大规模集群。TrendForce的数据显示,受谷歌高速互连架构带动,2026年800G以上光收发模块的出货占比将从2024年的19.5%上升至60%以上。OCS技术本身还有"省电"优势,单台OCS交换机功耗仅约100瓦,而传统交换机要3000瓦,耗电量减少了约95%。 #hbm内存 #谷歌tpu #ocs光交换 #内存池化 #澜起科技
00:00 / 03:18
连播
清屏
智能
倍速
点赞147
00:00 / 00:33
连播
清屏
智能
倍速
点赞116
00:00 / 04:04
连播
清屏
智能
倍速
点赞166
00:00 / 01:13
连播
清屏
智能
倍速
点赞1753
00:00 / 03:44
连播
清屏
智能
倍速
点赞11
00:00 / 02:26
连播
清屏
智能
倍速
点赞2384