00:00 / 00:34
连播
清屏
智能
倍速
点赞51
00:00 / 00:34
连播
清屏
智能
倍速
点赞28
你有没有想过,当豆包回答你的问题、当Seedance2生成那段视频时,支撑这些AI工作的超级计算机内部,数据是如何流动的?今天我要聊的,是一场正在数据中心深处打响的技术战争——光交换机OCS,它可能是决定未来AI算力成本的关键变量。 这个故事的主角是谷歌。2025年,谷歌发布了最新的TPU v7芯片,代号Ironwood,单集群可以扩展到9216块芯片。但比芯片更让我感兴趣的,是它背后的网络架构——谷歌用OCS全光交换机,替代了传统的电交换机。什么是OCS?简单说,就是让光信号直接"走捷径",不需要反复进行光电转换。 传统交换机就像一个翻译官,光信号进来,必须转换成电信号才能处理,然后再转回光信号发出去。这个过程不仅耗电,还产生延迟。而OCS呢?它直接在物理层用微镜阵列把光路"掰弯",让数据走直线。谷歌的Palomar OCS内部有176个比头发丝还细的MEMS微镜,每个都镀了金,能在毫秒级时间内精确调整角度,把光信号从任意输入端口导向任意输出端口。 这种"暴力美学"带来了什么效果?根据TrendForce集邦咨询2月份刚发布的数据,一台传统电交换机功耗大约3000瓦,而谷歌的OCS只有100瓦左右,耗电量减少了95%。在AI数据中心电力成本占比超过50%的今天,这个数字意味着什么,不言而喻。 更狠的是成本逻辑。谷歌这套架构里,机柜内用铜缆短距连接,跨机柜全部走光。当带宽从800G升级到1.6T时,只需要换光模块,整个系统不用推倒重来。2026年,谷歌预计出货近400万颗TPU,对应800G以上光模块需求超过600万支。这些光模块不是消耗品,而是可以跨代际重复利用的资产。 但这里有一个反直觉的点:OCS并不是要取代光模块,反而在催生更高端的光模块需求。因为OCS虽然省掉了交换机层面的光电转换,但服务器到交换机、交换机到交换机之间的连接,仍然需要800G甚至1.6T的高速光模块。所以业内有人说,OCS和CPO共封装光学不是简单的竞争关系,而是在不同网络层级各司其职——CPO可能在接入层更快,OCS在核心层更省。 现在,这场战争正在升温。2025年8月,开放计算联盟OCP成立了OCS项目组,创始成员包括谷歌、英伟达、微软、Meta。这意味着OCS正在从谷歌的"独门秘籍"变成行业标准。 #ocs光交换 #mems传感器 #光库科技 #光迅科技 #英唐智控
00:00 / 04:44
连播
清屏
智能
倍速
点赞172
00:00 / 04:40
连播
清屏
智能
倍速
点赞2262
00:00 / 02:26
连播
清屏
智能
倍速
点赞2
00:00 / 02:59
连播
清屏
智能
倍速
点赞4
00:00 / 00:10
连播
清屏
智能
倍速
点赞101