00:00 / 01:19
连播
清屏
智能
倍速
点赞6
00:00 / 05:02
连播
清屏
智能
倍速
点赞8
00:00 / 26:13
连播
清屏
智能
倍速
点赞27
AI算力狂欢下的能源黑洞 大家好,今天我们来聊聊一个看似遥远、实则与每个人息息相关的话题:AI算力狂欢下的能源危机。当科技巨头们为算力竞赛欢呼时,一场能源危机正悄然逼近。这只名为AI的"电老虎",正以惊人的胃口吞噬着全球电力。 斯坦福大学2024年人工智能指数报告显示,顶级AI大模型的参数量已从百亿级跃升至万亿级。训练一次GPT-3耗电约1,300兆瓦时,相当于130个美国家庭全年用电量。而这仅仅是训练阶段的消耗。 如果说训练是毕其功于一役,那么模型上线后的推理阶段,才是真正的能源无底洞。微软高管透露,对ChatGPT类服务,推理阶段的电力成本已远超训练。每次AI图片生成的耗电量,相当于谷歌搜索的1,000倍以上。当全球数亿用户同时交互,累积的电力需求如同永不停息的洪流。 AI运算的核心是GPU等专用芯片。海量计算使芯片产生巨热——英伟达H100 GPU模组峰值功耗突破700瓦,满载AI机柜功率超100千瓦,是传统数据中心的数十倍。为维持稳定,冷却系统需全时运转。全球数据中心平均PUE达1.55,意味着每1.55瓦总耗电中,仅1瓦用于计算,其余尽耗于散热供电。 在算力争夺战中,囤积GPU成风,但利用率却难以保证。诸多芯片在仓库机架上闲置,其所连基础设施仍持续耗电。部分区域因电力不足,天价购得的芯片只能在机房落灰,形成巨大浪费。 国际能源署数据显示,2024年全球数据中心耗电415太瓦时,占全球总用电量1.5%,与英国全年用电量相当。其中美国数据中心耗电量180太瓦时,占全球45%。而到2030年,中国与美国的数据中心总用电量将分别达到0.65万亿千瓦时至0.95万亿千瓦时、1.2万亿千瓦时至1.7万亿千瓦时,是2022年的3.5倍和6倍以上。 AI的惊人耗电是其技术路径的必然结果:从训练的暴力冲刺,到推理的细水长流,再到硬件高耗与散热难题,共同喂养着这只"电老虎"。当算力竞赛触及能源天花板,解决能效问题或许比追求下一个万亿参数模型更为紧迫。科技的下一章,不取决于算法优劣,而在于能否驯服电力的饕餮之口。 #ai #电力#耗能 #能源 #大模型
00:00 / 02:54
连播
清屏
智能
倍速
点赞2
00:00 / 06:58
连播
清屏
智能
倍速
点赞1087
00:00 / 07:29
连播
清屏
智能
倍速
点赞17