00:00 / 00:54
连播
清屏
智能
倍速
点赞201
2026年CES展上,英伟达放出了个大消息——全新 Rubin 机架式系统,居然“砍掉”了传统铜缆,全面改用正交背板。可别以为这是铜的“退场”,实际上单机柜铜用量反而暴增,光内部铜布线就达到2英里,这事儿看着矛盾,其实正好戳中了当下铜价疯涨的核心逻辑——铜早就不是普通电线里的金属,而是AI时代的“刚需硬通货”。 先问大家一个问题:为啥英伟达放着铜缆不用,换了正交背板反而用更多铜?这就像家里装修,原来用零散的电线拉满屋子,现在换成集成化的电路面板,看着线路少了,但面板里的铜芯更密、更粗,才能扛住更高的用电需求。英伟达这台新设备,正交背板用了78层高多层结构,全靠精密铜布线让算力组件直接对接,信号传输速率飙到400GB/s,比原来少了80%的损耗。打个比方,这就把乡间小路改成了立体高速公路,铜就是路上的“快车道”,得足够结实、足够宽,才能让AI运算的海量数据跑得又快又稳。 而且铜的“硬核实力”,真不是其他金属能比的。咱们拿常见的铝来比,铜的导电效率是铝的1.6倍,电力损耗却只有铝的一半,使用寿命更是能到30-50年,遇上高功率产生的高温也不怕。更关键的是“抗电迁移能力”,这玩意儿相当于电子传输路上的“抗压强度”——铜的抗电迁移能力是铝的5倍以上,就像把普通路灯换成了钢筋混凝土路灯,就算AI芯片24小时满负荷“狂飙”,电子数据再密集,铜做的“传输通道”也不会断、不会移位。你想啊,要是用铝,芯片可能用几个月就罢工,换成铜就能用好几年,对数据中心这种全年无休的地方来说,铜就是“定心丸”。 也正因如此,现在不光是英伟达,整个科技圈都在“抢铜”。先看AI领域,每台AI服务器用铜15-20公斤,是传统服务器的3倍多;微软芝加哥数据中心更夸张,每兆瓦算力要耗27吨铜。再看新能源,2025年全球新能源汽车销量预计2500万辆,每辆车用铜83公斤,是传统燃油车的4倍多,光这一块就有207.5万吨需求。 还有电网升级,中国今年电网投资超8250亿元,而美国的数据更惊人。 我研读了摩根大通11月份研报《电力设备超级周期远未结束》、美国爱迪生电气协会(EEI)电网投资报告。#铜#有色金属#金银铜#知识分享 #铜
00:00 / 07:49
连播
清屏
智能
倍速
点赞286
00:00 / 00:53
连播
清屏
智能
倍速
点赞322
00:00 / 03:41
连播
清屏
智能
倍速
点赞NaN
00:00 / 00:41
连播
清屏
智能
倍速
点赞6
00:00 / 01:14
连播
清屏
智能
倍速
点赞1519
OpenAI数据库架构揭秘:PostgreSQL还能这么用? OpenAI最近的争议确实不少,但抛开这些,不得不承认,他们做事情的规模真是太惊人了! 他们每天要处理25亿个用户请求,服务于8亿用户。这是什么概念?他们是怎么做到的? 最近他们公布了实现这一点的细节,一起看看OpenAI的架构,到底有什么独到之处。 在他们的架构核心,是一个你可能没听过的数据库:PostgreSQL。但它却支撑着ChatGPT的海量请求。 他们的设置其实很简单:一个写入实例,加上只读副本。写入实例负责数据库的增删改,而只读实例只负责读取数据。 更疯狂的是,他们的数据库设置是50个只读实例,却只有一个写入实例!这配置也太极端了吧? 为什么不分片主要的写入实例呢?他们解释说,这会非常复杂和耗时,需要修改数百个应用程序,耗时数月甚至数年。 这告诉我们,重写代码要极其谨慎。重写可能耗时数月甚至数年,而且重写本身也会成为问题。 如果写入请求突然激增怎么办?工程师们确保大多数读取请求都通过只读副本,而不是主写入实例。 对于极重的写入工作负载,他们会使用Microsoft的Azure Cosmos DB。对于新的应用程序和功能,他们也会使用Cosmos DB。 为了保证数据库变更,他们严格限制schema变更的速率,修改数据库结构也需要小心翼翼。 你可能会想,如果唯一的写入实例发生故障怎么办? 在大多数应用程序中,只读实例会被提升为写入实例。但因为这是OpenAI,他们有特殊待遇。 总的来说, OpenAI 的数据库架构,在保证稳定性的前提下,尽可能地优化性能,非常值得学习。 #AI #科技 #ChatGPT #OpenAI #黑科技 #A#I#科#C#O黑科技OpenAIChatGPT科技I
00:00 / 01:38
连播
清屏
智能
倍速
点赞0
00:00 / 01:00
连播
清屏
智能
倍速
点赞0
00:00 / 01:27
连播
清屏
智能
倍速
点赞17
00:00 / 05:46
连播
清屏
智能
倍速
点赞3
00:00 / 01:18
连播
清屏
智能
倍速
点赞2