00:00 / 07:11
连播
清屏
智能
倍速
点赞22
00:00 / 03:19
连播
清屏
智能
倍速
点赞NaN
00:00 / 04:15
连播
清屏
智能
倍速
点赞7
00:00 / 02:53
连播
清屏
智能
倍速
点赞30
蒸发千亿:AI内存省6倍!谷歌新算法TurboQuant要血洗记忆体?美光、三星、SK海力士究竟是不是被错杀?大摩:传统周期卖出逻辑不适用 一个算法,让千亿市值蒸发?上周,谷歌一篇论文,竟让美光、三星、海力士等存储巨头一周内损失近千亿美元。市场在恐慌什么?AI的“内存墙”神话,就要被推翻了吗? 🔥 “内存杀手”TurboQuant是什么? 它是一项能将AI推理关键内存(KV Cache)压缩6倍、性能提升最高8倍,且精度无损的革命性算法。它直击Transformer架构自带的“硬伤”——随着对话变长,缓存占用会爆炸性增长,甚至超过模型本身。TurboQuant通过“极坐标量化”(PolarQuant)和“1比特误差校正”(QJL)两招,像给数据做了一场高效“瘦身手术”。 📉 市场为何恐慌?暴跌是“错杀”吗? 过去两年,存储股暴涨的核心叙事是:AI对内存的渴望没有上限。TurboQuant似乎动摇了这个根基——如果单次推理只需1/6的内存,未来还需要那么多昂贵的HBM(高带宽内存)吗?恐慌情绪从美股(美光、西部数据)迅速蔓延至亚洲(三星、SK海力士)。 💡 但真相可能截然相反:效率革命,刺激更大需求 范围有限:TurboQuant仅优化推理阶段的KV Cache,对训练阶段海量的模型权重、梯度、优化器状态所占用的HBM需求毫无影响。训练才是消耗存储的绝对主力。 杰文斯悖论:历史表明,效率提升(如更省煤的蒸汽机)往往刺激更大规模的总需求。当AI推理成本因TurboQuant大幅下降,应用门槛降低,必将催生更多AI应用和更长上下文的使用,总存储需求可能不降反升。 软硬协同新纪元:这标志着AI从“暴力堆料”迈向“聪明用料”。它倒逼行业思考如何软硬协同,未来芯片甚至可能内置压缩单元。这不是需求的终点,而是效率革命的信号。 摩根士丹利报告指出,这并非存储总需求减少6倍,而是通过提升单GPU吞吐量,让相同硬件能处理更复杂的任务。市场恐慌,或许只是为前期过高的涨幅寻找一个“替罪羊”。 当情绪散去,决定巨头命运的,仍是谁拥有更强的HBM、更快的产能扩张。而TurboQuant,为我们打开了重新审视AI算力未来的全新视角。这不止于一篇论文,这是一场关乎万亿赛道走向的效率革命序幕。 #TurboQuant #GoogleAI #内存墙 #KVCache #AI推理
00:00 / 13:58
连播
清屏
智能
倍速
点赞99
00:00 / 02:06
连播
清屏
智能
倍速
点赞5
00:00 / 01:03
连播
清屏
智能
倍速
点赞106
00:00 / 01:12
连播
清屏
智能
倍速
点赞450
00:00 / 00:44
连播
清屏
智能
倍速
点赞6
00:00 / 03:07
连播
清屏
智能
倍速
点赞629
00:00 / 02:29
连播
清屏
智能
倍速
点赞32
00:00 / 03:00
连播
清屏
智能
倍速
点赞0
00:00 / 02:25
连播
清屏
智能
倍速
点赞15