谷歌的一篇论文直接击碎了全球存储板块的上升之情,我 a 的 小姨子也未能幸免,那么这个事件是个怎么回事呢?而就目前来讲,对于板块如何,小姨子自身的结构走势怎么进行分解,只要您相信慢慢变富,那么关注无情,若有牛市就有你。这个论文 ai 在 运行过程中,对于存储的需求,从最初的总记录进行分析,再总结,变成了精简记录,扩散分析,形成答案 或者说总结。这么来看,虽说过程略有不同,但得到的结论却近乎相同。那么这个时候原先要记一 t b 的 存储,到现在可能只需要一 g 或者两 g 了,所以这篇论文的影响性就会直接导致全球做存储板块多头的人有预期,未来芯片的消耗量将会下降,缺口将会减少。那么现在问题来了,未来是多久? 其实我们也不用去管它到底是多久,因为多久与未来之间,无论发生什么,它在交易上都统称为两种,一个是现在,另一个就是未来。而在交易未来的时候,实际上我们交易的是情 绪,而在交易当下的时候,我们看的叫现状。而这个过程到底有多久,可能快也可能慢,但它一定不是现在。所以说板块到底砸不砸,砸多少,反不反弹,反弹多少,这是属于现在,而现在正在被情绪所影响,但无论这个过程是 直接反弹还是再下点,再反弹,他都会回到交易现在。所以说对于这个过程才是我们要核心去应对的,一个是应对这件事情发生的慢,或者说不能成功,一个是应对存储周期就有可能走下降,但只要未来没来,这个过程一定会拨动出来。 k 线市场会告诉我们, 他究竟是要选择存储走弱总体向下呢?还是阶段性没影响情绪消耗完过后继续震荡上线?我们还是以小姨子来举例存储板块。 像我们说过,实际上小姨子在现在他走的是一个类箱体的结构,前期将小姨子是认为他在这里可能要盘一盘箱体,盘稳了再上去,因为这个底部的构成以目前的形式他会走出复杂化,所以像这种盘整的震荡,无情的铁铁们肯定是在 预期之内的,就不像别人老是讲在这里直接就能起飞,那我在这里面这里面都告诉过了,不可能的,他要陷入中期震荡,只是说这个震荡这一周走的太下面来了。不过很明显这还是震荡有所变化的。是如果说此前的震荡它是属于类相体,它是震完突破相体直接走出拉升段的话,那现在就变得了,它不仅回到了相体, 而且还使得它的结构重新变化成了骑行整理,而骑行整理的结构是属于延续中期盘整的结构,而非小型的震荡结构,走上升的结构。所以骑行整理我们就要考虑它何时突破骑行上沿,以及 不要跌破骑行下边线,所以接下来更重要的是选择右侧,什么时候把今天的缺口吃完,什么时候再来聊一聊它向上突破,重走大级别上升之路吧。好了,今晚八点直播,不见不散,本视频就分享,不作为指导意见点能接受咱评论区告诉你观点。
粉丝12.1万获赞34.2万

近日内存条价格断崖式下跌冲上热搜,三十二 gddr 五从三千七百元狂跌到两千八百元, ddr 四的价格直砍百分之二十。一路高歌猛进的内存产品周期性拐点到了吗? 打个比方啊,三十二 gddr 五六千频率的,最贵的时候他应该卖到三千七了,去年年底的时候最贵他也才卖两千六七,今天应该是两千八了,昨天前天还是三千左右。现在降价幅度最大的是哪个系列产品?还是第四的,第五掉的还没有第四的多。降到比例大概是多少?百分之二十左右,估他应该百分之十五。 从零售端来看,海外电商平台不分品牌的 ddr 五内存价格较阶段高点下调超百美元,国内二手与电商平台价格同步松动。不过经销商普遍反映当前的价格相较于去年年底仍处于高位,且降价并未带来需求激增。降,但是他还是维持在一个比较高的位置,除非你降到大众能接受的那个范围。目前来看 啊,应该不太会,三星现在还罢工,他就根本就没有产能美观,全年的产能都已经卖完了,海力士还有货在卖,他也是很高的价格。而且你像品牌机的联想,纳尔惠普,这已经官宣了,他要涨百分之十五了。为什么会降价了?需求量少,这是第一第二的话。消息说谷歌有新的运算方式吗?他就是对内存的需求没那么大吧。 还有一个最重要原因就是金士顿他们可能代理有一点点调价,最重要还是市场没有需求。经销商在采访中提到的骨骼论文是本次价格波动的直接导货所。 三月二十六日,谷歌研究院发布了一篇关于 ai 内存优化的论文,该论文宣称名为 turbo quat 的新算法能够在不损失准确率的前提下,将 ai 大模型 av 缓存的内存占用压缩至原来的六分之一,引发市场对内存需求下降的预期。 这一论文很快遭到学术界的实名质疑。据每日经营新闻报道,苏宁是联邦理工学院博士后,原丘比特算法第一作者 高建阳公开指出, turbo 矿特在核心机制上与二零二四年公开的 rapid q 算法高度吻合,而论文存在严重事实描述和不公平的对比。实验业的人士也透露,该算法实际效果或远不及宣传所谓节省内存的结论,存在夸大嫌疑。 听他们行业的人说,谷歌的推理的话,他应该是出了问题的,他不可能省百分之六十左右的那个存储,所以说他有可能,他这个是推理是错的,会不会以将来就是会引起这个价格的崩盘?我觉得暂时无所谓,长线来看他应该还是要涨,没办法,他这个成本在那放着, 他现在市场上流通的货,低价的都是以前的库存,他降价他会持续多长时间啊?到四月底他应该要涨了。就算他价格的比较优秀,还是上游有需求大的企业或者大的厂,还是有很大的需求,包括你现在有很火的很多东西,龙虾啊,跑云端就可以不用,但是你跑本地的,你还得要 电脑。现在就算厂家拿到芯片了,他也是高价拿到芯片,在有需求的情况下,我不可能便宜卖,但就算是没有需求的情况下,我也不可能亏本卖,我大不了不卖低价的货终于卖完了一天。 总的来看,只是内存价格下跌是高位回调和论文情绪冲击库存初期共同作用的结果。伴随学术争议澄清,低价库存消耗叠加 ai 需求持续与供给刚性约束,消费级储存产品的价格中期回暖的趋势依旧明显。

就在我还在认为内存会涨价的时候,杀疯了,直接让我高兴的直接想蹦起来。谷歌一招直接干崩美股内存板块, ai 内存需求直接砍到渣,内存涨价白涨价, 完了费力了,内存价格飙上天。谷歌一篇论文直接把美股内存板块直接干趴下。 c f l c ceo 看完惊呼,这是谷歌的 unique 高光时刻,之前的 deepsea 用点算力就迅速蜕变的模型已经够颠颠覆了。这次谷歌啊,直接放大招了,更狠, ai 退给的内存需求直接干到骨折。为啥这招这么炸裂?先说说 ai 的 内存,那那那点动点啊! ai 聊天看长文都得靠 k y 缓存记关键信息,就像学霸写小抄,抄太细,内存直接满, ai 又慢又烧钱,想省空间缩内容, ai 又会看叉看叉看叉看叉笔答不对。以前的压缩法就是硬把字变小, a i 认错还得记缩写,纯纯添乱。但这次五哥直接甩俩神操作,把问题直接全部干碎。第一等, p q p o q u i t 换个姿势进 啊!以前 a i t 位置像走坐标,东三步北三步,又麻烦又占地方,现在直接记三十七度走五度,视角一换,海量内存省出来还绝对不会错啊!第二招, q g f 一个符号搞定,纠错压缩难免的小误差,直接抹平,瑕疵零额外,内存速度还直接飞起。 这点这个连招啊,效果恐怖到一 k i 缓存从三十二位压到三位,三十二位压缩到三位,内存直接从直接省到六倍以上 啊!伊伟达 h 一 百显卡上注意力计算速度快八倍,关键是回答准确率一点没降,还不用重新训练,模型拿来就用,现在内存价格天天涨,全行业都从算力成本高到低, 谷歌这波操作直接让内存涨价成了大笑话。这波就行操作,直接改改写 ai 行业游戏规则。 我太高兴了,昨天我还说呢,我有一种强烈的预感,今天我突然发现好像我有点错了吧啊。

谷歌公司的一篇论文居然导致内存芯片厂商的股价集体下跌,这是怎么回事呢?我给大家通俗解释一下, 咱们跟大模型聊天聊的很长很长的对话,大模型要记住和理解这些对话的内涵,就必须要用一种叫 kv cash 的 形式存起来,简单理解就是一对数字需要用一种很贵的内存来存,所以大模型厂商就非常肉疼,因为他们不得不花很多的钱来买这些非常多的顶级内存, 而内存场就非常的高兴,因为他们可以赚更多的钱嘛,生意越赚钱,那股民跟投资机构就越愿意买他们的股票,于是他们的股价就可以蹭蹭涨。但是呢,哎,就在前几天, 谷歌公司的研究人员就捣鼓出来一种新的压缩算法,可以把原本每十八位数的 kvcash 压缩到三位数,哎,也就是压缩了六倍,并且不大影响效果。 这是怎么做到的呢?我打个比方啊,有个人向你问路,你可以说向东走四格,再向北走三格,表示出来呢,就是东四北三,你也可以说向三十度方向走五格,那表示出来就是三十五, 虽然最后效果差不多,但是表达出来就更简洁和节省空间嘛。当然,这只是一个大致的原理,来帮助大家理解,真实的算法肯定要复杂很多。 总之,有了这个压缩方法,那原本这些 k v cash 就 可以用更少的内存来存,那么内存厂商赚的钱就会变少吗?生意更难做的话,很多人就会选择卖出股票,导致股价下跌。整个逻辑链条呢,大概就是这么一回事 啊。不过也有人认为啊,那有了这种更节省内存的算法以后,大模型的记忆能力就会变得更强,就可以聊更长更长的天,大家反而会更疯狂的去用它。那么需求一旦爆发,最终还是会让这些内存厂商受益,你觉得哪种情况更有可能发生呢?评论区告诉我。

今天看到一篇公众号说谷歌发表了一篇特别重要的论文,论文里讲了什么呢? k v cash, 简单来说就是大模型做推理的时候,要用的一个非常重要的存储,谷歌用算法把它的效率翻了六倍。言下之意是,同样的,推理需要的存储是之前的六分之一。我们知道,在整个 ai 基础设施里, 过去一段时间里最缺涨价最猛的已经不是芯片,而是存储。光今年以来仅仅三个月,各类存储产品的价格都涨了百分之三十到五十。龙头公司美光刚刚发布了业绩,那业绩只能用炸裂来形容, sk 集团的会长,甚至预测存储供不应求的局面会持续到二零三零年。 结果谷歌的论文给了存储行业当头一棒。你看,有这么多人都说存储完了,但真的有这么惨吗?过去我可能要把谷歌的论文找来自己仔细看一遍,其实就算花好几个小时看,我也只能一知半解, 同时我还要到处找相关文章到处问,总之就是要想办法凑出一个能让我做决策的逻辑。二零二五年二月 deepsea 大 火,干崩了整个芯片行业的时候,我就完整的走过一遍,这个流程相当的费时间。 现在不用这么麻烦了,我们自己做的 ai 分 析师 reportify, 也就是小 r 已经足够强了,这些活可以交给他干。怎么让他干呢?很简单, 我把我看到的说谷歌论文的公众号截了个图传给小 r, 告诉他,我看到这样一条新闻,请帮我搜索一下新闻里提到的论文原文看看。第一,这是不是一件新事?第二,论文里具体讲的是什么,并且帮我仔细研究一下这件事对存储行业的影响,然后几分钟他就帮我把信息给拼凑齐了,看完以后逻辑就基本清楚了。 首先,你看小二这里说了,这不是新事儿。公众号里讲的其实是 google research 在 二零二六年三月二十四号发的博课,相当于 turboqant 要在四月份的 i c l 二上展示,谷歌提前做了一波宣传。 其次,谷歌的算法号称可以把 k v cash 的 使用效率翻六倍,但其实 ai 行业一直都在针对 k v cash 做优化,所以实际提升大概率没有六倍这么多。 第三,对 k b cash 的 节省大概率不会转化为 rack, 也就是整个 ai 系统里更少的 hbm, 而是同等 hbm 预算下能承载更长的上下文、更复杂的任务量,以及更高的并发症。我们公司自己做 agent, 我 太有体会了,最麻烦的工作就是上下文工程, 简单来说就是对话次数多了,或者让 agent 干的活太复杂了,上下文就会很多,多到一定程度就崩了。所以上下文的能力直接影响到 agent 能解决多复杂的任务了。所以上下文的能力已经可以完成一些复杂的任务了, 但我觉得还不够,我肯定希望它能完成的任务越复杂越好。所以我们应用端的需求肯定不是同样的任务用更少的存储,而是同样的存储可以完成更复杂的任务。应用端是这个需求,模型端肯定也是这个需求。 这次对存储行业的质疑,让我想到了二零二五年二月的 deepsea, 当时 deepsea 确实通过优化算法大幅提升算力的使用效率。当时就有很多人说,效率提升之后,算力和芯片就不重要了,于是芯片公司集体崩盘,结果那次崩盘让很多懂行的人都盆满钵满。 为什么会这样呢?你思考一个问题,算力的使用效率高了,这会让算力的需求下降还是上升? 其实是上升,有一个概念叫杰文斯辩论,说的是当技术进步提高了效率,资源消耗不仅不会减少,反而会激增。 上次的算力效率提升是这样,我相信这次的存储效率提升也会是这样。不过请注意啊,这只是我的个人判断,不是任何形式的,建议大家还是自己做决策。你觉得这次的存储也能跟去年的算力一样邋遢来吗?欢迎在评论区聊一聊。


一篇论文干翻了一家千亿市值的行业巨头,你敢信吗?就在昨天,美股存储芯片巨头美光科技再次暴跌近百分之十,而自从他发布了那份堪称炸裂的财报以来, 短短半个月时间,累计跌幅已经达到了百分之三十一。份营收翻了将近三倍,毛利率飙升到百分之五十六的历史级财报, 换来的却是股价的血崩。更荒诞的是,引发这场暴跌的导火索不是业绩暴雷,不是行业崩盘,而是一篇来自谷歌的论文和一个叫做 turbo quant 的 算法。 一个还没走出实验室的东西,凭什么让市场如此恐慌?今天我们不聊那些晦涩的代码,我就想跟你讲清楚一个反常识的经济学真相,这可能是你今年听过最有价值的经济学真相,这可能是你今年听过最有价值的大跌。就在两周前,美光交出的成绩单嚎到几乎无可挑剔, 受益于 ai 算力需求的景喷,它的营收从去年统计的八十亿美金,直接飙到了两百三十八亿,毛利率从百分之三十六扩增到了百分之五十六。 更夸张的是,他的 ceo 在 电话会上透露了一个细节,由于供应极度紧张,大客户现在只能拿到他们想要数量的二分之一到三分之二。这意味着什么?意味着你拿着钱都买不到货。而且,二零二六年全年的 hbm 高宽带内存潜能已经被抢购一空。这是一个典型的供不应求的超级周期。 按照正常人的理解,这种财报发出来,股价应该直冲云霄才对。可现实是,财报一发,股价就开始喋喋不休,直到昨天,单日又跳了将近百分之十。到底是谁在砸盘?答案就是谷歌三天前扔出的那颗技术炸弹, turbo quant。 这个 turbo quant 到底是个什么东西?简单来说,它是一种极端的压缩算法,它宣称能大幅降低 ai 模型运行时的内存需求。 以前需要六百个 g 内存处理的数据,用了这个算法,可能一百个 g 就 够了,甚至还能提速。资本市场听到这个故事,瞬间就慌了。他们的逻辑非常直接,也非常简单粗暴。如果以后 ai 用更少的内存就能跑得飞快,那谁还来买内存芯片? 存储芯片的需求岂不是要崩盘了?于是,踩踏实的抛售开始了。这不仅仅是美光一家的事,整个存储板块,甚至给芯片制造设备的公司都被带崩了。 这一幕像极了去年那个时刻,每当有技术突破说我能省硬件,硬件股就得先跌为尽。但今天我要告诉你的是,如果你真这么想,你可能就掉进了这个时代最经典的认知陷阱里。就在市场一片哀嚎的时候,反转来的比我们想象的要快。 肃立市联邦理工学院的一位研究人员公开发文指出,谷歌这个所谓的革命性算法,不仅在核心技术上与他团队开源的成果高度相似, 而且在论文的对比测试中,存在严重的双重标准。为了证明自己的算法更牛,骨骼在测试的时候,给自己的算法用的是顶级加速,给别人的算法却关掉了多线尘,用最慢的语言去跑,这相当于什么呢?相当于为了证明汽车比赛车快,已让汽车在高速公路上跑, 让赛车在沼泽地里爬。这种不公平的对决,被专业人士一锤定音。但此时,幕后尘中,股价已经跌下去了。这场闹剧暴露了一个深层问题, 在这个信息爆炸的时代,情绪永远跑在正向前面。一个尚未开源、存在学术争议,甚至还没大规模商用的实验室算法,竟然能瞬间撼动一个数千亿市值的成熟产业, 这正常吗?当然不正常。而这种不正常背后,隐藏着一个对每个人都非常有价值的经济学原理,叫做杰文斯辩论。杰文斯辩论是十九世纪英国经济学家威廉杰文斯提出的一个观察。他发现,当蒸汽机的效率越来越高,消耗的煤炭越来越少的时候, 英国全国的煤炭总消耗量不仅没有下降,反而大幅上升了。为什么会这样?因为效率提升降低了使用成本,从而刺激了更大规模的应用需求。把这个道理套在今天的 ai 和存储芯片上,逻辑完全一样。谷 歌的这个算法如果真的能把内存成本打下来,最直接的结果是什么?是以前因为太贵不敢用 ai 的 中小企业,现在用得起了?是以前只能文字互动的模型,现在敢跑高清视频生成了, 门槛越低,市场就越大。内存效率提升了,开发者不会再守着原来的规模,他们会用省下来的算力去跑更长的上下文,处理更复杂的数据,服务更多的用户。最终总量的爆发,会吞食掉一切效率提升带来的节约。华尔街那些冷静下来的机构也指出,这类算法最终会推动 ai 应用的普及, 在总量层面扩大内层需求,而不是永久性的压缩市场规模。我举个例子你就彻底明白了,以前因为汽油太贵,你可能只舍得骑电动车,现在有人发明了百公里油耗只有一升的升气发动机, 你觉得大家会因此少开车吗?不会的,大家会卖掉电动车,开始开着车去自驾游,去西藏,结果路上的车反而更多了,总的汽油消耗量反而更大了。 现在的美光正处于这个恐慌与真相的十字路口,当前的市盈率已经跌到了七倍,这几乎是在按破产价给一家垄断型科技公司估值。美光的 ceo 在 暴跌前说了一句大实话, 现在的产能连客户需求的一半都满足不了,这是事实。而谷歌的一篇论文引起的抛售是情绪,在资本市场里,情绪制造的波动往往是认知变现的最佳窗口。回到美光这场暴跌,与其说是基本面的崩塌, 不如说是一次估值的震痛,是市场在旧有的算力堆砌蓄势,与新兴的算法优化蓄势之间寻找一个新的平衡点。华尔街的四十三位分析师里,仍然有三十八位坚持买入的评级。这不是因为他们傻,而是因为他们明白一个道理, 技术的目的是服务人类,而不是消灭自己。只要人类对智能的需求是无限的,那么支撑智能的物理底座、芯片与存储就永远有金矿可挖。作为旁观者,与其纠结于价格的短期上蹿下跳,不如看透这场算法吓坏硬件的闹剧,它会让你在面对未来更多的黑天鹅与鬼故事时, 多一分从容,少一分焦虑。毕竟恐慌往往发生在一瞬间,而趋势的洪流从来不会倒流。如果你听懂了今天的内容,在评论区告诉我,你还见过哪些因为技术进步反而引爆了需求的例子。

谷歌的存储论文世界水有多深?这两天有一个大爆雷,就是这个爆雷的第一步就是谷歌发布了一个论文,它导致整个存储行业暴跌, 呃,就是光谷歌本身就跌了九百多亿,呃,这个这个论文呢,它是叫一波两折。 第一者就是谷歌发布一个论文,说以后的存储芯片的使用量会缩六倍以上,你看这个存储现在卖的很贵,很多存储企业涨的非常疯,就是因为存储需求量会很大吗? 嗯,结果呢?这个现在谷歌这篇论文一发布了之后,说存储这个芯片以后不需要那么多。 有人把这个论文比喻成在二零二五年的时候, deepsea 的 出现,就是在 deepsea 以前的 open i 提出来要加大芯片, 做大模型,大模型越大,芯片越大,所以对芯片需求量越大,所以导致因为它的股价涨得很高,因为它是做芯片的。 deepsea 推出了以后,就觉着它用蒸馏技术,说是打打动相同的效果,就不需要那么多芯片, 也就是用它原来十分之一,剩百分之一的价格就一个亿一百万,这样的话就是就能达到相同的效果。所以 deepsea 一 推出以后,就导致英镑的芯片暴跌,当时当天就跌百分之二十,最高跌到百分之,呃,就是四十以上, 然后呢又反弹了,那么这个对市场是个石破天惊的事。那么这一次这个谷歌发布几篇论文呢?它的效果是一样的,所以在周五的时候导致芯片股票大跌。 嗯,但如果不出意外的话,整个芯片的格局会发生变化的,因为像这种啊,技术的进步啊,这个如果是假设论文一旦说的是事实的话,他应该说是对行业的一场革命。 我当时看到以后,我的感受就是如果这个事是真的的话,那那就是说,说明现在科技进步太快, 也就是说他整个的一个方向是什么?就是你做出一种技术,我会做出一种技术比你更好,你做出的效率高,我做的更高,甚至说我那芯片也会越来越小,这就是我们现在对科技的理解。但是现在问题就是这件事啊,就是有点一博两折, 那结果呢?二十四号发了这个论文,二十六号就不就引起股市波动,结果二十七号,这,这又出了一个新的论文了,就是一个新的辩解了,说谷歌这篇论文有造假成分, 这个说这个,这个造假人士。谷歌在写这篇论文的时候,他是调用了几年前的一篇论文,这篇这篇论文其中有一个作者叫高振阳,他是华裔的一个作者, 他就指出这篇论文目前有一个缺陷,就是,嗯,就不能完全确定这篇论文的结论。 而且呢,这这篇论文现在结论只是这个,其次,最主要是这篇论文呢,嗯,他有抄袭性质,也就不是谷歌说的他原创的东西。那么这样的话,一下把这篇论文上升到学术道德的概念, 那周一肯定这个芯片,这个就是存储芯片的价格可能会反弹,但是他对谷歌的打击特别大,因为你等于把自己啊,一个学术的开创性的成果变成了抄袭成果,这是个完全相反的方向。 那么但是现在啊,就是就算是抄袭,那问题来,就他这个结论,你以前有没有过他像他这个结论确实是有一种想把芯片速度降低的说,但是估计这个论文里边有一些缺陷,因为我们, 呃不是特别懂他在技术上的描述,他说这个,他所所说那个把那个芯片的整个使用量降低六倍,但可能达不到这个效果。所以因此这篇论文呢,即使就是首先是抄袭,第二它的成果之间有瑕疵,那么这个需要进一步检验。 呃,我看到这篇论文这个后来的发展之后,呃,首先呢就是这篇论文把美国在学术体系上的一个神话给打破。谷歌是谁?谷歌是全球 在科研方面最领先的公司,大家知道就哈萨比斯和新盾他们当时搞的那个机器叫那个阿尔法狗, 阿尔法狗就是谷歌当时搞出来的人工智能的技术,包括现在谷歌正在追着吉米三,他也有一种就是替代 opi 的 概念,也就说美国在高科技方面最领先的除了谷歌之外,其他那些都比不上谷歌。 openai、 宝马赛克都是看着这个马首之战。那么如果假设这个就这个事,目前呢已经确定是学术朝夕,那么这件事就是发展下去,对谷歌的声望影响很大,也能把美国的这种学术上的这一种神话给打破。 最近在美国发生了很多事。呃,一个事是就是这个美国的老大就是发动了这个对伊朗的打击, 那么一个是美国在此前对马杜罗的这个抓捕,呃,实际上在在这个他和学术领域是两个领域,但是在这个蝉老大他做的这个事,他破坏了原有的国际 呃,这个规则和国际秩序,那么现在这个局势啊,叫我们称为叫前途难料。 呃,现在他认为把那个这个寒门内一给打死以后,伊朗的局势就改观,他没想到伊朗的革命卫队啊,他的反击的力度比想象大得多, 所以在这种情况就是这个局势出现了一个扑朔迷离的问题,所以周一下周一恐怕股市会有一个继续下行的一个问题,油价会继续上涨问题,因为目前老美的反击啊,并没有想象的就和它所给人们呈现的强大相比,形成了巨大的反差。 所以这里边我最近写了一些文章,就讲下一步,就是一个是老美如果能对舍大其罪,能对伊朗的军事设施有毁灭性打击,甚至能出兵占领哈尔科岛,就把局面控制住,把福尔摩斯海峡打通,我想这个问题,恐怕这个伊朗的这个 就是会被会被打消他这个势头,那美国的声望会起来,但如果是他不能做到这一步,那就麻烦了。从最近 这个伊朗提出了一个停停战停火的条件,也是这个问题。当然我们不要扯那么远,就是我主要是想这个谷歌将谷歌这个事,谷歌这个事应该是最后变成一个科技成果,转换成一个科技丑闻,这个对美国的学术声望影响特别大, 甚至会颠覆人们对美国整体的评价,那么它结合着这两件事,能看出美国其实他的信誉度是在下降的,我们进一步关注这个事未来的进展情况。

深夜,谷歌用一篇论文引爆科技圈, ai 的 内存税要取消了,万亿存储市场一夜震动,这究竟是革命开端,还是过度恐慌?二零二六年三月下旬, ai 及硬件资本市场的瓶颈被一篇来自谷歌研究院的论文打破。 这篇题为 trooper quant online vector quantization with near optimal distortion rate 的 技术论文及其配套的官方驳论文,如同一颗投入湖面的巨石,激起了远超学术圈的连锁波澜。 最直接、最剧烈的反应发生在资本市场。论文发布后,美股存储板块应声下跌,美光科技、西部数据、闪迪等内存与存储大厂的股价集体下挫。 市场迅速解读出一个令人不安的信号,谷歌这项名为 triple quant 的 技术,能够将大模型推理时最吃内存的键值缓存压缩至原来的六分之一,甚至更低。如果未来 ai 系统不再需要那么多昂贵的内存,那么当前支撑存储芯片超级周期的供不应求趋势是否会崩塌? 投资者用角投票开启了第一轮恐慌性抛售。与此同时, ai 技术社区却为之沸腾,论文细节被开发者们疯狂研读。仅凭论文描述,就有技术高手在 py、 torch、 m、 l x 等框架上成功实现了初步复现,验证了其部分效果。 cloudflair 的 ceo 马修普林斯甚至将此举称为谷歌的 deep six 时刻,再与其可能带来类似的效率革命。 从华尔街到硅谷,一场关于技术颠覆与产业命运的大讨论就此拉开帷幕。要理解这场风波,首先要明白 ai 大 模型在推理时的一个核心瓶颈,内存强。模型在生成文字时,需要记住当前对话的所有上文,这部分临时记忆就是 kv cache, 对话越长,记忆越占地方。在长文本高并发的场景下, k v katch 所占用的显存甚至会超过模型本身的参数,成为拖慢速度、推高成本的主要元凶。 tuberunt 直译为涡轮量化,本质上是一套专门针对这类高维数据的追求极致无损的压缩算法。 它的目标不是让模型变得更聪明,而是让模型已经拥有的记忆和知识变得更轻便、更便宜,从而降低 ai 推理的门槛和成本。你可以将它想象成一个顶级的数字装修师,任务是把一个塞满杂乱物品的房间整理压缩进一个小行李箱,而且不能弄坏任何东西。 传统方法如乘积量化 p q, 像是粗暴挤压,容易损坏物品结构,丢失精度,或者需要携带一大堆整理说明书如原数据,反而让行李箱变重。 turbocont 的 野心在于它要找到一种更聪明、更根本的打包方式。 turbocont 的 技术突破在于其独特的两步走策略,它融合了高维几何的动件和极限统计学的智慧,实现了压缩比与精度保持的兼得。第一步,几何重构, 传统量化在标准的棋盘格里工作。 turboqant 先对数据做一个优雅的转身,将其映射到极坐标体系。在高维空间中,一个关键现象是测度集中, 绝大部分数据点的方向都密集分布在赤道附近。这就好比在茫茫宇宙中,星星并非均匀散布,而是集中在银河系盘面上。 利用这一几何特性, tobequant 可以 用一套简洁固定的规则来量化数据的方向,无需为每一小批数据单独存储原数据,从根本上消灭了传统低比特量化中原数据自身的额外开销。第二步, e 比特统计修正 第一步的大刀阔斧压缩会留下细微的误差。 super quant 的 第二个巧思是用量化约翰逊林登斯特劳斯变换来修补 q j l。 利用随机投影理论和注入特定造声,可以将高维残差向量编码成仅有加一或负一的伊比特序列。 神奇的是,在统计学上,用这些伊比特序列重构出的结果是原始残差的严格无偏估计,且随着维度增加,估计误差会指数级收敛于零。 这相当于用几乎不占空间的魔法胶带完美封上了压缩后的细微裂缝。谷歌宣称这套组合拳实现了高压缩比,将 kv 缓存无损压缩至三点五比特,甚至尝试二点五比特 零精度损失。在 gemma、 mr 等模型的长上下文精准测试中保持任务性能不变,速度提升。在 h 一 百 gpu 上,四比特模式下注意力计算速度最高提升八倍。尽管前景激动人心,但围绕 triple quant 的 争议与冷静思考同样热烈, 主要集中在以下几点。首先是谷歌与论文的差。业内研究者首先指出,谷歌官方宣传论文的措辞比学术论文本身激进得多, 簿客中内存减少六倍。意比特、巧思等生动比喻和显著数字在论文中会有更保守的表述或对照实验的设置存在可讨论空间, 这种温差导致公众认知与技术细节之间存在预期差。其次,影响的边界与杰文斯辩论对存储市场的冲击是否被高估, 反对意见认为,不触及全部显存。 turboqant 主要优化 k v cash, 但不压缩模型权重本身,也不改变训练阶段的巨大存储需求。 高端 h p m 在 训练和顶级推理中的核心地位依然稳固。杰文斯辩论历史上,效率提升往往刺激更大规模的需求, 内存成本下降可能使长上下文 ai 应用以前所未有的规模普及,最终拉动内存总需求增长而非减少。有分析师指出,这更像解除了 ai 普及的枷锁。 工程化道路上,长目前复现多在中小模型,在大规模多样化生产环境中的稳定性、普适性仍有待验证。英伟达中期也发布了不同的 k 非缓存技术。技术路线竞争刚开始,最后超越利好利空的短期争论。 tripleqant 更深层的意义在于发出一个强烈信号, ai 竞赛的下半场不仅是模型规模的比拼,更是成本与效率的战争。它代表了一种范式转变,从依赖硬件堆砌的暴力美学转向依靠底层数学和算法创新来重塑硬件利用率的精巧工程。 谁能把同样的智能以十分之一的成本送入千家万户的终端设备,谁就将定义下一个阶段。因此, topcoin 引发的震动远不止于存储股价的波动。 它是一场压力测试,测试着市场对技术发展逻辑的理解深度。它也是一盏探照灯,照亮了 ai 产业化道路上那个最现实、最顽固的关卡成本,无论其最终落地形态如何,追求更轻、更快、更省的极致效率,已成为无可争议的行业主旋律。

九百亿美元一天就跌没了,美光、三星、海力士储存芯片板块集体跳水,就因为谷歌发了一篇论文,叫 transponder。 二零二六年三月二十四号,谷歌 recci 发布了一个新的算法, 声称能把大模型的 k v cash 内存占用减少至少六倍,在英伟达 h 一 百上能算得比以前快八倍,而且质量几乎不掉。 消息一出,大家都说这是谷歌的 deepsea 时刻,但事情真的这么简单吗?任何颠覆性的技术出来,都要经历两个阶段,现在我们就来看看这个巨牛叉的技术真相到底如何。 先来说说 k v k 是 什么?用人话讲,就像你聊天时记住的历史记录,上下文越长,记住的东西越多,显存就越不够用。 举个例子,一个七百亿参数模型,在五幺二用户二零四八 tokken 输入场景下,仅 k v kash 就 需要占用五百一十二 g 内存,约为模型本质的四倍。 这已经成为 ai 花钱最多的地方之一了。传统的解决办法是量化,就是把数据精度从三十二位压缩到更低, 但往往质量也会随之降低,而且还需要额外的存储来量化参数,搞了半天也省不了多少。而 troublecoin 的 恐怖之处在于三比特量化,就是把数据压缩到了三位,质量几乎不掉,速度还比以前更快了。 现在社区已经开始疯狂复现了。但这背后也引来了一个巨大的争议。就在谷歌发布后三天, rapid q 论文作者就公开质疑 rabbit q 是 什么呢?它是苏黎世联邦理工的先行研究,二零二四年就发表了,质疑的点主要有三个,第一,谷歌的技术和 rabbit q 很 像, 两者都用随机螺旋,这是最核心的部分。第二,理论对比事实,在没有证据的情况下称 rabbit q 只能排第二,但 rabbit q 已经证明达到了理论上能达到的最好效果。第三,实验条件不公平, 用单核的 cpu 去测 raptor q, 用 a 一 百 gpu 测 turboquint, 这就像用自行车和摩托车来比速。 其实这些争议都不是最重要的,最重要的是 turboquint 的 方向已经被验证是正确的。随着这项新技术的发布,整个 ai 行业也就从卷参数进入到了卷效率的阶段。训练大模型不管再困难也只是一次性的, 而我们日常用的最多的还是推理能力,所以推理成本才是我们每一个人持续要付的账单。 而 trouble 困的牛逼之处就在于直接把这个账单砍了一刀,这意味着什么呢?同样的显卡可以跑更大的模型,更长的上下文,也就意味着以后我们使用 ai 就 会变得更加便宜了, 无需重复训练,无需微调部署的门槛也降低了非常多。十六 gb mac mini 原来只能跑七 b 的 模型,而现在就能跑十三 b 了。 mac 版本已经在做了,本地的推理速度越来越接近全境度,中小企业很快就能用更低的成本部署 ai 了,而我们普通人也很快就能享受到更便宜的 ai 服务了。 有开发者用这项技术在 m 五 mac 一 百二十八 gb 上实测的结果显示,用四点六倍的压缩量,速度还比八 b 的 快了一丢丢,而质量只掉了百分之零点八。也有开发者在 usb 充电器大小的设备上跑出了四百万 tokins 的 k v cash, 这是什么概念呢?相当于在微型设备上跑出了几百本书的上下文长度。但效率提升吗?摩根斯坦里提出杰温斯辩论 就是,效率提升往往不会减少资源消耗,反而会刺激需求的增长。就像省油的车多了,大家反而更愿意开车上路了。就像 dbc 发布时,市场也担心算力需求的下降,结果反而推高了硬件需求。 trouble 节省的内存不会闲置,只会被更长的上下文更复杂的任务所吞食。所以这不是内存需求的重点,反而是 ai 应用爆发的起点。

兄弟们,咱们得承认一个很扎心的事实,有时候技术越进步,咱们反而越穷。本来以为 ai 是 个吞金兽,得把房子造大点才够住,结果谷歌昨晚告诉你,不用我把房子设计的更合理。以前六个人干的活,现在一个人就能搞定,还跑得更快,这哪是技术升级啊,这简直是给还在疯狂扩建房子的存储厂商上了一课。 前阵子大家还在疯狂追存储芯片,逻辑多顺啊, ai 缺内存,谁造存储谁发财。这就像淘金热里卖铲子,稳赚不赔嘛。结果呢?谷歌一篇论文直接把铲子给打折了,内存需求暴降六倍, 推理狂飙八倍。这直接改写了 token 的 定价逻辑。以前每吐出一个 token, 背后都是昂贵的硬件成本在燃烧,那是真金白银堆出来的。现在算法一变, token 的 造价直接打骨折。 当产出同样的内容,不再需要添加内存支撑的时候,存储芯片那个卖铲子的逻辑自然就塌了。这感觉就像你刚花钱买了张健身年卡准备减肥,人家告诉你其实躺着也能瘦,这谁受得了?为什么会这样?因为我们只看技术参数,忘了看人性。 过去几年,咱们被大力出奇迹洗脑太深了,觉得只要砸钱堆硬件就能赢,但这本身就是一种懒惰。谷歌这次做的是减法,他证明了真正的顶级高手不是靠烧钱堆料,而是靠极致的效率。 硬件,它需要的是实打实的性价比。投资永远不是买当下最火的东西,而是要买未来不被替代的逻辑。硬件会有天花板,但效率的提升永无止境。

一篇谷歌的论文 turbocon 的 压缩算法竟然引发了今天的内存行业惨案。此算法一出,内存股应声大跌。为什么呢?因为 turbocon 把 kvatch 的 内存占用压到了原来的六分之一,推理速度最高提升了八倍,而且几乎零精度损失。 这意味着,原来需要一台一万美元的工作站才能跑起来的大模型,现在用一台 macbook 就 能跑了。原来四十 g hbm 才能撑起来,在百万上下文,现在六 g 就 够了。 原来企业不敢部署的常驻 a 代理,现在成本直接能砍掉一半。然而重点来了, turbocharger 并不能导致内存需求崩盘,反而是会推动 ai 规模爆炸。历史已经早就证明了这一点。当年福来社 tencent 让注意力计算快了十倍,结果不是 gpu 的 需求下降了,而是 ai 训练的规模直接翻翻了。 所以这回的 turbo box 也是一样,内存瓶颈被突破,导致上下文从百万走向无限,导致模型从中心化走向边缘化,导致 ai 应用数量从指数级增长。 从长期看, h b m d r m s s e 的 需求只会更夸张,因为效率的提升并不会让需求下降,只会让更多人更大规模、更长上下文的使用 ai。 这就是典型的杰维斯辩论。而且啊, turbo box 它也不是魔法,它是有代价的。 第一,他用算力换内存,随机旋转 mac 一 旦化 qgl 校正,这些步骤都会增加,每个 toky 的 计算量短,上下文甚至可能会更慢。第二,他的工程门槛太高,需要自己一坑呢,额外的原数据跨平台适配,所以短期内不太可能全行业普及。 第三,压缩 k v cash 开始可能会带来选择性遗忘,系统提示更容易被覆盖,越狱风险上升,所以必须重新评估安全性。 so turnlock 它的本质并不是什么内存革命,而是效率提升,它不但不会摧毁内存行业,反而是会让 ai 的 规模化速度再提一档。 眼下顶级内资厂商都在玩命破产,未来的三到五年,新厂房、新产能那才是主旋律。那你觉得那些瞎逼逼的所谓专家,他们会比干了几十年的老行尊们更专业吗?想想他们为什么这么说,脑子呀,得多转几个弯点亮智慧人生吧。

最近呢, google 发了篇讲大模型的论文啊,结果呢,你猜?怎么着,美光呢?西部书记这些内存巨头的股价呢,直接跳水,一夜之间,华尔街蒸发了九百亿美元。呃,所有的人都惊呼啊, ai 不 需要那么多内存,卖芯片的天塌了。 但今天呢,我们来分析一下,我要告诉你,这不仅是一场彻头彻尾的学术闹剧,更是资本市场一起一次啊,极其荒唐的舞盘,抛售内存股的人呢,根本不懂科技史。我们先搞清楚啊,谷歌到底发了什么? 这篇叫 turboqant 的 论文宣称呢,他们能把 ai 推理的工作时的记忆呢,也就是大模型的缓存疯狂的压缩至少六倍,同时呢,速度还能提升八倍。打个比方,以前 ai 跟你聊天呢,脑子里必须放一本新华字典那么厚的小抄来,呃,整理上下文,记住上下文。现在呢,谷歌说不用了,一张极小的便贴呢,就能记下所有的内容, 而且回答的精准度完全不输以前。听起来很吓人对吧,单台服务器需要的内存呢,可能直接就骨打骨折了对吧?难怪散户呢,吓得连夜清仓。但这里有两大盲区啊,只有不到百分之一的人看透了。 第一呢,这篇被吹上天的论文大翻车,而苏仪是理工,联邦理工的中国学者团队呢,直接下场开撕甩。除了硬核证据, 谷歌的这套所谓的革命性的极坐标旋转压缩算法呢,我们两年前就发过,发表过一篇一模一样的研究,谷歌呢,不仅涉嫌洗稿,还刻意不引用技术。这不仅是学术霸凌啊,更说明这项技术呢,离真正的工业级成熟啊,还有很长的一段路要走,明天就想靠它省内存,做梦吧! 第二,也是最致命的误区,叫杰温斯贝论。十九世纪呢,英国人发明了更高效的蒸汽机,把烧煤的效率提升了一大截。当时的人也像今天的股民一样觉得,哇,效率高了,煤炭的需求呢,肯定要暴跌,结果呢,因为用煤成,用煤的成本大幅下降,所有的工厂呢, 都开始疯狂的装配蒸汽机,反而引发了轰轰烈烈的工业革命。煤炭的总消耗量呢,成百上千倍的暴涨。 今天的大模型呢,其实也是一模一样的。如果 ai 占用的内存真的降了六倍,推理成本大跌,意味着什么呢?意味着呀,以前用不起 ai 的 小公司,普通人全部都会疯狂的去使用,这意味着 ai 彻底白菜价。以前你只舍得让 ai 帮你写几百字的周报,以后呢,你会让他直接帮你做所有的事情,尽可能的做所有的事情。 单次聊天的内存确实省了,但总的聊天的次数和处理的超长文本的量呢,会膨胀上万倍。你算算这笔账,全球算力对内存的总需求啊,到底是跌了还是爆了呢?一定会暴涨。记住,每一次单点成本的指数级下降呢,换来的都是应用生态的宇宙级大爆炸。 盯着单台服务器的饭量去预测汽车工业的未来,是一样的可笑,别被恐慌情绪呢,带着节奏。你觉得这次谷歌的学术翻车会怎么收场呢?在评论区呢,聊聊你的看法,点个关注,带你洞察 ai 科技生产力,记得点赞关注哦!

就在内存价格一路狂飙的时候,谷歌的一篇新论文直接把美股内存板块干崩了,连 call 泪儿 ceo 看后都惊呼,这是谷歌的 deep seek 时刻, deep seek 用极少算力训出了顶尖模型。而谷歌这次放出的超级大招 turbo quint, 是直接让 ai 推理的内存需求打了个骨折。这项技术到底牛在哪里呢?简单来说,就是以前 ai 在 处理长文章或陪你聊天时,为了方便翻找,会像学霸一样把关键信息写在小抄上,也就是 k v 缓存。但如果小抄写得太详细,就会占满内存,让 ai 变慢,还特别费钱。以前的压缩方法就 像是强行把字写小,但这样 ai 不 仅容易看错字,还得去记缩写规则,反而更麻烦。那谷歌这次是怎么破局的呢? turbo quint 甩出了两个神操作。第一招 power quint 技术,可以理解为换个姿势记笔记。以前 ai 记位置用的是坐标系,比如向东走三步,向北走四步,麻烦又占地方。现在谷歌让他直接记, 朝三十七度方向走五步。就这一个视角的转换,直接省下海量空间,还绝对不会认错。但只要是压缩,总会有点小误差,对吧?这就引出了他的第二招 q j l 技术,只用一个符号纠错,他仅仅用一个正负号,就把压缩后的一点点瑕疵神奇的抹平了,零额外内存开销速度快到飞起。那这两套连招打下来,结果有多恐怖呢? 运行的 k v 缓存直接从三十二位压缩到三位,内存直接少用六倍以上。在英伟达 h 一 百显卡上,它的注意力计算速度快了八倍,最夸张的是回答准确率完全不下降,而且不需要重新训练,模型拿来就能插上用。在这个内存价格动辄暴涨,全网都在焦虑算力成本的时代,谷歌这是又扮演了一次救星吗?

你见过一篇论文直接把整个内存行业的股价粘崩了吗?股哲把他们即将在 s l r 亮相的论文拿出来先修了下,结果找的美妆、西部数据这些存储巨头股价大跌。他们找了这新压缩算法,叫做 turbocharger, 把 ai 推理过程中最吃内存的 tvx 压缩了至少六倍,而且精度零损失。消息一出,市场一下就慌了,因为这意味着,以后做长上下文推理,可能根本不需要那么多内存了。有业内人士评价,这就是谷歌的 deepsea 的 时刻。还有人展彩,以后十六 gb 的 mate mini 也可以用来跑大模型了。 甚至不少人第一反应是,这不就是美剧规则里的 pad pad 吗?当年那个近乎无损的极限压缩算法,竟然真被谷歌做出来了,那 turbocharger 到底厉害在哪儿? 简单来说,大梦性推理的时候,会有一个叫 kpi 叉式的东西,专门存临时信息,方便下次调用。这种东西已经成了 ai 推理最大的瓶颈,上下文一长,它占的内存就疯涨。谷歌的优化思路是不硬省,直接换一种更省空间的表达方式。具体有两步, 第一步,把原本的坐标系表示换成距离加角度,信息没少描述仍剩。第二步,用一个比特做残差纠正,把前面压缩完剩下的那点误差,用几乎不占空间的方式磨平,两招配合下来,最终实现三比特量化, 无需任何训练或微调,精度零损失,效果也很可观。不仅内存占用直接产到六分之一,而且在 h 一 百上四比特, turbocharger 的 计算注意力速度比三十二比特基线快了八倍, 连项链搜索的召回率也直接占过现有最好的方法。不过冷静一点看,新算法现在还只停留在实验室,没真正上线,而且它只解决推理阶段,训练环节不受影响。如果这种级别的压缩真才是普及,你觉得未来会怎么洗牌?

谷歌的一纸学术论文彻底突破了 ai 泡沫,就在近日,谷歌公布了一款 tab 换的压缩算法,让内存使用量降低六倍的同时,运行速度还能提升八倍,大幅度降低了 ai 服务器对内存的需求。 消息已经放出,美观和海力士股价暴跌,内存的市场价也是迎来了小幅度的降价,这项技术要是成功上市的话,这波存储涨价的闹剧也是时候结束了。各大厂家也不能用 ai 需求高,供不应求的理由来涨价,颗粒作地起价了,厂家已经是赚的盆满钵满了,可是小岛子们怎么办呢?

一篇论文,八天,全球内存芯片市值蒸发近一千亿美元,每光一家就跌掉了七百亿。 ai 最凶残的地方不是替代人类,是反过来吃掉给他打工的硬件公司。三月二十五号,谷歌发了一篇论文,叫 turbo quant, 核心就一句话,我能把 ai 运行时的内存需求压缩到原来的六分之一,速度还快八倍。 cloud flair 的 ceo 直接在社交媒体上喊了一句,这是谷歌的 deep seek 时刻。你还记得 deep seek 吧?今年一月,他用极低的成本训练出了笔尖 gpt 四的模型。 英伟达一天跌了近百分之十七,蒸发五千九百亿美元。当时所有人的反应是,如果 ai 不 需要那么多算力了,谁还买那么多芯片?现在,同样的剧本又来了。只不过这次受害者不是英伟达,是他身后的整条内存供应链。 美光、三星、 sk、 海力士、西部数据细节全线崩盘,美光八个交易日跌超百分之二十,连涨了一整年的 ai 芯片牛市,被一篇论文按下了暂停键。那 turboqant 到底做了什么?简单说, ai 在 运行的时候,需要一个叫 kv 缓存的东西。 你可以理解为 ai 的 短期记忆模型越大,对话越长,这块内存就越痴。以前用十六位精度存储,现在 turboqant 把它压缩到了三位, 内存占用直接砍到六分之一,而且精度几乎零损耗。华尔街一看,内存需求要缩六倍,那美光的增长逻辑不就崩了吗?于是开始疯狂抛售。但冷静下来看,这个恐慌可能过头了。 第一, turboqant 只压缩推理端的缓存,不影响训练。 ai 训练才是真正吃内存的怪兽, 动辄几千块 hbm 芯片跑几个月,这块需求完全不受影响。第二,谷歌自己在用脚投票发论文的是谷歌,但同一个谷歌刚刚把二零二六年的资本支出上调到一千八百亿美元, 同比翻了一倍。比如,他觉得 ai 硬件需求要下降,他自己花的钱比谁都多。第三,杰文斯辩论。这是经济学里一个经典规律,当一种资源的使用效率大幅提升,总消耗量不但不会下降,反而会上升, 省下来的内存不会闲着,开发者会用它跑更大的模型、更长的对话、更复杂的任务,效率提升催生新需求,最终硬件反而卖得更多。 摩根士丹利、摩根大通、花旗的分析师都在说,市场反应过度了。 sk 集团董事长更是公开喊话,内存芯片短缺会持续到二零三零年,美光的 hbm 产能,二零二六年全年早就卖光了。更有意思的是,这篇论文本身还有争议, 有学者指控 turboq 高度雷同,而且论文里的性能对比测试有猫腻, 给自己用 ae 百顶级显卡,给对手用关了多线城的 cpu, 这不是欺负人吗?所以真相是什么? ai 每一次效率突破,都会制造一波恐慌性抛售,从 deepsea 到 turbocont, 剧本一模一样。 但每一次恐慌过后,真正的需求不但没有消失,反而更旺盛了。因为 ai 这条赛道的本质是,技术越进步,应用越广泛,硬件需求越大。 但这也给投资者一个教训, ai 投资的逻辑正在改变。以前是 ai 需要什么什么就涨,现在是 ai 优化了什么什么就先跌一轮,你买的不再只是硬件,而是整个生态的适应能力。关注飞哥,一起明辨是非。