三月二十四日,谷歌研究院发布内存压缩算法 turboqant, 可在不损失精度的前提下,将大语言模型推理时的 k v cash 内存占用减少至少六倍,并在 h 一 百 gpu 上实现最高八倍的注意力计算速度提升。该成果将于下月 i c l 二二零二六会议正式亮相。消息引发全球存储芯片股剧烈震荡。 三月二十五日至二十六日, s k。 海力士、三星电子、美观科技等巨头市值合计蒸发超九百亿美元,闪迪单日跌幅达百分之十一。华尔街分析师普遍认为市场反应过度。摩根士单利指出,该技术仅作用于推理阶段的 k v cash, 不 影响训练需求和 h b m 市场, 且效率提升可能因杰文斯备乱反而刺激更多需求。目前全球内存供应仍高度紧张,也曾预计 q 二 d r a m 价格环比上涨百分之五十一。业内将这一成果称为谷歌的 deep seek 时刻通过极致效率优化拉低 ai 运行成本,但存储芯片长期需求逻辑尚未发生根本性转折。
粉丝6094获赞2.8万

就在内存价格一路狂飙的时候,谷歌的一篇新论文直接把美股内存板块干崩了,连 call 泪儿 ceo 看后都惊呼,这是谷歌的 deep seek 时刻, deep seek 用极少算力训出了顶尖模型。而谷歌这次放出的超级大招 turbo quint, 是直接让 ai 推理的内存需求打了个骨折。这项技术到底牛在哪里呢?简单来说,就是以前 ai 在 处理长文章或陪你聊天时,为了方便翻找,会像学霸一样把关键信息写在小抄上,也就是 k v 缓存。但如果小抄写得太详细,就会占满内存,让 ai 变慢,还特别费钱。以前的压缩方法就 像是强行把字写小,但这样 ai 不 仅容易看错字,还得去记缩写规则,反而更麻烦。那谷歌这次是怎么破局的呢? turbo quint 甩出了两个神操作。第一招 power quint 技术,可以理解为换个姿势记笔记。以前 ai 记位置用的是坐标系,比如向东走三步,向北走四步,麻烦又占地方。现在谷歌让他直接记, 朝三十七度方向走五步。就这一个视角的转换,直接省下海量空间,还绝对不会认错。但只要是压缩,总会有点小误差,对吧?这就引出了他的第二招 q j l 技术,只用一个符号纠错,他仅仅用一个正负号,就把压缩后的一点点瑕疵神奇的抹平了,零额外内存开销速度快到飞起。那这两套连招打下来,结果有多恐怖呢? 运行的 k v 缓存直接从三十二位压缩到三位,内存直接少用六倍以上。在英伟达 h 一 百显卡上,它的注意力计算速度快了八倍,最夸张的是回答准确率完全不下降,而且不需要重新训练,模型拿来就能插上用。在这个内存价格动辄暴涨,全网都在焦虑算力成本的时代,谷歌这是又扮演了一次救星吗?

最近科技圈出了个大新闻了,直接把内存股给干崩了。谷歌新算法一出来,闪迪一度跌百分之八,美光也跌了大约百分之五了。这到底是什么算法这么猛呢?今天咱们就来好好聊聊。 咱们先说说这个让内存股栽跟头的谷歌 truffle crown 的 算法。你可以把这个大模型呢想象成一个特别能聊天的朋友,他在跟你聊天写文章的时候呢,得记住前面所有的内容,才能继续往下说。这些临时记忆就存在 k v charge 里面, 相当于模型的临时草稿纸啊。对话越多,上下文越多,这张草稿纸就越大。特别吃内存,这可是 ai 运行成本的一大块。传统解决内存问题的思路是向量量化,把高精度的数据压成低精度的表示。 但尴尬的是,大部分的量化方法本身也需要存储额外的量化常数,每个数字要多占一到两个 bit。 而谷歌的 trouble 这个算法牛就牛在了,能在几乎不损失模型效果的前提底下,把这个 kb charge 压缩到三 bit, 内存占用直接降了六倍啊!同时在英伟达 h 一 百上面呢,四 bit。 这个 trouble 比三十二 bit 未量化版本的这个推理速度还快了八倍了。 最关键的是,它不用重新训练或者微调模型,直接就能用了,落地门槛是很低的。 cloud frog 的 ceo 都评价说说,这是谷歌的 deepsea 时刻啊,因为 deepsea 证明了用更少的资源也能训练出顶尖的模型。 trouble crown 的 方向是类似的,用更少的内存也能跑同样质量的推理, trouble 矿只解决推理阶段的内存问题, ai 训练环节是完全不受影响的,所以短期来看呢,肯定是利空这个储存股的。但长期来看呢,这可是打破了 ai 推理的内存瓶颈。 以前 ai 因为内存限制的应用场景是有限的,现在好了, ai 渗透到更多更广的应用场景,这可能就是 ai 全明化的前夜。 说到这里啊,可能有朋友就会问了,这种行业大变化,咱们普通投资者怎么去把握机会啊?其实啊,这种机会的捕捉,离不开对宏观趋势的判断,如果不懂判断宏观趋势的,就要多听我宏观课第二节的内容, 重温一下怎么判断发现市场的机会。咱们做投资的不能只看眼前的涨跌啊,得从宏观的层面看透行业的走向,这样才能在市场波动里面去找准方向。 所以啊,不管是科技圈的新技术,还是资本市场的起伏呢,背后都是宏观趋势在推动,咱们平时多积累,多学习宏观分析的方法,才能在机会来临的时候牢牢抓住。最后提醒大家,关注我,带你看透财经热点背后的逻辑,把握更多投资机会!

今天存储圈算是炸锅了,你猜怎么着啊,谷歌搞出了一个叫 turbo quant 的 压缩算法,直接把大薄型运行的那个 k v 缓存啊,压缩到了原来的六分之一了,而且呢,还有更劲爆的是速度还提高了八倍, 哎,更绝的是啊,有开发者呢当天啊,他就在自己的电脑上去验证啊,因为不太姓习嘛,自己验证验证的结果啊,我告诉你,他用梁比特的精度能跑伽马模型输出和没压缩的版本啊,居然是一字不差, 也就说他这个是可行的,现在乱地上已经是炒成了一锅粥了,大家哎,都在发表自己的看法,这个消息出来啊,美观西部数据还有细节,他们的股价是唰的就往下掉啊,哎,可以说呢,资本市场是吓坏了, 他们判断是这样,他说以后如果是这样的话,那么,哎呀,不需要那么多内存了,是不是根据这个理论嘛,就明显是这样的嘛, 那你说这帮群主巨头呢,还怎么赚钱,这一资本怎么办?哎呀,其实我觉得他们多虑了啊,真正叫什么叫做谋师者比啊,未能远谋,你看这些资本啊,哎呀,就是做的那个大的 house 里面,然后做的 ppt 非常漂亮,但是他们真的对产业的底层的逻辑他们是不了解的啊,就是这个事出来之后,有人激动,有人冷静, 但是呢,哎,我问你啊,这个事有那么厉害吗?你今天就听我来说一说吧,我算是这个行业里面的老人了,而且也是一个有一定见数的一个算专家吧。我告诉你啊, 以这个冷静的来说啊,就算这个谷歌的这个论文真正能够实用啊,因为现在还没有实用吗?真正能够实用之后呢?你也不用紧张,有啥好紧张的呢? 就是有一个词叫什么叫杰文斯贝勒,你懂吗?就是你效率越高的时候呢?哎,不但是使用量不会下降,反而总量要增加,要暴涨。就跟那个煤炭在蒸汽机发明了以后,大家都认为说有完了,煤炭是不是用量要减少了,但是不是这样的,结果大家发现我靠煤炭的用量反而越来越大了,你知道吧?那现在也是这样的,你想想看,现在我们 一百万 top 已经是到顶了,大家都认为说再往前走的话,那个不说不能做,能做成本太高,因为存储不够用嘛。可是现在呢?如果这个技术有了之后呢?那么你会不会想要追求一千万 top 呢? 来自于一个亿 top 呢?甚至永久记忆。你要知道我们人类对记忆的追求是永无止境的,虽然我来说我都希望是永久记忆啊,就我们所有的数据都要永久保存。那你说如果是这样的话,要让每个 ai 都变成一个伙伴,一个助理, 这得吃掉多少存储啊?再说了,整个数字经济这个大背景下,远非一个 ai 所能囊括的,可以说千行百业现在都在往数字化上转型。你比如说数据集建设聚生机器人,数据采集, ai 短距,还有医疗,金融、财税,还有法律这个裁判 全都要求这些数据,如果要求他们都能够永久保存的话。你想想一个病人家属要查二十年前的一个呃,就诊的记录,一个会计师要查二十年前的这个跟你有关的一个账本,一个法官呢,要调查二十年前的一个叛逆, 这些需求你看要吃多少存储,要知道现在没有这么长时间的保存喽。你去查查看啊,一般保存都到不了这个时间啊。所以啊,你别看谷歌这个技术理论上是让存储瘦身的啊,但是呢, 根本的判断就是长期缺存储的判断是不会改变的,你信我好了, 他瘦身的,瘦的只是单个任务,在使用存储上面会减少,但是撑爆的是我们人类整个的存储需求会撑爆掉。所以我告诉你啊,存储这个风口才刚开始呢,刚刚开始你记住啊,哈哈哈,就是这么触手可及。

炸了!谷歌刚发布了一项让 ai 界沉默的技术大模型,最大的瓶颈不是算力,是内存。每一次推理, kv 缓存都在疯狂吞食资源。谷歌的 turbo 扩耳听,一个近乎暴利的方案解决了这个问题, 把高维向量压缩到三个比特,精度损失为零,速度提升最高八倍,内存直接砍到六分之五。这下内存不再是至于 ai 的 门槛,未来低内存的端测, ai 可能迎来新一轮计划。好了,关注我,每天都有 ai 新资讯。

内存这波铁定要跳水,哈哈哈,三月二十七号凌晨,一条消息直接把各大存储商都干沉默了。谷歌刚刚扔出了个王炸新算法,内存使用量直接翻了六倍, 运行速度还涨了八倍。这下好了,移动科技公司股价瞬间一片超绿,闪迪更是一夜爆跌了十一个点以后,厂商再也没法拿 ai 需求大当借口, 狂涨内存颗粒价了。内存这波铁定要跳水,幺幺八之后咱们基本都能以合适的价格入手了。我再想回到当年的第一版价,基本就别想了,光内存、电脑四大硬件全线降价,主板直接干到了历史最低价。 内存降了几百九八零零叉三 d 从三千降到两千五五零六零,太显卡更狠,两千五百块,比涨价之前还便宜。最后一句话,五十包邮收,导爷囤货,懂的,都懂!

谷歌推出全新 ai 压缩算法 turboqant, 可将大语言模型缓存压缩约六倍。该技术无需重新训练模型,即可实现三比特精度压缩,并在英伟达芯片测试中最高提升八倍性能。

朋友们,谁能想到,谷歌昨天发布的一个新功能啊,却让美股的存储板块集体闪崩,美光闪迪,西部数据啊,全部收跌,而且呢,是在纳斯达克整体啊涨了百分之零点七, 而且占稳了五日均线的情况下。谷歌刚发布的这个黑科技呢,叫 turbo count, 简单说啊,就是一种 ai 内存的压缩算法。我大致了解了一下啊,就是以前跑一个大模型可能需要六块内存条,现在呢,用它这个算法啊,可能只需要一块就能跑通,内存的占用呢,直接是原来的六分之一。 那么市场的逻辑很简单啊,软件变强了,硬件的需求呢,是不是就减少了?哎,但是大家也要冷静下来想一想啊,这种冲击性很强啊的这种标题式的消息,哎,他有时候往往是暂时的, 那虽然单位的存储需求减少了,但是 ai 的 门槛呢,也降低了,那以后人人如果都能跑模型,那总需求真的会跟着降吗? 目前呢,可能谁也说不清,总之市场对这一点呢,目前可能是有些担心,所以我就想到啊,巴菲特为什么喜欢投那些传统行业,尤其是那些技术轻易改变不了的公司 啊,因为这些前沿技术他迭代太快了,尤其是现在我们所出的这个 ai 时代,那颠覆性的技术呢,可能还会层出不穷。 哎,就像前段时间啊,市场担心呢,就 ishtropic 那 个 cloud 大 模型啊,对很多美股的萨斯软件公司有可能造成降维打击, 像什么 photoshop 之类的啊,都跌了很多,就连最稳的全能选手微软啊,我们看它从高点都跌了百分之三十多,这也是我们如果选择啊,投资高科技行业的一个潜在的风险。 好,那回到存储的问题啊,谷歌的这个新技术啊,到底是技术红利还是行业利空?大家怎么看?评论区可以留言聊一聊。

三月二十六日是英伟达黄仁勋历史上最黑暗的一天呐,他的命根子被人刨了!谷歌发布了超大型内存压缩算法 同步控,将大圆模型的缓存占用减少了六倍,性能提升了八倍啊!这一技术直接把算力卡的需求减少了四十八倍。打个比方,原来需要一百张,而且两百的卡,如今只需要两张就够了。发布后,英伟达 四指蒸发超万亿啊!存储芯片,美光阿力士三星四指蒸发超六千亿。

谷歌扔出一颗科技炸弹,内存股瞬间集体大跌,市场一片恐慌。都说 ai 要省六倍内存,内存行业要凉了,但我直接说结论,这纯属无脑情绪。啥内存行业不仅没危机,长期刚需逻辑一点都没变。 咱们先把这件事说透,不带任何偏见,只讲公开消息。财联社刚官宣,谷歌推出了一款叫 turboqant 的 ai 压缩算法,主打就是降低大模型的内存占用。说白了,现在 ai 大 模型运行的时候,有个叫键值缓存的东西,就像 ai 的 临时草稿纸, 上下文越长,草稿纸越占内存,成了算力瓶颈。谷歌这个算法不用重新训练模型,直接把这块缓存压缩到三比特精度,能省六倍缓存内存,在高端显卡上还能提升八倍运行速度。测试了多款主流开源模型,效果都很稳, 谷哥打算四月的国际会议上正式展示这项技术。小喜一出,美股内存股立马跳水,美光、西部数据这些巨头纷纷大跌, a 股相关个股也跟着成压,市场恐慌情绪直接拉满。 大家恐慌的点很简单,省六倍内存, ai 就 不用买那么多内存了,内存厂商要完蛋。但这个逻辑从头到尾都是错的, 咱们一层层拆穿。首先,这个算法压缩的不是全部内存,只是一小块临时缓存。很多人把键值缓存和整机内存划等号,这是最大的误区。 键值缓存只是 ai 运行推理时的临时存储空间,只占 ai 内存需求的一小部分。模型权重、训练环节、整机运行内存这些核心内存需求一点都没减少,它省的是临时草稿纸的空间,不是把整个笔记本都扔了。 其次,省下来的内存会被暴涨的 ai 需求直接吃掉。现在各大厂商都在疯狂做大模型,涨上下文,从几万上下文冲到几十万、上百万,缓存占用量本来就在几何级增长,就算省六倍内存, 只要上下文再扩大几倍,内存需求不仅没降,反而还会涨。而且算法优化后, ai 运行更快,成本更低,会催生更多 ai 应用,反而带动更多算力和内存采购,相当于修路变快了,车会变得更多,路的需求只会更大。 再者,实验室技术不等于大规模商用,落地周期几场,这只是谷歌的一项技术成果,还没正式公开落地。 从实验室测试到云厂商, ai 企业大规模商用至少要一两年甚至更久,期间还要适配不同硬件、不同模型,解决稳定性、兼容性问题,根本不是马上就能普及、立刻冲击内存需求的黑科技。最后,内存的应用场景根本不止 ai, 大 模型、 手机、电脑、服务器、公控设备、智能硬件全都是内存的刚需场景, ai 只是其中一个增量市场, 就算 ai 推理缓存省点内存,其他场景的需求还在逐步增长,但一技术根本撼动不了整个内存行业的基本盘。说到底,这个算法是 ai 算力的优化工具,不是内存的替代品, 是锦上添花,不是釜底抽薪回归产业本身。针对这项新技术,给大家理清几个客观认知,避开市场误区。 第一,市场恐慌属于情绪性过度反应,大众容易把局部技术优化放大成整个行业的颠覆性冲击,忽略了技术落地场景适配的客观限制,属于典型的片面解读。 第二,内存行业的核心需求逻辑未变。 ai 产业的核心增量在于大模型迭代算力、基建扩张长上下文普及单一缓存优化技术,撼动不了全区内存需求的基本盘。 第三,认清技术的真实定位。这项算法是 ai 算力的优化工具,能推动 ai 产业降本提速,属于产业升级,并非内存的替代技术,长期对内存行业属于中性影响。 觉得干货科普有用的点赞关注不迷路评论区聊聊你对这项 ai 压缩技术的看法,下期继续深挖硬核科技产业逻辑,继续跟旭哥絮絮叨。

内存股崩盘了,每光闪跌,连续两天大跌,谷歌新算法能够把大模型缓存压缩六倍,内存占硬砍掉百分之八十以上,推理速度提升八倍,而且精准度百分之百,做到了零损失,内存行业因此面临生死劫,我满仓内存股如何自救? 大家好,我是霍尔一大叔。今天是二零二六年三月二十六日,闪存股在过去的一年里风光无限, 但是在美光上周发布了强劲的财报后,整个内存板块却面临了灰撤的压力。美光科技在财报当天创下了历史新高四百七十一美元,但是第二天早盘直接崩了百分之九,之后就出现了连续下跌,根本没有喘息的时间。 昨天又因为谷歌推出的新算法导致收跌百分之三点四,技术形态上收出了一颗阴十字星, 成交量明显放大,这说明多空双方在当天激烈交战,美光科技仍然处于下降通道中,所以这个十字星不是指跌的信号,而是下跌的中继。今天美光科技盘中下跌超过百分之七, 抛压仍然非常的沉重,另一只内存股闪迪几乎复制了美光科技的近期走势,在美光科技发布财报后的第二天,闪迪也是大跌了百分之八,之后 之后几天也是连续下跌,昨天也因为谷歌的新算法导致收跌百分之三点五,今天盘中供是下跌超过百分之十, 美光科技和闪迪等内存股的命运都面临了谷歌新算法的威胁,整个内存行业面临着生死劫。那么谷歌的新算法真的会消灭内存行业吗? 我们先来了解一下谷歌新算法的厉害之处。大家知道大模型中的开微键值缓存、长文本对话会吃掉大量内存,谷 歌的新算法可以做到六倍的压缩,能将这部分内存占用直接砍掉百分之八十以上。以前的压缩方法往往会让大模型变笨,但是谷歌的新算法在压缩后仍然能保持百分之百的精确度,也就是说,新算法是零损失的技术突破。 内存占用了减少,不仅意味着能省钱,还意味着在英伟达最早一代的 gpu h 一 百 等芯片上的推理速度能提升最高八倍。这条消息对于美光科技、闪迪这里内存股来说就形成了巨大的压力,因为 ai 模型对于内存的需求效率提升了六倍,那么未来大厂采购内存条的速度就会放缓。 在过去的一年,内存短缺导致内存价格飙涨,美光科技闪离他们也赚的盆满钵满。美光科技最近还公布了要大力扩建产物的资本开支。 谷歌的新算法能够压缩六倍,就用不了那么多内存了,你花钱扩建内存潜能就等于打了水漂,这是很多人担忧的地方。实际上,从长线来看,谷歌的新算法提升了内存效率,就意味着 ai 能应用到更多的便宜的设备上, ar 的 应用在越来越多的设备上使用,所需的内存就会越来越多,反而可能扩大整体的内存市场规模。在经济上,有一个词叫做杰文斯辩论。 一八六五年,英国经济学家杰文斯在研究中发现,瓦特改良了蒸汽机,虽然让煤炭燃烧更高效,但是英国的煤炭总消耗量反而激增, 因为更高效的引擎使能源成本降低了,扩大了工业使用的场景,所以当一种资源的利用效率提高时,它的总消耗量反而会爆炸式增长。 再举个我们身边的例子,来增加朋友们对于建文思悖论的理解。十几年前,手机的内存很小,只有三十二 g, 所以 大家当时只敢存几张照片,手机 app 也只有几十兆。 随着存储技术的进步,内存变便宜了,大家开始拍四 k 的 视频,手机内存也从三十二 g 到六十四 g, 再到一百二十八 g, 五百一十二 g, 到现在最大的机身存储都扩展到了一 tb、 两 tb。 人们的需求胃口越来越大,视频、照片同样都存进了手机。谷歌的新算法从长期来看, 用杰文斯辩论来理解就是 ai 变得更省,内存更便宜了。原本只有大公司能用的 ai, 现在可以塞进每一个扫地机器人、每一部廉价手机、每一台汽车里。 所以谷歌的新算法不是要杀死内存行业,而是为 ai 技术进入更广阔的应用场景,发放通行证。当 ai 进入了万物互联时代,全球需要的内存总量不但不会减少, 反而会因为门槛降低而出现百倍、千倍的增长。但是短期来看,谷歌的新算法把显存占用砍掉六倍,确实对内存行业形成了巨大的压力。 本来过去的一年里,包括美光科技 ceo 等大佬在内,都认为内存需求无限,内存涨价涨价再涨价。在谷歌的新算法出来后,内存虽然还面临着巨大的短缺,但是会减少百分之三十的市场需求量, 所以内存涨价的冲动就会大幅减弱,这将大大影响到内存股的毛利率。很多朋友关心手里的内存股怎么办?是不是要全部抛掉? 谷歌的算法到底是影响到某些公司,还是影响到整个存储行业?华尔街大叔认为,谷歌的新算法不只是影响到美光闪迪,而是对整个存储行业都有影响, 实际的冲击力也有不同。但是冲击最大的当然是纯存储股,就是我们刚才讲的美光和闪迪。美光是存内存,闪迪是闪存, ai 是 他们的核心趋势,他们对于 ai 需求的变化最敏感。这是因为美光闪迪没有太多其他业务对冲,盈利高度依赖于存储价格。一旦 ai 可能减少内存的需求,大机构第一反应就是卖出这些最纯的内存股, 所以这两只股暂时要回避一段时间了。如果池塘中有这两只股,可能也需要更多的时间来等待它们探底回升。对于其他的存储股,谷歌新算法的影响就没有那么大了,我们逐个来分析其他的存储股。先来看 s k 海力士和三星电子。 谷歌的新算法对于 sk 海力士和三星的影响最小,短中期甚至可以忽略。这是因为这两家公司的互成合是 hbm 高宽带内存。谷歌的这类算法优化主要是减少容量的需求,但是不解决宽带延迟、并行访问等问题, hbm 的 地位就没有被触动,甚至 ai 更便宜了,用的更多了,对于 hbm 的 需求会更大。 虽然美光科技也有部分业务是 hbm, 但是它主要的业务还是纯内存,所以它仍然是最容易被谷歌的新算法在短期内误伤的。谷歌的新算法对于西部数据的影响不大,但是方向仍偏负面, 如果 ai 模型占用更少存储空间,企业级存储需求可能被边际压缩。目前 ai 数据包括视频训练数据等仍然在增加,所以西部数据虽然会受到影响有限,但是市场会把恐慌波及到它。 细节科技实际上受到的影响也比较小,因为它主要是做机械硬盘。 hdd 用于冷数据、云存储轨道, ar 也优化了算法,几乎不影响到它的数据存储总量,甚至可能 ar 应用越多,数据越多, hdd 需求反而上升。所以我们总结了一下, 把谷歌新算法的影响对于存储行业分为四层来看,就是第一层算力带宽的 hbm 层,像 s k、 海力士、三星电子,它们几乎不受影响,甚至还会受益。 第二层是容量层,主要是西部数据,理论上会受影响,但是长期来看,这种影响会被 ai 增长低消。第三层是长期存储层,也就是 hdd 层,主要是细节科技,基本不受影响,甚至还是中相关。 第四层是纯内存,就是美光科技和闪迪这两家,它们在短期内受到的影响最大,如果想抄袭,还需要等待一段时间,或许一个季度,或许半年。 谷歌新算法优化的影响是每单位的 ai 需要多少内存?我们应该看到的是 ai 总量增长了多少。 如果谷歌的新算法优化了,单位需求下降百分之三十,但是 ai 总需求增长了百分之三百, 那么最终结果是总需求大幅提升,这对于整个存储行业来说是利多。谷歌新算法节省的是单个模型的用量,而不是整个世界对于 ai 的 需求。真正决定内存行业的从来不是效率,而是规模。 只要 ai 产业规模爆炸性持续增长,那么存储行业的规模也会大幅增长,内存股的明天也终将会到来,但是这需要时间。 通过存储行业被谷歌新算法打击、 ai 替代一切软件等突发事件,作为普通投资者,应该从中获得哪些教训或者经验呢?我粗略总结了一下,主要是以下两个方面, 一是让自己的投资组合更健康。有的朋友喜欢全仓压住一只股两只股,这样就让你的持仓变得非常危险。如果你全仓只压住了软件股和内存股, 那么现在你只剩下了眼泪,可能需要非常长的一段时间来应对整体账户的沉重浮亏。但是如果你的投资组合是严格按照我讲的 a、 b、 c 分 仓来控制风险,那么整体账户不仅控制了浮亏,而且仍然会有盈利。 二是池塘中有的个股可能会遭遇逆风。像几个月以来的软件股,昨天开始的内存股都曾经风光一时,但是在风光后遭遇逆风的时候,我们要学会等待, 而不是看到遭遇逆风的优质个股马上一件清仓。逆风一两个月,或许你会等,但是如果逆风一两年呢?大概率你会在大幅复亏的时候抛售,这就会造成实质性的亏损。这种做法是最蠢的,完全没有必要的。 从内存股被打压,从软件股被抛售这些事件中,你学到了哪些经验和教训呢?好了,今天就和大家分享这些,关注华尔一大叔,美国股市不迷路!

超千万人围观,谷歌下场甩出神级压缩算法,内存狂缩六倍,提速八倍开盘,直接带崩华尔街存储芯片巨头为什么杀伤力这么大?你用 ai 时有没有发现,聊得越长,他越卡越容易失忆? 根源就在大模型的记忆中疏他是 ai 为防重复计算而暂存的中间推理状态,聊得越长,状态堆得越厚,直接撑爆显卡内存, 这就是全行业都在付的内存税。传统压缩方案就像给地图上的每条街道都单独画上比例尺,这么多的图例反而把地图彻底塞满,节省空间几乎成了空话。 但谷歌这次直接从数学底层出手,打出了一套降维组合拳,效果堪称颠覆,彻底砍掉所有多余标签,额外内存开销直接清零内存最高狂缩六倍,推理速度飙升八倍,推理精度居然做到了零损失! 换句话说,原来你游戏用的消费级四零六零显卡只能跑入门级模型,现在居然能直接带动企业级大模型,单条推理成本直接砍下八九成! 这意味着,之前靠顶配显卡筑起的行业门槛,正被几行优雅的代码彻底击穿。巨头正用数学法则四两拨千斤。但也别忘了,著名的杰文斯备论,一旦这凭空多出的六倍内存,全部喂给了无限长的上下文,又将孵化出怎样吞世级的超级 ai 应用?

内存降价了,前几天哈谷歌甩出一个新算法,破解内存的一个处境,简单说呢,它是可以把非常吃内存的 ai 减少到原来的六分之一。以前是干什么呢?是靠大价钱堆内存建服务器,现在靠这个软件就能省一大半。这样因为 ai 需求导致内存涨价,自然会有所减缓, 各大存储巨头呢,集体飘绿。不过现在行业的整体需求还在,只能说他不会无脑的一个涨价。那你觉得电脑他多久还会降价呢?打在评论区。

凌晨四点,谷歌直接扔出 ai 王炸 kubrick, 论文刷屏全网,短短几小时浏览量破一千两百万。他一刀戳中大模型最大死穴显尊瓶颈,打破六十年 z 的 定力限制, 用空间旋转加伊比特误差补偿,直接把 k v cash 压缩六倍,推理速度狂飙八倍。更炸裂的是,十六 g b 内存的 mac mini 就 能本地跑超强 ai 模型,完全离线,免费又安全,长上下文不再卡顿降级。未来高端手机也能本地运行顶级大模型, 速度质量双提升,成本反而暴跌。关键谷歌还直接完全开源,不藏私不独占,全力推动全人类 ai 技术向前。 还在死磕显卡堆钻力,还在嘲笑小内存设备时代直接变天, ai 下半场正式进入效率革命,跟不上这波技术真的要彻底出局。

三月二十六日,谷歌发布最新研究成果,宣称能把大模型推理时的内存占用直接压缩到六分之一,同时速度还提升了八倍。 这个消息直接吓坏了存储市场,导致美光闪迪、西部数据等巨头在二十六号、二十七号两日连续暴跌。投资者认为,如果算法能省下六倍空间,那谷歌、亚马逊、微软等大厂门对 h b m 和高端 d r a m 芯片的采购量就会腰斩。 真的是这样吗?二零二五年一月底, deepsea 横空出世,给全球科技界投下了两颗炸弹,其极低的训练成本和代码开源,让硅谷和华尔街的投资者为之一振。英伟达当日暴跌百分之十七,一天之内缩水了五千八百九十亿, 这个数字创下了美股历史上单日市值损失的最高记录,打破了麦塔此前保持的记录。但当你回头去看,股价在经历了百分之十七的熔断式下跌后,收盘价约一百一十元。尽管这两天因为存储和算法立空回调了百分之六,目前股价依然维持在一百七十元附近 区间,涨幅高达百分之四十五。事实证明,算法的进步确实能省钱,但省下来的钱并没有回到老板的口袋里,而是被他们拿去买更多的芯片,跑更庞大的模型了。 这就是科技史上著名的杰文斯。辩论效率越高,需求反而越疯狂。存储板块的这两天暴跌,大概率只是给后来者上车的 deepsea 式回踩。近年来, d r i m 价格翻了三倍,闪低,股价涨超两倍。这种涨幅下,任何风吹草动都会让获利盘疯狂逃命。 试想一下,如果你的持仓三个月翻两倍,你要不要获利了结?即使算上这两天的暴跌,闪迪涨幅依然高达百分之一百五十,西部数据涨幅百分之五十八,即使涨幅最少的美光也有百分之二十四。 这些公司不是被谷歌打败的,而是被自己的涨幅吓死的。看着美光和闪迪在高位跳水,与其说是恐慌,倒不如说是对市场敬畏。新的回归暴涨时,市场总认为这次真的不一样。崩盘时,大家又忙着寻找下一个救命稻草, 投资中最危险的五个字,这次不一样!好了,今天就到这里吧,明天见!如果你喜欢我的文章,不妨关注每晚更新,让我们一起财富自由!

家们,最近全球资本市场突然异动,美股存储芯片板块集体大跌,多家巨头股价重挫超百分之 四, a 股存储板块也跟着遭资金抛售。导火索就是谷歌推出的全新 ai 压缩算法,这项技术专攻 ai 大 模型内存消耗难题,不用微调模型就能实现六倍内存压缩,还能大幅提升算力芯片运行性能。 说白了,以前要大容量内存才能跑的 ai 模型,现在六分之一内存就够用,全球 ai 服务器内存采购预期直接腰斩,这也是存储板块利空的根源。那对 a 股个股有什么影响呢? 沉压最严重的就是卷内存芯片相关标的,招一创新,北京军政、东兴股份首当其冲, 其次是内存接口芯片龙头蓝旗科技单机内存配置下调直接影响需求, 存储模组封测企业则是间接沉压。不过大家也别盲目恐慌,这项技术还在实验室阶段,离大规模落地还很远,而且只压缩缓存,不影响模型权重,存储需求不会消失。更重要的是, 国内存储核心逻辑是国产替代,自主化率偏低,替代空间足够对冲短期利空。短期来看,绑定 ai 算力的相关标的还会震荡沉压, 普通投资者可以先观望主打国产替代车规和工业存储的优质标的回调,反而是中长期布局机会。后续紧盯两点技术落地进展,原厂商内存采购计划就能精准把握板块走势。

去年就因为没有搞懂一个经济学定律,我错过了英伟达跌破九十之后的翻倍的一个机会。那这时候呢,谷歌又发布了一个新的存储压缩的算法,存储板块有集体暴跌,但是我深度调研之后,最近反而需要盯盘了。 先说一下背景啊,我之前做过一期存储的视频,当时的判断就是存储不再是配角了,而是 ai 硬件的刚需。那这时候谷歌发布了一个叫 table 框架的技术,市场一听就慌,就一地崩了。那我需要搞清楚的就是,这到底是长期的一个利空,还是说市场只是借着这个消息进行一波筹码的换手,然后走向新的一轮上涨? 因为去年年初的时候, deepsea 二一的发布时,大家觉得也不需要那么多算力了,那最后发现,其实它的模型训练的方法越优化 效果越好,反而最后是对算力的需求是增加的,因为呢,当时是一度跌破了九十,后来也就翻倍了,所以我就去做了一轮深度的调研。那谷歌的这个 turbocharged 的 技术到底干了什么? 号称能把 ai 推理阶段的内存占用压缩六倍,速度还能提升八倍。先说它的本质,它主要应用有两个方向,第一个就是不损失精度的情况下,压缩大模型推理阶段的 k v 缓存,就是把我们推理阶段的显存的占用就可以减少很多了, 而且是对话越长,显存的占用越大。那现在显存如果占用下降,意味着同样的一个技术设施可以支持更长的一个上下文的推理。其实第二个方向更值得关注,说白了,大模型处理复杂项目的时候,光靠上下文窗口是不够的,他也还需要去调用向量数据库 来管理海量的知识数据。谷歌这个技术就让向量剪辑更精准了,意味着大模型的整体工程化能力在提升,它不仅上下文更强,就是对海量信息的处理和剪辑也更强,这个对 ai 的 发展是绝对有利的。还有一个关键认知啊,就网上还在讨论这个技术到底会不会走进现实。 其实类似于 kv 缓存的出来之前就已经在主流模型上用了,包括异商知识处理、划船缓存都是常规的配置。其实我们最近也能看到, 这几个月模型的上下文能力也已经在增强了,而且推理的成本是下降,这个都是已经在发生的事情,还不单是上下文增强,现在 a 证的时代之后,你会发现它是经常是那种多个 c 省多能对话的一个长上下文的任务。 那如果没有这些压缩技术的进展,现在其实 ai 它进展不了这些能力,它做不到这么多。就是相当于 ai 在 实现像顶级的模型实现这些能力的时候,它已经就是或多或少了应用到了 kpi 缓速的一些压缩技术。直说谷歌的这个 table quint, 它把压缩做到了最接近信息论的极限,也就是相同极限,后面再往下压的空间已经不大了。它的意义在于给了一个非常清晰的边界,就告诉行业这条路还能走多远,极限在哪里?其实在它这个论文发出之后, 就有人在苹果的芯片的框架上用千万三十五 b 的 模型已经去测试出来了,在哈根 face 上,这个模型也已经开圆出来了。 一个最明显的效果就是内存占用大幅降低。当然谷歌的基本测试是基于英伟达的 h 一 百做的,所以最好的效果是在 h 一 百上。但关键是这类技术它 它不需要额外的硬件,它可以很好的整合到目前的平台技术设施中,不用换卡,也不用换服务器,直接就能用,这就是它真正的一个价值。所以这类技术其实它不是 ppt, 它已经落地了,而且会持续落地,那效率提升的存储的需求会下降吗?这个是我们调研的一个重点, 这就要引出经济学上的这个定律了,叫杰文斯贝论,他的定义就是当技术进步显著提高资源利用效率时,使用成本下降,反而刺激需求总量激增,导致总需求量不降反升。但说这个定义还不够,我们把这个传导逻辑来拆一下你就明白了,他这个技术不是说让用户去少买硬件, 而是上让现在的硬件能够干更多的货。什么意思?以前一块 gpu 显存,光是那个 kv 缓存就占满了,现在压缩了六倍,同一块 gpu, 它就能支撑更长的上下文,能跑更多的并发症。 不用换硬件, ai 服务能力直接就提升了。这是第一层,那第二层就是当 ai 变得更好用、更便宜的时候会发生什么?就是原来那些觉得 ai 太贵用不起的企业,它就会进来了。 原来只能做单词问答的场景,现在就是可以持续做持续对话的 agent 了,包括这几月明显能看 agent 的 一个跨越是非常大的,无论是龙虾还是 clock code code x 这一些 a 使用越来越频繁了,这算力其实增加起来很夸张的,现在就是对算力的一个渴望,远远没有到瓶颈。 我们也能看到现在的一个模型的上下文趋势, g p 五点四、 oppo 四点六,包括这面奶的模型都是一百万级的模型,而且就是随着这类压缩技术的普及,一百万级上下文窗口的步入,成本会越来越低,以后这就是标配。 其实还有个小差距,就是谷歌在做那个这面奶一点五模型的时候,当时就有测试一千万的上下文的模型,但是因为退一成本的问题没有开放,随着内存强的一个技术条件成熟之后, 那大模型厂商他把这个上下文传播越做越大,是可以看到的一个趋势,所以还会往上走。那第三层也是我调研之后比较出乎意料的一个点,就是这个技术对企业级的 s 四 d 的 需求反而是一个巨大的催化剂。为什么还是 ai? 进入了 ai 的 时代之后, ai 它就不是聊两句就走了,它就需要持续的运行,需要长期的一个记忆。 你想想成百上千个 a 人在后台去并发运行他这些海量的上下文记忆数据,他就有要东西来存啊。而且刚刚说特困的这个技术,它是有向量解锁的一个优势在的,以前可能你数据太多了,存了之后他不好用, 现在这个场景可能会慢慢会打通,你存多一点数据也没关系,他有一个好的算法,可以把这些数据更好的解锁出来, 当然这个数据你存在内存里面太贵了,那一定会卸载到企业 s、 c、 d 上去做持久化的存储。第四层其实还是关于内存墙的,你像那个 k v 的 缓存压缩之后,数据体积变得可控了,那硬件的价格终于可以打破。原来的一个内存墙怎么打?还是把 k v 的 缓存从昂贵的 gpu 显存里面解偶出来, 就是放到高速总线连接的 d r 内存池里面来。你看谷歌它自己的一个 t p u 集群,就是已经是一个庞大的共享内存池在运作了。 它这种分布式内存的架构呢,意味着就是 d r 的 角色是以前的配角,那现在变成了 ai 服务器内存池的一个核心,所以你看算法压缩,它并不是在减少存储的需求,它是在重新分配这些需求。 h b、 m 呢,依然是训练加核心计算的一个刚需。 d r 呢,作为内存池的角色,它的需求在扩大, 企业级的 s、 d 呢,成为了 a 整的长期记忆的存储层。其实整个存储产业链的蛋糕,它不是变小,反而在变大了,而且结构变得更加丰富了, 再加上 agent 的 部署的一个规模。而由 gardner 这一类研究机构预测到,二零二八年企业里活跃的 ai agent 的 数量将是人类销售员的十倍。所以现在算力是看不到天花板的,存储的天花板也远远没到。 那逻辑讲清楚了,回到存储巨头上的动作,就有没有在验证这个判断呢?其实答案是也能看到,就不仅能验证,而且比我想象的还要激进。 我们先来看产量的指引,海力士的话明确说了,就是二零二六年的全年产量已经全部卖完了,不仅是 hbm, 连传统的常规内存 都在被恐慌性的抢购,而美光那边也是大幅上调了资本开支,二零二六年呢,预计会超过二百五十亿美元的资本开支,二零二七年还会继续加码,重点就投向 h b m 和限定的 direct 内存的产物。三星也一样,二零二六年的 设施和研发投入高达七百三十亿美元。那么这些存储巨头都在用真金白银的行动告诉市场,他们看到的未来不是需求放缓,而是供不应求,然后就是锁定产能的一个行动,最近有一个并购,这个最能说明问题,就是凯侠闪迪, 还有这个叫什么 solid 加斯科,他们四家就是联手,出资二十五亿美元,就是入股台湾的南亚科技,这家是做 dyran 的 代工厂。那你想为什么 nas 的 闪存厂要入股 dyran 厂?这我还特意去研究了一下,就是因为高性能的企业级 ssd, 它必须搭载 dyran 做高速的缓存。 而全球的 doran 产轮呢,正在被 hbm 大 量挤占。我们之前视频有提过,生产一块 hbm, 它需要的金元是普通 doran 内存的三倍,所以这些纳的巨头就是怕自己买不到 doran, 买不到 doran, 它就造不出 ssd, 所以才用资本绑定的方式去抢厂。能这四家全球科技巨头同时入股一家第三方代工厂,这个在存储行业其实还是第一次。那新厂能什么时候才能上来呢?美光在新加坡的那的新工厂要到二零二八年下半年才能投场,海地市的先进风测测试场最快是二七年底,大规模厂能释放也要等到二八年前后。 所以在二六年到二七年的窗口期,没有任何一家巨头能凭空变出超额产能,还有一个结构化的机会。我们之前视频也提过,巨头退出的消费级市场会带来一个结构性的变化。 凯侠宣布停产消费级的 t s o p 封装产品,美光之前关停的消费级的品牌 croissant 部分的业务,三星、海力士也在削减低端的 d r 产能, 全力保供 hbm 和 ddr 五的内存。那巨头主动退出,就给了国产存储厂商一个千载难逢的替代窗口。这个判断跟当时我一月份那期视频说的是完全一样的,现在还是成立了,这里面也会有一些结构化的机会。那回到投资逻辑,很多人会问,包括我自己也在梳理, 到底怎么样判断一个板块的 beta 有 没有结束。我自己是从两层来验证的,第一层就是 pve 层,看它有没有增量。就是存储行业呢,现在是典型的 pve 特然需求的复合增长是向上的,业绩在兑现,巨头也在扩展。机构的共识也很明确。 惠普呢,就说存储芯片在二零二六年到二七年的价格都会保持坚挺。 turnforce 呢,也预测二七年内存市场同比增速还有百分之五十三,这个是增量市场,不是存量市场。第二层技术面的一个验证,当 k 线回调的时候, 是因为谷歌这个技术发布引起的情绪宣泄,以及最近的地缘政治出现的一个高估值的一个短暂的回调,他不是因为行业基本面出现了问题,因为目前你可以看到大级别的 k 线,像月线或者是二十周线以上的 k 线, 大部分的存储股票其实都还是在一个上升趋势的,所以第一层的增量判断和第二层的 k 线验证方向一致的时候,贝塔就没有结束。说真的,每一次技术恐慌砸出来的坑都是给做过功课的人准备的,前提是真的要做的功课。然后关于谷歌的这个技术和存储环境你怎么看?评论区可以聊一聊。

谷歌推出压缩算法 turbo quant, 宣称时限约六倍内存节省才联设三月二十六日电 谷歌近日推出了一种可能降低人工智能系统内存需求的压缩算法 turbo quant。 根据谷歌介绍, turbo quant 压缩技术指在降低大语言模型和向量搜索引擎的内存占用。 该算法主要针对 ai 系统中用于存储高频访问信息的向量搜索引擎的内存占用。该算法主要针对 ai 系统中用于存储 key value cake 瓶颈问题。 随着上下文窗口变大,这些缓存正成为主要的内存瓶颈。 turboqant 可在无需重新训练或微调模型的情况下,将键值缓存压缩至三倍精度,同时基本保持模型准确率不受影响。 对包括 gemma、 mister 等开源模型的测试显示,该技术可实现约六倍的键值缓存内存压缩效果。 此外,在英伟达 h 一 百加速器上的测试结果显示,与未量化的见向量相比,该算法最高可实现约八倍性能提升。研究人员也表示, 这项技术的应用布局限于 ai 模型,还包括支撑大规模搜索引擎的向量解锁能力。谷歌计划于四月的国际学习表征会议 iqla 二零二六上展是 turboqant 技术。

谷歌出了个黑科技,让 ai 的 内存需求量暴降了六倍,而内存市场呢,就要崩盘了。 大家好,我是黑冰。大家好,我是小叶。大家好,我是小鹿。大家好,我是小师妹。就在三月二十五日,首尔证券交易所开盘不到两小时, sk 海力士跌了将近百分之六,三星跌百分之四点八,而同时呢,美股的美光跌百分之七, 闪迪跌百分之六点八,全球的内存公司迎来了黑色星期三。而引起这波暴跌的据说是谷歌发布的一个博客文章,该文章介绍了一个叫 turbocharger 的 压缩算法,可以把 ai 的 qv touch 存储需求降低六倍。 于是此消息立刻引爆了全球的存储市场。既然谷歌都切算法解决了存储的需求问题,那是不是以后 ai 大 模型就不需要那么多内存了?所以就导致了一波内存股的应声大跌。因为之前啊,大家的共识是, ai 越来越牛,越来普及, 那肯定需要越来越多的内存呢,这需求肯定只会越来越多。所以从去年到今年,内存暴涨,而 大家都认为啊,未来几年内存都是要涨价,不会降的。但是这次谷歌的消息是不是可以简单理解为就是 ai 内存需求降低到了六分之一,所以不需要那么多内存了?哎,别着急 吃瓜,我们要吃完整瓜!这天啊,好多粉丝拿这个消息来问我啊,内存是不是要大跌了,是不是六幺八可以买到原价内存了?包括最近内存确实降了一些,所以好像更加证实了这个消息的口号,立刻全网很多博主都疯狂转发这个消息,仿佛啊慢一点就蹭不到热度了一样, 那这个消息的可信呢?真假呢?好像已经无人关心了。我先叠个假,我比谁都需要内存降价,因为我们之前啊,做了好多视频说过, 这波内存涨价导致了很多电脑店倒闭,包括我们现在也很不好过啊,销量也是大降。我们最近的视频上都已经开始跟丝袜厂家合作了,带货丝袜了。 但是这个所谓的降价消息可能只是个乌龙啊,大家不要过分期待了,因为这个超波快手的论文啊,其实最早于二零二五年四月二十八号就已经上升到了 x c 五,至今已经过去了十一个月。哎,那为什么之前无人问津,没有引起大家的关注呢? 因为啊,现在大家看到这个谷歌上的消息是断章取义的,下面我们说点硬核的啊,我尽量用简化的语言说明白, a i 大 模型在跑数据推理时,真正内存占用大的不是模型本身,而是对话过程中产生的缓存。每当 a i 模型处理到对话呢,它需要记住所有的历史信息, 这些信息就被称为 k v 卡士,实时写入显存。这里要注意啊,是显存,不是内存。而超跑快的呢,用随机旋转、量化和量化变换对 k v k 值进行了无损压缩,在论文的测试中啊,是压缩了四倍,没有任何的影响, 但问题是,这只是一个软件层的算法优化 ai 大 模型对内存的需求,核心从来不是存不够,而是内存不够。 hvm 之所以是 ai 基础设备的核心,是因为 gpu 计算核心 等不及数据从内存传输过来,而鸳鸯的价值呢,就在于它每秒能传多少数据,而不只是能存了多少。 qq 卡是被压缩到六分之一,意味着传输量也降了,这实际上是在把算力和贷宽释放出来,而不是让内存变得不重要了。 当然,更关键的是传播快的目前没有官方代码,现有的数据测试和证明都是社区开发者自己写的。而且啊,实验只在小模型上验证过,七十比以上的模型,包括 m o e 架构等都是没有具体验证过。 所以这次的内存股暴跌是一篇应用范围有限的算法论文,被有心人断章取义发来了,然后呢,冲击了整个内存市场。 原来啊,不仅国内的媒体有时候为了博流量会搞个大新闻,看来国外媒体哎,也喜欢这样博流量的模式。 不过从这个事件中我们可以看出,现在的存储市场可能已经到了崩溃的边缘,稍微有一点点,这个风吹草动就大降特降,那么这次的文章就会发现是个乌龙哎,内存价格又稳住了,那下一次呢?压死骆驼的最后一根稻草早晚会出现的。