1324
126
209
224
举报
发布时间:2026-04-02 09:13
查看AI文稿
呱呱蛙Investing
呱呱蛙Investing

粉丝8.8万获赞35.2万

相关视频

  • 谷歌一篇新论文直接把内存股干崩了! 内存疯涨的终结者来了?谷歌发布AI压缩新算法TurboQuant:内存需求下降6倍,速度飙升8倍。Cloudflare CEO直言:“这是谷歌的DeepSeek时刻!”#谷歌  #TurboQuant #DeepSeek  #AI推理  #内存
    01:28
    查看AI文稿
  • Google黑科技TurboQuant 六倍压缩不失精度,google的这项新技术,是国内存储的逆袭机会。
    02:54
    查看AI文稿
  • 谷歌造大模型神级压缩法,昨天1000多万人围观,重构AI成本结构,压缩6倍内存加速8倍还不丢精度...... #闪存 #黑科技 #AI #科普 #芯片
    00:51
    查看AI文稿
  • Google即将Get一个标签:内存价格终结者🥷 Google Research最新发布了TurboQuant 的创新AI 压缩技术,能减少最高6倍内存占用,并能将处理速度提高数倍。
核心就两步:
1️⃣PolarQuant:抛弃传统的直角坐标,把数据丢进极坐标系!通过巧妙的随机旋转,把数据分布变得像钟表一样规律,直接干掉了传统量化方法里的“额外内存开销”。 2️⃣QJL:针对剩下的计算误差,它只用 1-bit 的算力(要么 +1 要么 -1)做了一个极限纠错,保证了大模型 Attention 机制的绝对精准!
对于需要在本地设备(尤其是Mac)上部署开源大模型开发者来说,这项技术堪称神级。
#我的数码好物清单 #本地大模型 #大模型微调 #开源项目 #ai工具学习
    01:22
    Google即将Get一个标签:内存价格终结者🥷 Google Research最新发布了TurboQuant 的创新AI 压缩技术,能减少最高6倍内存占用,并能将处理速度提高数倍。
    核心就两步:
    1️⃣PolarQuant:抛弃传统的直角坐标,把数据丢进极坐标系!通过巧妙的随机旋转,把数据分布变得像钟表一样规律,直接干掉了传统量化方法里的“额外内存开销”。 2️⃣QJL:针对剩下的计算误差,它只用 1-bit 的算力(要么 +1 要么 -1)做了一个极限纠错,保证了大模型 Attention 机制的绝对精准!
    对于需要在本地设备(尤其是Mac)上部署开源大模型开发者来说,这项技术堪称神级。
    #我的数码好物清单 #本地大模型 #大模型微调 #开源项目 #ai工具学习
    查看AI文稿
  • 各位朋友,今天聊聊Google刚发布的“内存瘦身神器”TurboQuant!它专治大模型推理时的“内存膨胀病”:KV缓存越存越多,拖慢速度还费钱。它的秘密武器是两招:第一招叫PolarQuant,把数据从直角坐标转成极坐标(类似“半径+角度”),利用角度分布集中的特点,省掉传统量化的额外开销,直接压缩到3比特;第二招QJL,用1比特残差修正误差,像给数据“打补丁”,保证精度不丢。这俩一结合,KV缓存内存直降6倍,推理速度飙8倍,关键是不用重新训练模型,Gemma、Mistral这些现成模型直接套用!以后长对话、大文件处理,再也不用担心“内存爆了”,连手机都能跑长文本大模型,这波技术真香!#人工智能 #机器人 #马斯克 #奥特曼 #黄仁勋 @尹烨 @红衣大叔周鸿祎 @雷军
    00:54
    各位朋友,今天聊聊Google刚发布的“内存瘦身神器”TurboQuant!它专治大模型推理时的“内存膨胀病”:KV缓存越存越多,拖慢速度还费钱。它的秘密武器是两招:第一招叫PolarQuant,把数据从直角坐标转成极坐标(类似“半径+角度”),利用角度分布集中的特点,省掉传统量化的额外开销,直接压缩到3比特;第二招QJL,用1比特残差修正误差,像给数据“打补丁”,保证精度不丢。这俩一结合,KV缓存内存直降6倍,推理速度飙8倍,关键是不用重新训练模型,Gemma、Mistral这些现成模型直接套用!以后长对话、大文件处理,再也不用担心“内存爆了”,连手机都能跑长文本大模型,这波技术真香!#人工智能 #机器人 #马斯克 #奥特曼 #黄仁勋 @尹烨 @红衣大叔周鸿祎 @雷军
    查看AI文稿
  • 存储卡都涨了300%了,google用论文拯救普通人的钱包#google #大模型 #openclaw #程序员科普 #互联网资讯
    03:17
    查看AI文稿
  • 谷歌压缩缓存技术吓崩市场 #谷歌 #认知 #思维 #存储 #商业知识
    03:46
    查看AI文稿
  • 【谷歌推出压缩算法TurboQuant 宣称实现约6倍内存节省】#财经知识
    01:18
    查看AI文稿
  • 谷歌kv缓存压缩算法,节省内存开支有限,适用场景不普适#谷歌 #AI
    00:29
    查看AI文稿
  • #AI#大模型 #算法 #Google
    01:29
    查看AI文稿
  • turbo quant kv cache 压缩引擎测试#ai #Google #it #openclaw
    01:23
    查看AI文稿
  • Google刚放大招:老显卡也能多塞5倍上下文?
Google Research 新出的 TurboQuant,核心是把 KV Cache 压缩到更低 bit,在尽量不掉精度的前提下,大幅降低显存占用。
我这次不是只讲论文,而是自己复现了核心逻辑,并结合 3060 这种常见显卡来理解它的真实价值。#谷歌 #Google #AI #大模型 #真实伙伴计划
    02:17
    查看AI文稿
  • Google的TurboQuant压缩技术会改变存储市场吗? Google Research近日发布TurboQuant后,市场一度担心AI内存需求会被大幅压缩,甚至影响存储行业逻辑。
这期视频把这件事讲清楚:TurboQuant到底是什么、KV Cache为什么重要、它如何在极低比特下实现高压缩,以及这项技术究竟是利空存储,还是会反过来推动手机、PC和端侧AI设备爆发。
结论很关键:短期市场会情绪波动,但长期看,这更像是一次端侧AI加速落地的催化剂#TurboQuant #AI #存储芯片 #AIPC #人工智能
    01:57
    查看AI文稿
  • 谷歌提出的 TurboQuant 压缩算法,在几乎不牺牲精度、无需重训模型的前提下,实现了对大模型推理中 KV cache 的约 6 倍内存压缩和最高 8 倍加速,显著改善单卡推理产出效率。
#谷歌 #turboquant #大模型 #人工智能 #美股
    06:27
    查看AI文稿
  • 谷歌最新算法TurboQuant大幅压缩内存使用 #ai #aigc #大模型
    00:35
    查看AI文稿