谷歌新论文把内存股价干崩了!KV cache压缩6倍,“谷歌的DeepSeek时刻”
量子位·2026-03-26 01:38

学术会议 ICLR ,居然和 美光和西部数据大跌 扯上关系了? 梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 两家存储芯片巨头股价大跌,没有财报暴雷,没有供应链断裂, 只是谷歌展示了一篇即将在ICLR 2026正式亮相的论文 。 谷歌研究院推出 TurboQuant 压缩算法,把AI推理过程中最吃内存的KV cache 压缩至少6倍,精度零损失 。 市场的解读简单粗暴,长上下文AI推理以后不需要那么多内存了,利空内存。 网友纷纷表示,这不就是美剧 《硅谷》 里的Pied Paper? Pied Piper是2014年开播的HBO经典美剧《硅谷》里的虚构创业公司,核心技术就是一种"近乎无损的极限压缩算法"。 2026年,类似的算法在现实世界居然成真了。 KVCache量化到3 bit 要理解TurboQuant为什么重要,先得理解它解决的是什么问题。 AI大模型推理时处理过的信息会临时存在 KV Cache ,方便后续快速调用,不用每次从头算起。 问题是随着上下文窗口越来越长,内存消耗急剧膨胀。KV cache正在成为AI推理的核心瓶颈之一。 传统的解决思路是向量量化,把高精度数据压成低精度表示。 但尴 ...

谷歌新论文把内存股价干崩了!KV cache压缩6倍,“谷歌的DeepSeek时刻” - Reportify