Workflow
向量量化
icon
Search documents
血洗内存股900亿刀的谷歌AI论文,竟涉嫌学术造假
机器之心· 2026-03-28 06:33
编辑|泽南、杨文 没想到这次大面积市场震荡,还引出了学术大瓜。 本周五晚,谷歌的学术不端事件成为了 AI 圈的焦点。 来自苏黎世联邦理工学院(ETH Zurich)的博士后高健扬发布文章,表示 Google Research 论文 「TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate」中,有关已有的 RaBitQ 向量量化算法的描述、理论结果对比、实验对比均存在严重问题 ,且相关问题早在论文投稿前便已被明确指出,却被 作者方刻意忽视。 作为能够干翻一片「主线」逻辑公司的 AI 研究,TurboQuant 在业界的含金量似乎毋庸置疑。然而谁能想到,这篇被谷歌推上神坛、拥有千万级曝光量的 ICLR 顶会论文,其最核心的技术底座却深陷「抄袭」疑云。 引发内存股震荡的 TurboQuant 谷歌的 TurboQuant 论文最近火出了 AI 研究领域,这篇被全球 AI 研究顶会 ICLR 2026 接收的论文介绍了一种压缩算法,声称 能够将大语言模型的 KV 缓存内存 占用减少至少 6 倍,速度提升高达 8 倍,且精度零损失 ...
内存股集体大跌,原因竟是谷歌这篇一年前的论文
机器之心· 2026-03-26 11:41
编辑|Panda 昨天,美国内存股迎来一波集体暴跌。据统计,闪迪一度跌 6.5%,希捷科技跌超 5%,西部数据跌超 4%,美光科技跌 4%。 而这一轮内存股暴跌的诱因,却只是谷歌发布的一篇新博客。这篇博客介绍了谷歌 一年前 就已经在 arXiv 上公布的一项技术: TurboQuant 。 | Search | ロエ × 1V > cs > arXiv:2504.19874 | | --- | --- | | Canamistan Calance & Machine Leavelner | | 简单来说, TurboQuant 是一种压缩算法,可将 LLM KV 缓存内存占用减少至少 6 倍,速度提升高达 8 倍,且精度零损失! 论文标题:TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate 论文地址:https://arxiv.org/abs/2504.19874 技术博客:https://research.google/blog/turboquant-redefining-ai-efficiency-with-ex ...