上海AI Lab胡侠:KV Cache压缩之后,可让价格2万美金的GPU发挥出20万美金的价值丨GAIR 2025
雷峰网·2025-12-12 07:16

" 将 Key 跟 Value Cache 按照不同的方法压缩,可以让模型不掉 点。 " 作者丨张进 编辑丨 林觉民 目前,不同大模型厂商发布的大语言模型在处理超长上下文方面已经有显著突破,最高的已能支持数百万 Token 的输入,例如 MiniMax-M1、Qwen2.5-1M 系列模型,均支持百万Token(1M)级别的超长上 下文处理能力。 但是这场有关提升大模型上下文长度的"军备赛"依然不会停止,这是一项巨大的工程与效率之战。因为超 长下文为模型智能提供了最广阔的发挥空间——在处理如金融、法律、医疗等领域的长语境任务时表现更 好。所以谁能率先突破更长上下文处理能力,便有机会创造出更大的商业与技术价值。 胡侠团队便针对这一目标提出了一项最新研究方案——"通过有损计算(Lossy Computation)来提高大 语言模型的推理效率"。这项研究的基本思路是,利用大语言模型对来自低精度计算等"有损"操作产生的 噪声具有极强鲁棒性这一特点,主动引入可控的、不损害性能的信息损失,以换取显著的效率提升。 大模型中的"有损计算"是通过有选择地牺牲一部分精度来大幅降低计算或者存储成本,从而提升推理效 率,主要围绕模型 ...