Gemini 2.5 Pro 负责人:最强百万上下文,做好了能解锁很多应用场景
Founder Park·2025-06-30 11:47
百万级别的长上下文 一直是 Gemini 系列相较于其他头部大模型的领先优势之一。 更长的上下文 ,带来的是可能产品交互的革新和完全不一样的应用落地场景。 长上下文当前的痛点,以及未来发展方向是什么? 谷歌 DeepMind 长上下文预训练联合负责人Nikolay Savinov 给出了两点预测:一是在当前百万级 token Context 模型质量还没有达到完美之前,盲目地追求更大规模地长上下文意义不大;二是随着成本下 降,千万级别的 token Context 很快会成为标准配置,对于编码等应用场景来说将是革命性的突破。 在近期谷歌的一档播客中,谷歌 DeepMind 资深研究科学家、长上下文预训练联合负责人Nikolay Savinov 与主持人 Logan Kilpatrick 对谈,分享了Gemini 2.5 长上下文技术的核心、与 RAG 之间的关 系、当前的研究瓶颈、以及未来的发展方向等。 对于开发者来说,强烈推荐一读。 TLDR: 在当前百万 token 上下文 远还没有达到完美之前,盲目追求更大规模的长上下文 意义不大。 理解 in-weights memory 和 in-context m ...