扎克伯格的豪赌初见成效?Meta新方法让LLM长上下文处理提速30倍
机器之心·2025-09-08 06:22

| Jackson Atkins > @JacksonAtkinsX · 9月7日 | | --- | | Meta Superintelligence Labs just made LLMs handle 16x more context and | | unlocked up to a 31x speedup. | | Their new REFRAG framework rethinks RAG from the ground up to achieve | | this, all with zero drop in accuracy. | | Here's how it works: | | The core problem with long context is | | Meta 超级智能实验室刚刚让 LLMs 的上下文容量提升 16 倍,速度最高提升 31 | | 倍。 | | 他们的全新 REFRAG 框架彻底重构了 RAG,实现了这一目标,且准确率零下 | | 它的运作方式如下: | | 长上下文的核心问题在于 | | 动示更多 | 近期,Meta Superintelligence Lab ...

扎克伯格的豪赌初见成效?Meta新方法让LLM长上下文处理提速30倍 - Reportify