Workflow
重塑记忆架构:LLM正在安装「操作系统」
机器之心·2025-07-16 04:21

机器之心报道 编辑:冷猫 超长上下文窗口的大模型也会经常「失忆」,「记忆」也是需要管理的。 众所周知,现代大型语言模型(LLM)的上下文窗口普遍有限 —— 大多数模型只能处理数千到数万 token,比如早期的 GPT-3 仅有~2,048 token。虽然近期有些模 型已经拓展到了百万级甚至千万级 token 窗口(如 Meta 的 Llama 4 Scout 宣称可达 1,000 万 token)。 图中显示了 LLM 上下文窗口大小的演变。 注意: token 数量为近似最大值。「 GPT-4.1 」指的是 2025 年 4 月更新的 GPT-4 ,「 Scout 」是专为长上下文设计的 17B 参数 Llama 4 变体。 LLM 存在一个内在的「记忆缺陷」,即拥有的上下文窗口是有限的,这严重限制了它们在多轮次、多会话的长期交互中维持一致性的能力。 也因此,现代 LLM 普遍难以维持长期记忆。这对很多应用来说实在相当不妙,毕竟记忆是实现反思和规划的关键,也是智能体系统不可或缺的重要组成部分。 基于 LLM 的自主智能体系统概况图,图源 Lil'Log https://lilianweng.github. ...