Workflow
谷歌Titans架构
icon
Search documents
谷歌新架构逆天!为了让AI拥有长期记忆,豆包们都想了哪些招数?
Sou Hu Cai Jing· 2025-12-09 05:32
日前,Google在其发布的论文《Nested Learning: The Illusion of Deep Learning Architectures》中,提出了一个名为 HOPE 的新框架试图解决大模型长期记忆 的问题。 也正是因为这一点,去年最后一天谷歌研究团队提出的 Titans 架构,在 2025 年被反复翻出来讨论,并不意外。这篇论文试图回答的,并不是「上下文还能 拉多长」这种老问题,而是一个更本质的命题: 当注意力只是短期记忆,大模型到底该如何拥有真正的长期记忆。 图片来源:谷歌 在 Titans 里,Transformer 的 self-attention(自注意力机制)被明确界定为「短期系统」,而一个独立的神经长期记忆模块,负责跨越上下文窗口、选择性地 存储和调用关键信息。这套思路,几乎重新定义了大模型的「大脑结构」。 现在回头这一年,从谷歌 Titans 到字节 MemAgent,再到谷歌 Hope 架构,大模型的长期记忆真正有了突破。 过去一年,不论是谷歌在此基础上延展出的多时间尺度记忆体系,还是行业里围绕超长上下文、智能体(Agent)记忆、外部记忆中台展开的密集探索,都 指向同一个 ...