基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁
TENCENTTENCENT(HK:00700) 量子位·2026-03-06 10:12

腾讯混元团队 投稿 量子位 | 公众号 QbitAI 学了新的,忘了旧的——大模型微调的"灾难性遗忘"难题,终于有了新解。 腾讯混元团队最新提出的 HY-WU 范式,彻底打破了静态权重的束缚。它的核心洞察是:适配新任务,不一定要改写原有参数。 在基座模型持续进化的征途中,如何平衡"通用性"与"适配性"始终是一项技术挑战。传统的微调 (Fine-tuning) 或PEFT (如LoRA) 虽然 解决了模型"学新知识"的问题,但本质上仍是在静态权重空间内的"存量博弈"——每适配一个新任务,都可能对旧有能力造成不可逆的挤压。 3月6日,腾讯混元发布了一篇名为"HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing "的技术报告。提出了一种崭新的功能性记忆 (functional neural memory) 范式 (weight unleashing) , 在模型推理时实时生成个性化参数,由此对不同任务/分布/样本进行个性化适应。 腾讯混元团队 ...