速度提升,能力却暴跌?扩散模型做智能体的残酷真相
机器之心·2026-02-12 04:00

基于自回归语言模型的智能体已在许多场景中展现出完成复杂任务的能力,但高昂的推理成本和低下的执行效率问题仍然是制约智能体工作流(Agentic Workflow)发展的关键瓶颈。 与传统的自回归式语言模型不同,扩散语言模型(Diffusion-Based Language Models)采用并行解码机制,显著提升了生成速度,似乎为突破这一瓶颈 带来了全新的可能性。 现有的关于 Llada、Dream 等扩散语言模型的研究中,这类模型在大幅度提高生成效率的同时,在 MMLU、GSM8K 等基准任务上保持了与自回归语言模 型相当的通用能力。然而其在智能体任务上的表现尚缺乏系统性的评估。 这项工作揭示了一个深刻的教训(Bitter Lesson):尽管扩散语言模型实现了高效的并行推理,但也显著 削弱了其因果推理和反思能力 ,难以可靠地执行 具身智能体的长链推理任务;同时,并行解码机制使得输出具有 更高的不确定性 ,这对于精确性要求极高的工具调用任务造成了重大挑战。 论文标题:The Bitter Lesson of Diffusion Language Models for Agentic Workflows: AC ...