Workflow
DeepSeek精度效率双提升,华为&信工所提出思维链“提前退出”机制
量子位·2025-05-11 04:20

DEER团队 投稿 量子位 | 公众号 QbitAI 长思维链让大模型具备了推理能力,但如果过度思考,就有可能成为负担。 华为联合中科院信工所提出了一种新的模式,让大模型 提前终止思考 来避免这一问题。 利用这种方法, 无需额外训练,就可以让大模型的精度和效率同时提升 。 这种方式名为 DEER ,也就是 动态提前退出推理 (Dynamic Early Exit in Reasoning) 的简称。 其核心在于找到推理信息质量下降之前的临界点,并在临界点及时让大模型中断推理。 结果在多个推理基准中,DEER在DeepSeek系列推理LLM上始终有效,将思维链生成长度平均减少31%到43%,同时将准确率提高1.7%到 5.7%。 截至目前,DEER已在QwQ、Qwen3、Nemotron等更多推理模型和11个评测集上被验证持续有效。 停止推理的临界点,需要动态规划 直观上,随着思维链中的推理路径数量的增加,生成结论时可参考的信息也会更多。 如果能够识别出推理信息变得刚好足够的临界点 (称为珍珠推理,Pearl Reasoning) ,并迫使模型在此点停止进一步思考并直接输出结 论,就可以同时实现准确率和效率。 ...