P-ReAct
Search documents
让搜索Agent不「傻等」:人大团队依托扩散模型实现「一心二用」,边等搜索结果边思考,加速15%性能不减
量子位· 2026-03-02 09:09
GSAI IIR & GSAI-ML 团队 投稿 量子位 | 公众号 QbitAI 传统的搜索Agent有个问题: 想完了才去搜,搜的时候干等着,等完了再接着想。 就像你去餐厅点菜,非要把菜单研究透了才叫服务员,服务员去下单的时候你又呆坐着发愣,菜上了你才开始想下一道点什么。 正常人不是这样吃饭的。你会一边看菜单一边叫服务员,服务员去下单的时候你继续研究下一道菜点什么。 中国人民大学团队在论文DLLM-Searcher中,第一次让 扩散大语言模型 (dLLM) 学会了这种"一心二用"的本事。 先说清楚问题出在哪 目前主流的搜索Agent,不管是Search-R1还是R1Searcher,用的都是ReAct框架。这个框架的执行流程是严格串行的: 想→调工具→等结果→再想→再调工具→再等…… 每一轮里,"想"和"调工具"是模型一个token一个token从左到右吐出来的,等搜索引擎返回结果的时候模型完全闲着。多轮下来,延迟叠延 迟,用户体验直接拉胯。 团队算了笔账:在多跳问答任务里,这种串行等待吃掉了大量的端到端时间。 那能不能让模型在等搜索结果的时候,继续想下一步? 自回归模型做不到。因为它的注意力是因果的,必 ...