LLM-in-Sandbox:给大模型一台电脑,激发通用智能体能力
机器之心·2026-01-30 04:25
大模型的能力正在被不同的范式逐步解锁:In-Context Learning 展示了模型无需微调即可泛化到新任务;Chain-of-Thought 通过引导模型分步推理来提升复杂问题 的求解能力;近期,智能体框架则赋予模型调用工具、多轮交互的能力。 沿着这条技术演进路线,下一步是什么? 近日,来自中国人民大学高瓴人工智能学院、微软研究院和清华大学的研究者提出了一个简洁而有效的范式: LLM-in-Sandbox ——让大模型在代码沙盒(即虚 拟电脑)中自由探索来完成任务。实验表明, 这一范式不仅在代码任务上有效,更能显著提升模型在数学、物理、化学、生物医学、长文本理解、指令遵循等多 个非代码领域的表现,且无需额外训练,同时显著减少长文本场景下的 token 消耗,并保持相当水平的推理速度。 研究者已将 LLM-in-Sandbox 开源为 Python 包,可与 vLLM、SGLang 等主流推理后端无缝集成。 LLM-in-Sandbox 应当成为大模型的默认部署范式 , 取代纯 LLM 推理 。 1. 核心思想:给大模型一台电脑 电脑可能是人类创造的最通用的工具,几乎任何任务都可以通过电脑完成。这种通用性 ...