LLM幻觉不只是「胡说八道」?新理论首次拆解幻觉的两大根源丨ICLR'2026
量子位·2026-03-13 06:10
HALLUGUARD团队 投稿 量子位 | 公众号 QbitAI 来自弗吉尼亚理工等机构的重磅研究, 第一次用统一理论解释:为什么LLM会产生幻觉?又为什么越推理越离谱? 在医疗、法律、科研等高风险场景, "幻觉"正在成为大模型落地的最后一道坎 。 你可能已经见过这些情况: 问题是: 这些幻觉,真的是同一种问题吗? 幻觉不是一种,而是两种,而且会"演化" 来自弗吉尼亚理工大学、MIT、达特茅斯学院等机构的研究团队,在 ICLR 2026 发表论文 HALLUGUARD ,首次从理论上给出明确答 案: LLM幻觉并非单一来源,而是由两类机制共同作用、逐步演化而成。 在真实应用中,LLM幻觉远比你想象得复杂。 两大根源,第一次被严格区分: 1. 数据驱动型幻觉(Data-driven) 来源:预训练/微调阶段的知识缺失、偏差、分布错配 更关键的是: 真实幻觉往往不是"二选一",而是先错在数据,再被推理放大。 理论突破:首个"幻觉风险界",解释幻觉如何产生和放大 论文提出一个全新的理论框架—— Hallucination Risk Bound (幻觉风险界) 它首次在数学上证明: 整体幻觉风险=数据误差+推理不稳定 ...