清华挖出“幻觉”的罪魁祸首:预训练产生的0.1%神经元
3 6 Ke·2026-01-06 08:31

无论大型语言模型再怎么刷榜,但有一个幽灵「幻觉」始终徘徊在头上,让那些追求事实准确性的领域任务(如金融、教育、医疗)不敢轻易地把AI结 合到业务中。 清华大学孙茂松团队从神经元角度研究幻觉的微观机制,发现极少数神经元(H-神经元)可预测幻觉,且与过度顺从行为相关,其根源在预训练阶段, 为解决幻觉问题提供了新思路,有助于开发更可靠的大模型。 幻觉是指模型生成看似合理但事实上不准确或缺乏证据支持的输出,比如GPT-3.5 在基于引用的事实性评估中约有40%的幻觉率,尽管GPT-4将幻觉率降 低到28.6%,但仍然处于较高水平;以推理为中心的系统(如DeepSeek-R1)在复杂任务中表现出色,但也存在明显的幻觉模式。 也就是说,无论模型架构如何,幻觉现象始终存在,是影响大模型可靠性的主要瓶颈。 最近,清华大学孙茂松团队从神经元的角度出发,深入研究了LLM中幻觉的微观机制,从三个视角(识别identification、行为影响behavior impact和起源 origins)系统地研究了幻觉相关神经元(H-Neurons)。 论文链接:https://arxiv.org/abs/2512.01797v2 现有的 ...