Workflow
我们找到3位大学教授,聊了聊越来越严重的AI幻觉
3 6 Ke·2025-07-15 03:23

最近,网上出现了一个 AI 幻觉引发的闹剧。 7 月 2 日,网上突然出现大量 " DeepSeek 就 AI 模型违规关联向王一博道歉 " 相关内容,最终被发现其 实是 DeepSeek 在对话中虚构了事件甚至引用了一份在中国裁判文书网上完全查不到的判决书。 而这场闹剧,源于 DeepSeek 在与用户对话过程中产生的幻觉。借此,知危编辑部认为有必要探讨一下 AI 大模型们激增的幻觉率了。 前段时间,OpenAI o3 模型刚发布不久,也因为幻觉率 " 不降反升 " 的现象引发了广泛关注。 OpenAI o3 模型会犯很多匪夷所思的错误。比如,捏造从未运行过的代码,在编码设置中使用无效的非 ASCII 破折号,甚至还会假装自己在调用工具。 在 PersonQA 基准测试中,o3 会在 33% 的问答中出现幻觉,几乎是o1( 16% )的 2 倍,o4-mini 的幻 觉率更是高达 48%,远高于此前发布的推理模型。 近期发布的其他深度思考模型也出现了类似的规律,即随着推理能力增强,其幻觉率也反而更高。 艾伦人工智能研究所科学家 Nathan Lambert 曾发文评论 o3 的推理幻觉,表示这一问题的出现是 ...