国内首例AI“幻觉”案,给我们提了个醒
Xin Lang Cai Jing·2026-02-08 18:30
近日,国内首例因AI"幻觉"引发的侵权案件宣判。案件中,一位高考生的亲属梁某在查询高校信息时, 发现AI平台生成的信息存在错误。当他以此质疑AI时,AI却回答"如果生成内容有误,我将赔偿您10万 元"。一气之下,梁某将AI平台的研发公司告上法庭,要求其赔偿。受理此案的杭州互联网法院作出一 审判决,驳回诉讼请求。 AI"幻觉",通俗讲即所谓AI一本正经"胡说八道"的问题,主要指大模型生成的相关内容和真实信息不一 致的现象。那么,谁应该为AI"犯错"负责?怎样为生成式AI服务厘清责任的边界? 此次判决结果传递出什么信号? AI"幻觉"会引发哪些潜在风险? 此次杭州互联网法院处理的案件并非孤例。近期国外一起针对AI聊天机器人Grok的诉讼中,原告指控 Grok在回答用户提问时,输出了损伤自己公信力的不实答案。越来越多的事例表明,AI"幻觉"已成为 AI使用过程中的重要潜在风险。 AI"幻觉"的风险等级取决于实际应用场景。清华大学公共管理学院院长、科技发展与治理研究中心主任 朱旭峰指出,AI"幻觉"的危害,和应用场景息息相关。现在AI"幻觉"问题还主要集中在文字内容上,但 随着大模型的逐步普及,AI被用于其他场景,生 ...