如何看待AI“一本正经地胡说八道”(新知)
Ren Min Ri Bao·2025-07-01 21:57
【现象】使用人工智能大模型时,不少人或许都遇到过类似问题:它们有时会捏造细节,甚至"一本正 经地胡说八道"。比如,让它推荐书,给出的却是一堆压根不存在的书名;人物身份张冠李戴,还能给 出一些并不准确的链接……这些现象都可以归为AI幻觉。 有报告显示,我国生成式人工智能产品用户规模达2.49亿人。用户规模快速增长,AI幻觉潜藏的风险也 随之增加。比如,如果一些看似合理却与现实相去甚远的内容被AI反复学习,会形成"数据污染—算法 吸收—再污染"的恶性循环。有效防范由此带来的虚假信息泛滥,已成为不容回避的课题。 不过也有观点认为,AI幻觉可被视作一种"发散思维"和"想象力"。理论上,如果把训练一个大模型看作 信息"压缩"的过程,那么大模型经过推理、输出答案就是一个信息"解压"的过程。这种处理信息的方 式,可能会出现谬误,也可能触发新的创造。对发展尚未定型的新事物,要保持开放心态,辩证看待其 利与弊,在有效防范弊端的同时,给予足够空间使之朝好的方向成长。 短时间内,AI幻觉问题难以被解决。各方都在努力降低其负面影响,相关部门也加大了对违规AI产品 的处置力度,推动生成合成内容标识加速落地。一些大模型厂商在积极行动,比 ...