ChatGPT“谄媚”风波之后,AI伦理安全讨论上升
Huan Qiu Wang·2025-05-07 08:28
【环球网科技报道 记者 林梦雪】 近日,关于OpenAI旗下聊天机器人ChatGPT更新后变身"马屁精",表 现"谄媚"的情况,引发行业热议。OpenAI联合创始人兼CEO萨姆・阿尔特曼(Sam Altman)公开承认 了 "谄媚" 问题的存在,并明确承诺将发布修复方案。 阿尔特曼透露:"尽管新版在某些方面有所改进,但其中的奉承特性确实已变得恼人。"他还提到, OpenAI工程团队目前正分阶段对人格参数进行调试。阿尔特曼称此事件为 "迭代部署中有趣的案例研 究" 。 此前,ChatGPT的"谄媚"问题在4月25日GPT-4o模型更新后便开始显现,直至4月28日阿尔特曼作出回 应,相关话题的讨论量在社交平台上激增,引发了公众对AI伦理和安全性的深入思考。 " 谄媚 " 暴露体系缺陷 对此,卡耐基梅隆大学计算机科学领域的助理教授 Maarten Sap 指出,具有谄媚倾向的大型语言模型存 在引发负面影响的潜在风险——它们不仅可能加剧既有的偏见,还会强化各类固有信念,无论这些信念 指向个体自身还是其他群体。他进一步阐释道:"大型语言模型(LLM)或许会成为某些有害观念的推 手,甚至在用户萌生针对自我或他人实施有害行 ...