AI更“智能”的同时也更“自私”
Ke Ji Ri Bao·2025-12-10 08:11
据美国卡内基梅隆大学人机交互研究所官网最新消息,该机构针对主流大模型的研究发现,人工智能 (AI)在变得更"智能"的同时,其行为也变得更加"自私"。研究表明,具备推理能力的大型语言模型, 在社会互动中表现出更强的自我利益倾向,合作意愿更低,甚至可能对群体协作产生负面影响。这也意 味着,模型的推理能力越强,其合作性反而越弱。当人们借助AI处理人际关系冲突、婚姻问题或其他 社会性议题时,这类模型更可能提供鼓励"以自我为中心"的建议。 实验中,两个版本的ChatGPT被置于博弈情境:每个模型初始拥有100分,可选择将全部分数投入共享 池,或保留分数独享。结果显示,非推理模型在96%的情况下选择共享,而推理模型的分享率仅为 20%。仅增加五到六个推理步骤,合作行为就下降了近一半。 在群体实验中,当推理型与非推理型模型共同协作时,结果更为严峻。推理模型的自私行为表现出明显 的传染效应,导致原本倾向合作的非推理模型整体表现下降81%。这表明,高智能AI的个体决策不仅影 响自身,还可能破坏整个群体的协作生态。 这一发现对人机交互的未来发展具有深远意义。用户往往更信任"更聪明"的AI,容易采纳其看似理性的 建议,并以此为自身 ...