科学家证实大模型能像人类一样“理解”事物
Ke Ji Ri Bao·2025-06-10 22:45
在这项研究中,科研人员借鉴人脑认知的原理,设计了一个巧妙的实验:让大模型和人类玩"找不同"游 戏。实验人员从1854种常见物品中给出3个物品概念,要求选出最不搭的那个。通过分析高达470万次的 判断数据,科研人员首次绘制出了大模型的"思维导图"——"概念地图"。 传统人工智能研究聚焦于物体识别准确率,却鲜少探讨模型是否真正"理解"物体含义。"当前人工智能 可以区分猫狗图片,但这种'识别'与人类'理解'猫狗有什么本质区别,仍有待揭示。"论文通讯作者、中 国科学院自动化研究所研究员何晖光说。 科技日报北京6月10日电 (记者陆成宽)记者10日从中国科学院自动化研究所获悉,来自该所等单位的 科研人员首次证实,多模态大语言模型在训练过程中自己学会了"理解"事物,而且这种理解方式和人类 非常类似。这一发现为探索人工智能如何"思考"开辟了新路,也为未来打造像人类一样"理解"世界的人 工智能系统打下了基础。相关研究成果在线发表于《自然·机器智能》杂志。 人类智能的核心,就是能真正"理解"事物。当看到"狗"或"苹果"时,我们不仅能识别它们长什么样,如 大小、颜色、形状等,还能明白它们有什么用、能带给我们什么感受、有什么文化意 ...