大模型能够自发形成“人类思维地图”!Nature子刊重磅研究揭示多模态大模型类脑机制
机器人圈·2025-06-11 11:43
大模型≠随机鹦鹉!Nature子刊最新研究证明: 大模型内部存在着类似人类对现实世界概念的理解。 LLM能理解现实世界和各种抽象概念吗?还是仅仅在"鹦鹉学舌",纯粹依靠统计概率预测下一个token? 长期以 来,AI社区对这一问题存在很大的分歧。 有一种猜测是,纯粹基于语言的形式(例如训练语料库中token的条件分布)进行训练的语言模型不会获得任何语 义。 相反,它们仅仅是根据从训练数据中收集的表面统计相关性来生成文本,其强大的涌现能力则归因于模型和训练 数据的规模。这部分人将LLM称为"随机鹦鹉"。 但现在研究证明,并非如此! 中国科学院自动化研究所与脑科学与智能技术卓越创新中心的联合团队 在 《Nature Machine Intelligence》 发表 题为 《Human-like object concept representations emerge naturally in multimodal large language models》 的研 究。 | Received: 26 June 2024 | Changde Du@ 12, Kaicheng Fu1-2, Bincheng Wen ...