大模型长脑子了?研究发现LLM中层会自发模拟人脑进化
机器之心·2026-01-15 00:53
生物智能与人工智能的演化路径截然不同,但它们是否遵循某些共同的计算原理? 最近,来自帝国理工学院、华为诺亚方舟实验室等机构的研究人员发表了一篇新论文。该研究指出,大型语言模型(LLM)在学习过程中会自发演化出一种 协 同 核心(Synergistic Core) 结构,有些类似于生物的大脑。 他们发现,这些模型的中层表现出极强的协同处理能力,而底层和顶层则更偏向于冗余处理。 协同与冗余:LLM 的内部架构 研究团队将大型语言模型视为分布式信息处理系统,其核心实验设计旨在量化模型内部组件之间交互的本质。为了实现这一目标,研究者选取了 Gemma 3、Llama 3、Qwen 3 8B 以及 DeepSeek V2 Lite Chat 等多种具有代表性的模型系列进行对比分析。 编辑|Panda 论文标题:A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning 论文地址:https://arxiv.org/abs/2601.06851 研究团队利用 部分信息分解(Partial Information Decomposition, PI ...