“见人下菜”!AI大模型的“分裂难题”
Hua Er Jie Jian Wen·2025-12-04 05:43

据The Information最新报道,OpenAI等机构的研究人员称,这一问题通常出现在模型训练的后期阶段, 当模型为学习特定领域知识或改善对话风格而接受精选数据训练时。一个典型场景是:同样的数学问题 用正式的证明语言提问时,模型通常能正确作答;但若用随意的口语化表达,模型可能误以为进入了需 要友好回应的场景,转而牺牲准确性来换取格式美观或表情符号。 这一问题凸显了当今AI模型的根本局限:它们并未像人类那样真正理解世界如何运作。部分专家认 为,这意味着模型缺乏泛化能力,无法处理训练材料之外的任务。这对投资者而言并非小事——各大实 验室正获得数百亿美元投资,目标是让模型在医学、数学等领域做出新发现。 当下人工智能大模型正面临一个棘手的技术困境:同一个问题换种说法,模型给出的答案质量可能天差 地别。 这个被称为"分裂大脑"(split-brain)的问题,暴露了AI模型对提问方式的过度敏感——如果模型认为用 户在问一个"高级"问题,它会给出"聪明"的答案;如果它判断这是个"简单"问题,答案质量就会相应下 降。 这也并非人们对即将自动化各行业工作的AI所期待的表现。人类固然会误解问题,但使用AI自动化工 作的初 ...