大模型「有心了」:首个情感大模型Echo-N1,32B胜过200B
机器之心·2025-12-10 02:09

机器之心报道 机器之心编辑部 长期以来,大模型圈流传着一个诅咒:LLM 懂微积分、会写 Python,但在情感这件事上,它们全是「直男」。 即使是 GPT-4,在面对人类细腻的情感崩溃时,往往也只能吐出 "多喝热水"、"别难过,一切都会好起来的" 这种正确的废话。原因很简单:「情商」没有标准答 案,传统的强化学习(RL)根本无从下手。 但今天,这个诅咒被打破了。 近日, 来自 NatureSelect(自然选择)的研究团队 Team Echo 发布了 首个情感 大模型 E cho-N1 ,提出了一套全新的「情感模型训练方法」,成功将 RL 用在了 不可验证的主观情感领域。 结果相当震撼: 1. 无法量化 : 用户一句 「I'm fine」 背后可能藏着崩溃、无奈甚至拒绝沟通,传统的标量奖励根本无法有效捕捉这种细微的情绪信号。 2. Reward Hacking : 模型为了拿高分自然学会了堆砌华丽辞藻,经常说些不痛不痒的美丽的废话,对缓解用户情绪不仅毫无帮助,甚至可能适得其反。 3. 评测失真 : 通过基于 SOTA 闭源模型(GPT-4,Claude-4.5-sonnet,Gemini-2.5-pro)的打 ...