Workflow
LLM加RL遭质疑:故意用错奖励,数学基准也显著提升,AI圈炸了
机器之心·2025-05-28 08:09

机器之心报道 编辑:泽南、+0 我们训练了这么久,都在训练些什么? 这是今年最「好笑」的一篇论文。 本文一出,所有的大语言模型(LLM)+ 强化学习(RL)都要被质疑是否有意义了。 这周二,一篇来自华盛顿大学、艾伦人工智能实验室、伯克利的论文引爆了 AI 界。 作者驳斥了最近大模型领域盛行的强化学习方式,他们发现: 使用虚假奖励训练 Qwen2.5-Math-7B 模型也可以提高 MATH-500 的成绩,如果是随机奖 励,成绩能提高 21%,如果是错误奖励,成绩能提升 25%(真实奖励能提升 28.8%)。 这是怎么一回事?大模型的训练技巧真的有用吗?该工作的作者写了一篇博客进行了介绍: 质疑强化学习 (RLVR) 传统观点 近一段时间,可验证奖励强化学习(RLVR)已成为增强大型语言模型(LLM)推理能力的标准方法。传统观点认为,高质量的监督信号对于有效的 RLVR 训 练至关重要。最近的研究挑战了这一假设,表明使用 RLVR 对单个样本或无监督样本进行训练仍然可以在 Qwen-Math 模型上取得显著的进步。 但是,我们不禁要问:单样本或无监督 RLVR 中的训练信号来自哪里?为了提供有意义的 RLVR ...