Workflow
国际期刊发表DeepSeek大规模推理模型训练方法 揭示AI背后的科学

在评估AI表现的数学基准测试中,DeepSeek-R1-Zero和DeepSeek-R1得分分别为77.9%和79.8%。此外, 该模型在编程竞赛及研究生水平的生物学、物理和化学问题上同样表现优异。 《自然》同期发表国际同行专家的"新闻与观点"文章指出,当前版本的DeepSeek-R1有一些能力限制, 希望能在未来版本中得到改进。例如,该模型有时会混合语言,目前只针对中文和英文做了优化;它对 提示词也很敏感,需要精心设计的提示词工程,在某些任务上没有展现出明显提升,例如软件工程任 务。 DeepSeek-AI团队总结认为,未来研究可以聚焦优化奖励过程,以确保推理和任务结果可靠。(完) 中新网北京9月18日电 (记者 孙自法)作为一家专注于大语言模型(LLM)和通用人工智能(AGI)技术的中国 公司,DeepSeek(深度求索)今年早些时候发布的开源人工智能(AI)模型DeepSeek-R1采用的大规模推理模 型训练方法,颇受关注。 北京时间9月17日夜间,该训练方法在国际知名学术期刊《自然》上线发表,其揭示AI技术背后的科学 研究表明,大语言模型的推理能力可通过纯强化学习来提升,从而减少增强性能所需的人类输入 ...