DeepSeek登《Nature》封面,梁文锋带队,首次回应“蒸馏”争议

2025年9月17日,属于中国人工智能的又一个高光时刻来到了。DeepSeek-AI团队梁文锋及其同事在《自然》杂志发表了关于开源模型 DeepSeek- R1 的研究成果,并登上当期封面。 论文指出,大语言模型(LLM)的推理能力可以通过纯强化学习显著提升,从而减少对人工标注的依赖。与传统训练方式相比,这一方法培养出 的模型在数学解题、编程竞赛以及涉及STEM领域研究生水平的问题上,均展现出更优的表现。 在此,DeepSeek也首次回应"蒸馏"争议,在与审稿人的交流中,DeepSeek明确表示,R1并非通过复制OpenAI模型生成的推理示例来学习。只是和 大多数其他大语言模型一样,R1的基础模型是在网络上训练的,因此它会吸收互联网上已有的AI生成的内容。 "低成本奇迹":从29万美元到世界舞台 在AI世界,有一个残酷的共识:顶尖大模型的门槛,从来不是算法,而是成本。OpenAI训练GPT-4,外界估算其花费在1亿美元以上;谷歌、 Anthropic、Meta也在数千万美元级别的预算上展开竞赛。资金与算力,成了决定话语权的核心。 然而,DeepSeek打破了这一"潜规则"。根据研究团队在论文补充材料披露的细节 ...