DeepSeek

Search documents
DeepSeek团队发表重磅论文,《自然》配发社论狂赞呼吁同行效仿
Yang Zi Wan Bao Wang· 2025-09-18 13:19
这篇论文刊登在最新一期《自然》,与今年1月发布的DeepSeek-R1的初版论文相比,披露了更多模型 训练的细节。论文作者称,大语言模型(LLM)的推理能力可通过纯强化学习来提升,从而减少增强 性能所需的人类输入工作量。训练出的模型在数学、编程竞赛和STEM领域研究生水平问题等任务上, 比传统训练的LLM表现更好。 《自然(Nature)》杂志发表社论 《自然》特意配发社论"为何同行评审对AI模型至关重要",表示目前几乎所有主流的大模型都还没有经 过独立同行评审,这一空白"终于被DeepSeek打破"。 DeepSeek-R1推理模型研究论文登上《自然(Nature)》封面 9月17日,由DeepSeek团队共同完成、梁文锋担任通讯作者的DeepSeek-R1推理模型研究论文,登上了 国际权威期刊《自然(Nature)》的封面。《自然》还配发社论,表示DeepSeek-R1是全球首个经过同 行评审的主流大语言模型,对于AI模型开发具有重要意义,呼吁其他公司应效仿这一做法。 考虑到大语言模型(LLM)对人类文明发展具有重要意见,而且可能存在很大的风险,同行评审尤为 重要。然而,目前接受同行评审的大语言模型(LL ...
氪星晚报 |华为公布未来三年昇腾芯片演进和目标:950PR明年Q1推出;特斯拉正重新设计饱受安全争议的车门把手;《731》今日票房超1.36亿,成内地影...
3 6 Ke· 2025-09-18 10:32
大公司: Meta推出售价799美元带屏幕且集成AI功能的智能眼镜 Meta正试图将其智能眼镜产品线打造成必备产品,该公司于周三推出了首款内置屏幕的智能眼镜。这 款最新产品名为 "Meta 雷朋显示版(Meta Ray-Ban Display)",售价799美元,其右侧镜片内置一块屏 幕。该屏幕可显示短信、视频通话画面、地图逐向导航指引,以及向Meta人工智能(AI)服务发起查 询后返回的可视化结果。(新浪财经) 百度PaddleOCR累计下载量突破900万 36氪获悉,近日,百度在海外官方账号介绍了最新轻量级文字识别模型 PP-OCRv5。该模型仅0.07B参 数,以千分之一参数量实现与700亿参数大模型相媲美的OCR精度。据了解,自2020年开源以来, PaddleOCR累计下载量突破900万,被超过5.9k开源项目直接或间接使用,是GitHub 社区中唯一一个 Star数超过50k的中国OCR项目。 幸运咖:北京门店数超70 家,连续两月新签超千家门店 36氪获悉,近日,蜜雪集团旗下现磨咖啡品牌幸运咖北京门店达到70家。据了解,幸运咖7月全国新签 门店数超过1200家,创下单月新签门店数新高;8月新签门 ...
氪星晚报 |华为公布未来三年昇腾芯片演进和目标:950PR明年Q1推出;特斯拉正重新设计饱受安全争议的车门把手;《731》今日票房超1.36亿,成内地影史首映日总场次冠军
3 6 Ke· 2025-09-18 10:19
大公司: Meta推出售价799美元带屏幕且集成AI功能的智能眼镜 Meta正试图将其智能眼镜产品线打造成必备产品,该公司于周三推出了首款内置屏幕的智能眼镜。这 款最新产品名为 "Meta 雷朋显示版(Meta Ray-Ban Display)",售价799美元,其右侧镜片内置一块屏 幕。该屏幕可显示短信、视频通话画面、地图逐向导航指引,以及向Meta人工智能(AI)服务发起查 询后返回的可视化结果。(新浪财经) 百度PaddleOCR累计下载量突破900万 36氪获悉,近日,百度在海外官方账号介绍了最新轻量级文字识别模型 PP-OCRv5。该模型仅0.07B参 数,以千分之一参数量实现与700亿参数大模型相媲美的OCR精度。据了解,自2020年开源以来, PaddleOCR累计下载量突破900万,被超过5.9k开源项目直接或间接使用,是GitHub 社区中唯一一个 Star数超过50k的中国OCR项目。 幸运咖:北京门店数超70 家,连续两月新签超千家门店 36氪获悉,近日,蜜雪集团旗下现磨咖啡品牌幸运咖北京门店达到70家。据了解,幸运咖7月全国新签 门店数超过1200家,创下单月新签门店数新高;8月新签门 ...
刚刚,梁文锋发Nature了
36氪· 2025-09-18 10:18
Core Viewpoint - DeepSeek's R1 reasoning model has achieved significant recognition by being published in the prestigious journal Nature, marking a milestone in AI research and transparency in the industry [4][22][36]. Group 1: Model Development and Achievements - The DeepSeek-R1 model, developed by Liang Wenfeng's team, is the first mainstream large language model to undergo peer review, breaking a significant gap in the AI industry [4][11][22]. - The model has become the most popular open-source reasoning model globally, with over 10.9 million downloads on Hugging Face [4]. - DeepSeek-R1's research addresses a major issue in AI, enhancing reasoning capabilities through reinforcement learning without relying on extensive human labeling [14][16]. Group 2: Transparency and Peer Review - Nature's editorial highlights the importance of peer-reviewed publications in clarifying how large models work and ensuring their performance aligns with vendor claims [24][25][34]. - The peer review process for DeepSeek-R1 involved eight external experts who provided over a hundred specific comments, enhancing the paper's clarity and credibility [26][29][34]. - DeepSeek's commitment to transparency is evident in the detailed disclosures about model training and safety assessments, which are crucial for mitigating risks associated with AI technologies [11][18][36]. Group 3: Safety and Data Integrity - DeepSeek conducted a comprehensive safety evaluation of the R1 model, demonstrating its superior safety compared to contemporaneous models [11][18]. - The model's training data underwent rigorous decontamination processes to prevent bias and ensure that evaluation results accurately reflect its problem-solving capabilities [17][20]. - Despite acknowledging potential contamination issues in some benchmark tests, DeepSeek has implemented external risk control systems to enhance safety during deployment [18][19]. Group 4: Industry Impact and Future Directions - DeepSeek's open-source model is positioned as a representative of domestic AI technology on the global stage, potentially setting a standard for research transparency in the AI industry [36]. - The call for more AI companies to submit their models for peer review reflects a growing recognition of the need for verified claims and enhanced credibility in AI research [36].
华人学者一天发表了11篇Nature论文
生物世界· 2025-09-18 10:05
撰文丨王聪 编辑丨王多鱼 排版丨水成文 2025 年 9 月 17 日,国际顶尖学术期刊 Nature 上线了 24 篇论文 , 其中 10 篇来自华人学者 (包括作为通讯作者和第一作者的论文) 。 9 月 17 日,香港城市大学 任广禹 、中国科学院深圳先进技术研究院 张杰 、 香港岭南大学 Wu Shengfan 、 吉林大学 蒋青 作为共同通讯作者 ( Wenlin Jiang 、 Geping Qu 为 共同第一作者) , 在 Nature 期刊发表了题为: Toughened self-assembled monolayers for durable perovskite solar cells ( 用于持久钙 钛矿太阳能电池的强化自组装单分子层 ) 的研究论文 【1】 。 9 月 17 日,普林斯顿大学 Zhihao Luo (现单位为犹他大学) 作为第一作者兼共同通讯作者,在 Nature 期刊发表了题为: Transitions in dynamical regime and neural mode during perceptual decisions ( 感知决策过程中动态模式和神经模式的 ...
DeepSeek 首登《自然》封面:中国大模型创造新历史,做了 OpenAI 不敢做的事
3 6 Ke· 2025-09-18 09:56
就在今天,DeepSeek 的大型语言模型 DeepSeek-R1 的研究成果,作为封面文章登上了国际顶尖科学期刊《Nature》。 和 OpenAI 那些动辄上千万美元, 这个只花了 30 万美元训练出来的国产 AI 模型 ,曾经不仅一度引发美股震荡,现在还登上了 Nature 的最新封面。 图片链接:https://www.nature.com/nature/volumes/645/issues/8081 Nature 封面评语 此次登上 Nature 封面的文章,是 DeepSeek 年初在 arXiv 公布的论文《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,即 R1 的技术论文。 虽然大体上和年初那篇类似,但是补充了相当多细节。 论文作者名单,梁文锋是通讯作者 正文只有双栏 11 页,补充材料却来到了 83 页;而同行评审,就是审稿人与 DeepSeek 团队就论文某些问题进行讨论的记录(一般叫 rebuttal,反驳),也有 64 页之多。 这些新公开的资料,让我们看到了 De ...
训练成本29.4万美元,DeepSeek-R1登Nature封面,首个通过权威期刊同行评审的主流大模型获好评
3 6 Ke· 2025-09-18 07:55
DeepSeek-R1 的相关研究成果登上 Nature 封面,作为首个通过权威期刊同行评审的主流大模型,其也在技术之外,补充披露了训练成本。 9 月 17 日,DeepSeek-R1 的相关研究成果登上 Nature 封面,这一消息迅速在全球学术领域引发热烈讨论。其实相关研究成果已经于今年 1 月以预印本的 形式发表于 arXiv,但本次公开于 Nature 的意义在于其通过这一权威期刊接受了同行评审,换言之,外部专家并非只接收单向信息,而是能够在独立第 三方(编辑)的监督和管理下,通过一个协作过程提出问题并向作者团队要求更多信息,实属业内首次。 更加重要的是,不同于 1 月公开的预印本论文已经概述了研究方法以及 DeepSeek-R1 在一系列评测基准上的表现,这一正式见刊的论文中补充披露了该 模型的训练成本。据 Nature News 的报道显示,DeepSeek-R1 训练成本仅相当于 29.4 万美元,尽管 DeepSeek 已经为 R1 模型所依托的基础 LLM 投入了约 600 万美元,但成本总额仍远低于业内普遍认为的头部模型训练所需的数千万美元。 * 预印版论文地址:https://hyper ...
DeepSeek登《Nature》封面 梁文锋带队 首次回应争议
Feng Huang Wang· 2025-09-18 07:48
Core Insights - DeepSeek-AI team has published research on the open-source model DeepSeek-R1, demonstrating significant improvements in reasoning capabilities through pure reinforcement learning, reducing reliance on human annotations [1][4] - The cost of training DeepSeek-R1 is remarkably low at $29.4 million, which is significantly less than the estimated $100 million spent by OpenAI on GPT-4 [3][4] - The methodology employed by DeepSeek-R1, including the use of pure reinforcement learning and the GRPO algorithm, allows the model to develop advanced behaviors such as self-reflection and self-verification without human reasoning demonstrations [4][5] Cost Efficiency - DeepSeek-R1's reasoning cost is only $29.4 million, with total costs, including base model training, remaining under $6 million, making it highly competitive against major players like OpenAI and Google [3][4] - The model's cost efficiency is attributed to a focus on algorithmic innovation rather than extensive financial resources [8] Methodological Innovation - The research highlights a shift from traditional training methods to a framework that rewards correct answers rather than mimicking human reasoning paths, leading to the emergence of complex thinking patterns [4][9] - DeepSeek-R1 achieved a significant accuracy increase in the AIME 2024 math competition, from 15.6% to 77.9%, and further to 86.7% with self-consistency decoding, surpassing human average performance [4][5] Industry Impact - The success of DeepSeek-R1 represents a pivotal moment in AI, indicating a potential shift from a competition based on data and computational power to one focused on algorithmic and innovative advancements [9] - The model's development is seen as a "methodological manifesto," showcasing a sustainable path for AI evolution that does not rely on vast amounts of labeled data [8][9]
DeepSeek打破历史!中国AI的“Nature时刻”
Zheng Quan Shi Bao· 2025-09-18 07:29
据了解,DeepSeek本次在Nature上发表的论文较今年年初的初版论文有较大的改动,全文64页,不仅首 次披露了R1的训练成本,而且透露了更多模型训练的技术细节,包括对发布初期外界有关"蒸馏"方法 的质疑作出了正面回应,提供了训练过程中减轻数据污染的详细流程,并对R1的安全性进行了全面评 估。 其中,在训练成本方面,R1-Zero和R1都使用了512张H800GPU,分别训练了198个小时和80个小时,以 H800每GPU小时2美元的租赁价格换算,R1的总训练成本为29.4万美元(约合人民币209万元)。不到 30万美元的训练成本,与其他推理模型动辄上千万美元的花费相比,可谓实现了极大的降本。 关于R1发布最初时所受到的"蒸馏"质疑,DeepSeek介绍,其使用的数据全部来自互联网,虽然可能包 含GPT-4生成的结果,但并非有意而为之,更没有专门的蒸馏环节。所谓"蒸馏",简单理解就是用预先 训练好的复杂模型输出的结果,作为监督信号再去训练另外一个模型。R1发布时,OpenAI称它发现 DeepSeek使用了OpenAI专有模型来训练自己的开源模型的证据,但拒绝进一步透露其证据的细节。 中国大模型,首登Na ...
中国大模型首登《自然》封面,AI医学的DeepSeek时刻还远吗?
Di Yi Cai Jing· 2025-09-18 07:02
在最新一期《自然》封面上,首次出现了来自中国AI科技公司DeepSeek的大模型R1。此前,全球的科技公司中仅有拿下过诺贝尔奖的DeepMind的 AlphaFold获此殊荣。 人工智能工具已经在其他科学领域展现出潜力,例如极端天气预报。自2022年底ChatGPT推出以来,生成式AI的迅猛发展在医学领域也掀起热潮。从药物 设计到医学影像,AI企业正在加速与临床应用的融合。随着中国大模型更多技术细节的披露,未来也有望推动大模型在医学领域的落地,AI医学的 DeepSeek时刻即将到来。 从药物设计到医学影像,AI企业正在加速与临床应用的融合。 "人工智能的吸引力在于它可以快速浏览分子数据库,将化合物与靶点相匹配。"一位制药领域专家对第一财经记者表示,"但这只是药物发现的第一步,还 有很多问题目前尚无法用人工智能来预测,例如药物的毒副作用。" 上述专家表示,在纸面上看起来不错的药物在临床试验中仍然有90%的失败率。"AI制药最终走向现实,其过程堪比自动驾驶汽车上路,除了解决技术算法 上的核心难题之外,还面临复杂的生物学问题以及最终走向应用时所面临的监管问题。"他说道,"这是因为人类对于自身的生物学问题仍然知之甚 ...