Workflow
Nvidia H800
icon
Search documents
做空英伟达的时机到了么?
美股研究社· 2025-05-02 10:26
长按即可参与 到现在为止,大多数人可能都听说过中国人工智能初创公司 DeepSeek,因为它当时几乎在所有平台 都爆红。但我们认为因为 DeepSeek( DEEPSEEK )而抛售英伟达股票是不合理的,至少没有达 到那种程度。 但让我们仔细分析一下市场为何会有如此反应,这有助于我们理解如果Deepseek R2人工智能模型 的发布是否会重演这一幕。在R1发布之前,人们普遍认为中国在人工智能领域落后多年,没有机会迎 头赶上。 谷歌前首席执行官埃里克·施密特 (Eric Schmidt)曾在 2024 年 5 月表示,美国在人工智能领域领先 中国 2-3 年,原因有三:由于芯片禁令,中国更难获得英伟达芯片;获取培训材料更困难,互联 网上的信息更多是英文;最后,投资较少。领先两三年意味着中国现在的水平与 ChatGPT 的第 一个版本相同。然而,事实并非如此。 顺便说一句,DeepSeek 之前也发布过一些模型,但由于性能不佳,它们从未声名鹊起,也鲜有人使 用。然而,R1 的发布改变了一切,并表明使用更少、更老旧的 GPU 也能开发出最先进的模型。开 发人员运用了多种优化策略来实现这一点。然而,黄仁勋表示,在他看 ...
DeepSeek-R1与Grok-3:AI规模扩展的两条技术路线启示
Counterpoint Research· 2025-04-09 13:01
自今年二月起,DeepSeek 便因其开源旗舰级推理模型DeepSeek-R1 而引发全球瞩目——该模型性能 堪比全球前沿推理模型。其独特价值不仅体现在卓越的性能表现,更在于仅使用约2000块NVIDIA H800 GPU 就完成了训练(H800 是H100 的缩减版出口合规替代方案),这一成就堪称效率优化的 典范。 几天后,Elon Musk 旗下xAI 发布了迄今最先进的Grok-3 模型,其性能表现略优于DeepSeek-R1、 OpenAI 的GPT-o1 以及谷歌的Gemini 2。与DeepSeek-R1 不同,Grok-3 属于闭源模型,其训练动用 了惊人的约20万块H100 GPU,依托xAI "巨像"超级计算机完成,标志着计算规模实现了巨大飞跃。 xAI "巨像" 数据中心 Grok-3 展现了无妥协的规模扩张——约200,000块NVIDIA H100 显卡追求前沿性能提升。而 DeepSeek-R1 仅用少量计算资源就实现了相近的性能,这表明创新的架构设计和数据策展能够 与蛮力计算相抗衡。 效率正成为一种趋势性策略,而非限制条件。DeepSeek 的成功重新定义了AI扩展方式的讨 论。我 ...