GB200 NVL72服务器

Search documents
华为昇腾910系列2025年出货量调研
傅里叶的猫· 2025-05-20 13:00
这是一个来自瑞穗证券的一份研报,里面提到了对博通、英伟达、AMD、超微和华为的分析。报告 放在星球中,有兴趣的朋友可以到星球中查看原始报告。 瑞穗预计,博通定制ASIC芯片(TPUv7p/MTIA2)将在2026年加速放量,并可能在2026年下半年用 于OpenAI的Strawberry和苹果的Baltra项目。在2024年,博通的定制ASIC芯片占使用的70%-80%,绝 对的AI ASIC龙头。报告中的这个数字应该是没有考虑像Google的TPU这种自产自销的AI ASIC。 在沙特的UMAIN项目中,未来5年将部署4000台GB200 NVL72服务器(对应28万颗英伟达GPU)和 35万颗AMD GPU。在阿联酋G42项目中,承诺保证每年进口50万颗英伟达GB200 GPU(价值150亿 美元)。但笔者对这个数字持保留态度,感觉未必能持续下去。 对于超微和AMD的分析都比较简单,我们这里就不太写了。 这么看下来,今年昇腾910系列的出货量在70万以上应该是有的。 end 对华为的一个分析很有意思,报告中提到预计昇腾910在2025年订单超70万颗,下一代昇腾920将于 2026年推出。 但报告中也提到 ...
全球首个!“英伟达亲儿子”CoreWeave大规模上线GB200服务器
硬AI· 2025-04-16 09:52
点击 上方 硬AI 关注我们 测试结果显示,相比前代英伟达Hopper GPU,GB200 NVL72服务器能帮助Cohere在1000亿参数模型的训练实现高达3 倍的性能提升,此外,IBM和Mistral AI也已成为CoreWeave GB200云服务的首批用户。 "世界各地的企业和组织正在竞相将推理模型转化为代理型人工智能应用,这将改变人们的工作和娱 乐方式。" 硬·AI 作者 | 李笑寅 编辑 | 硬 AI CoreWeave再度抢占先机,率先部署英伟达GB200系统,AI巨头争相入局。 英伟达今日在其博客上宣布, AI云计算提供商CoreWeave已成为首批大规模部署英伟达GB200 NVL72 系统的云服务提供商之一。Cohere、IBM和Mistral AI已成为首批用户。 根据最新MLPerf基准测试,这些系统提供了前代H100芯片2-3倍的性能提升,将显著加速大模型训练和推 理能力。 CoreWeave首席执行官Michael Intrator表示,这一成就既展示了公司的工程实力和执行速度,也体现了 其对下一代AI发展的专注: "CoreWeave的设计就是为了更快速地行动——我们一次又一次 ...