CloudMatrix384超节点

Search documents
华为CloudMatrix384超节点很强,但它的「灵魂」在云上
机器之心· 2025-07-02 11:02
机器之心报道 编辑:Panda AI 领域最近盛行一个观点: AI 下半场 已经开始,评估将比训练重要。而在硬件层级上,我们也正在开始进入一个新世代。 过去几年,全球科技巨头的 AI 竞赛还聚焦于「芯片」本身 —— 比拼谁的计算核心更强大,就像 F1 赛场上对引擎马力的极致追求。而今天,战火已经蔓延到一个 更宏大的新维度: 系 统架 构 。 当所有顶级玩家都拥有了性能强悍的「V12 引擎」后,人们痛苦地发现,真正的瓶颈已不再是单颗芯片的算力,而是如何将成百上千颗芯片连接起来,形成一个 高效协同的整体。这就像将一千辆 F1 赛车同时塞进一条乡间小路,再强的引擎也只能在无尽的「堵车」中怠速轰鸣。 这个「交通堵塞」,就是今天 AI 数据中心面临的最致命瓶颈 —— 通信开销。在大模型分布式训练中,节点间的海量数据同步,常常导致算力利用率骤降。无数 斥巨资采购的顶级芯片,大部分时间都在等待数据,而不是在计算。也就是说,AI 行业正面临一场深刻的效率危机。 因此,一个根本性的问题摆在了所有人的面前:如何才能彻底拆除芯片之间的「围墙」,构建一个真正没有堵车的「算力高速公路网」? 面对这个 AI 下半场的终极考题,华为云给出 ...
中信证券:系统级算力有望成为AI发展的下一站 建议关注国内产业链相关公司
智通财经网· 2025-06-26 00:29
底层基础设施的通用性就是为了前瞻性地应对未来的模型发展。当前AI产业发展迅速,Scaling law在后 训练、在线推理等阶段快速发展。训练端,模型架构持续创新迭代,有望进一步强化训练侧scaling law 的延续,如阿里巴巴Qwen团队与浙江大学团队提出的Parallel Scaling、腾讯混元团队采用Transformer、 Mamba混合架构训练的TurboS都取得了优秀的性能表现。推理端,在MoE专家网络架构成为主流后, 如何通过硬件部署实现更高的吞吐量和更低的延时成为焦点。采用类似推理集群的形式未来有望成为主 流,计算节点有望通过提升计算密度满足推理需求。系统级算力料将成为下一代AI算力基础设施。 系统级算力需要系统级能力。 芯片层面,算力集群中涉及AI加速芯片、CPU芯片、Switch互连芯片、DPU数据处理芯片等,受限制于 制程,国产AI加速芯片在峰值算力能力领域上相较于海外旗舰产品仍有差距,软件生态上亦因产业发 展时长而相对落后,单芯片能力的竞争并无直接优势。互连层面,传统PCIe与英伟达NVLink等差距较 大,NVLink5.0提供1.8TB/s双向带宽,超传统PCIe方案的十倍,国产 ...