中信证券:系统级算力有望成为AI发展的下一站 建议关注国内产业链相关公司

底层基础设施的通用性就是为了前瞻性地应对未来的模型发展。当前AI产业发展迅速,Scaling law在后 训练、在线推理等阶段快速发展。训练端,模型架构持续创新迭代,有望进一步强化训练侧scaling law 的延续,如阿里巴巴Qwen团队与浙江大学团队提出的Parallel Scaling、腾讯混元团队采用Transformer、 Mamba混合架构训练的TurboS都取得了优秀的性能表现。推理端,在MoE专家网络架构成为主流后, 如何通过硬件部署实现更高的吞吐量和更低的延时成为焦点。采用类似推理集群的形式未来有望成为主 流,计算节点有望通过提升计算密度满足推理需求。系统级算力料将成为下一代AI算力基础设施。 系统级算力需要系统级能力。 芯片层面,算力集群中涉及AI加速芯片、CPU芯片、Switch互连芯片、DPU数据处理芯片等,受限制于 制程,国产AI加速芯片在峰值算力能力领域上相较于海外旗舰产品仍有差距,软件生态上亦因产业发 展时长而相对落后,单芯片能力的竞争并无直接优势。互连层面,传统PCIe与英伟达NVLink等差距较 大,NVLink5.0提供1.8TB/s双向带宽,超传统PCIe方案的十倍,国产 ...