摩根大通专家访谈:AI数据中心“产能过剩”了吗?训练和推理基建如何部署?
硬AI·2025-06-19 15:49
摩根大通最新专家访谈揭示,AI基建"产能过剩"担忧为时过早,算法轻量化与硬件循环利用正缓解算力焦虑,但数据中心 头顶的"电力问题"与"散热难题",才是AI狂奔路上更现实的减速带。 硬·AI 作者 | 龙 玥 编辑 | 硬 AI 近期,摩根大通与Scale AI数据科学家、Meta前高级数据科学家Sri Kanajan举行电话会议,深入探讨超大 规模AI数据中心架构趋势。 据摩根大通报告,近期算法突破——如混合模型(含DeepSeek)、精度训练及策略性强化学习——显著 降低了整体AI模型训练所需的计算量。这促使行业将优化重点转向推理环节。 Kanajan指出,当前,业界正积极采用模型蒸馏、压缩等技术精炼模型,力求在不大幅增加原始算力投入 的前提下提升性能。 02 基础设施: 动态部署,担忧产能过剩尚早 Kanajan认为,AI基础设施部署仍处早期阶段,特别是考虑到云服务商对其投资的长期回报预期,当前对 产能过剩的担忧有限。 Kanajan认为,AI基础设施部署仍处于早期阶段,对产能过剩的担忧有限。算法进步正降低训练算力消 耗,基础设施通过"训练转推理"实现高效循环利用,训练集群在新一代GPU推出后被快速重新配 ...