数据中心的下一个胜负手:跳出AI芯片
电力瓶颈,比芯片更紧迫 2024年中国数据中心总耗电量达1660亿度,相当于2个三峡水电站的年发电量;约占全国总耗电量的1.68%,预计2030年占比超过5%,2035年占比超过 13%。 算力扩张与电力约束的失衡,正在重塑数据中心产业的发展逻辑。 "花几十亿元流片,最终或许只能兑现不到六成的理论价值。"这并非危言耸听,而是当下AI芯片在真实数据中心场景中的普遍现实。 当生成式AI掀起全球算力竞赛,半导体行业的目光多聚焦于:AI芯片公司又推出了性能多么强悍的新品?台积电的先进制程是否更进一步?然而一组数 据,却进一步揭示了这场行业狂欢背后的隐形枷锁: 近期,半导体产业纵横深入AI芯片及数据中心产业一线走访调研,与多位行业资深从业者深度交流后发现,当前AI数据中心电力消耗居高不下的核心瓶 颈,主要有三点。 第一点,正如文章开头所言,AI芯片的技术发展和数据中心的实际使用场景脱节,是当前行业电力消耗居高不下的核心问题之一。当前诸多AI芯片研发 走进"拼峰值算力"的误区,把算力多少当成核心竞争力,却忽略了数据中心里最关键的"算力够用且省电"的平衡需求。这种失衡主要体现在两方面: 其一,芯片设计和实际任务对不上。主流 ...