HBM,撞墙了
3 6 Ke·2026-01-16 01:57
如果用一个词概括HBM这几年的进化,那就是:堆得越来越高。HBM本质上是一种"把 DRAM 垂直叠起来"的存储技术。层数越高,单颗 HBM 的容量越 大、带宽越高,对 AI GPU 来说就越香——因为 AI 真正稀缺的从来不是算力,而是喂数据的速度。 因此,HBM 的演进路线也非常清晰:从4层到8层、12层,再逼近16 层。8 层是 HBM 真正成熟、规模化出货的主力,它是过去一段时间 AI GPU 的"最常 见配置",良率稳定、供应链也最成熟;12层则成为近两年的主力量产方向,在容量、性能与成本之间取得了更理想的平衡,也最适合大规模出货。而截 至目前,HBM 已经正式迈入16层堆叠的量产前夜:在刚刚结束的 CES 2026 上,SK 海力士已经展出了全球首款16层 HBM4 样品,单堆栈容量提升至 48GB。 但层数的提升,并不只是"多堆几层"这么简单。事实上,每增加 4 层,整个系统的制造难度都会显著上一个台阶:贴装精度、焊点间距、Z 方向高度控 制、翘曲、底填(MUF)可靠性……所有原本还能被工艺余量掩盖的问题,都会被 16 层这种高度放大到"生死线"级别。 面对困局,行业分化出了两种声音:一种是追求终 ...