HBM4显存
Search documents
美光(MU.US)官宣HBM4量产 绑定英伟达(NVDA.US)Vera Rubin平台抢占先机
Zhi Tong Cai Jing· 2026-03-18 06:57
这种订单高度锁定的态势,标志着HBM市场已由传统的周期性现货贸易,彻底转型为基于定制化技术 协同的深度绑定模式,美光作为美国本土唯一的HBM主要供应商,其战略溢价正在加速释放。 为了在技术代差上保持领先,美光并未止步于12层堆叠的量产。公司宣布已开始向核心客户交付更具颠 覆性的48GB 16-Hi HBM4样品,单颗容量较当前量产版本提升了33%,旨在为Vera Rubin平台的后续升 级版提供更强大的显存冗余。与此同时,美光正紧锣密鼓地推进下一代HBM4E的研发,预计将在2026 年下半年进入抽样阶段。 除了在显存领域持续发力,美光在GTC期间展示的系统级存储协同能力同样不容小觑。业界首款进入量 产阶段的PCIe 6.0数据中心SSD(Micron 9650)以28 GB/s的顺序读取速度刷新了行业纪录,配合专为Vera CPU设计的192GB SOCAMM2内存模块,美光正在构建一个覆盖GPU显存、系统内存及高速缓存的完 整存储闭环。 美光不仅在会场正式确认为英伟达下一代Vera Rubin AI平台量产高性能HBM4显存,更凭借其全栈存储 解决方案的集中落地,展示了其在算力(核心股)供应链中不可或缺的生 ...
美光(MU.US)官宣HBM4量产 绑定英伟达(NVDA.US)Veo Rubin平台抢占先机
智通财经网· 2026-03-18 04:15
为了在技术代差上保持领先,美光并未止步于12层堆叠的量产。公司宣布已开始向核心客户交付更具颠 覆性的48GB 16-Hi HBM4样品,单颗容量较当前量产版本提升了33%,旨在为Vera Rubin平台的后续升 级版提供更强大的显存冗余。与此同时,美光正紧锣密鼓地推进下一代HBM4E的研发,预计将在2026 年下半年进入抽样阶段。 除了在显存领域持续发力,美光在GTC期间展示的系统级存储协同能力同样不容小觑。业界首款进入量 产阶段的PCIe 6.0数据中心SSD(Micron 9650)以28 GB/s的顺序读取速度刷新了行业纪录,配合专为Vera CPU设计的192GB SOCAMM2内存模块,美光正在构建一个覆盖GPU显存、系统内存及高速缓存的完 整存储闭环。 这种全栈式供货能力不仅优化了英伟达NVL72等超大规模系统的整体运行效率,更通过提升智能体 AI(Agentic AI)的推理响应速度,为美光在高性能计算市场赢得了更广阔的话语权。 从行业竞争格局来看,美光此次高调官宣量产具有重要的战略意义。由于 2026 年初市场曾盛传美光在 HBM4 研发进度上落后于 SK 海力士和三星,甚至有报道称其份额将被 ...
美光(MU.US)官宣HBM4量产 绑定英伟达(NVDA.US)Veo Rubin平台抢占先机
Zhi Tong Cai Jing· 2026-03-18 04:11
这种全栈式供货能力不仅优化了英伟达NVL72等超大规模系统的整体运行效率,更通过提升智能体 AI(Agentic AI)的推理响应速度,为美光在高性能计算市场赢得了更广阔的话语权。 在AI算力需求持续井喷的背景下,英伟达GTC2026大会再次成为全球半导体产业的风向标,而存储巨 头美光科技(MU.US)在此次盛会上的表态,无疑为高性能存储市场的竞争注入了新的变数。美光不仅在 会场正式确认为英伟达下一代Vera Rubin AI平台量产高性能HBM4显存,更凭借其全栈存储解决方案的 集中落地,展示了其在算力供应链中不可或缺的生态地位。 美光此次量产的36GB12-Hi HBM4显存不仅实现了超过2.8TB/s的惊人带宽,更在能效比上较前代产品提 升了20%以上,这对于解决大规模大模型训练中的"功耗墙"问题至关重要。值得市场高度关注的是,美 光管理层在现场明确表示,公司2026年全年的HBM产能已经基本售罄,且绝大部分订单已签署具有法 律约束力的长期采购协议。 这种订单高度锁定的态势,标志着HBM市场已由传统的周期性现货贸易,彻底转型为基于定制化技术 协同的深度绑定模式,美光作为美国本土唯一的HBM主要供应商,其 ...
英伟达,收尽天下之存储
新财富· 2026-03-09 08:16
Core Viewpoint - Nvidia is positioning itself to potentially become one of the largest storage companies globally by redefining storage systems for its partners, rather than just producing storage chips [2][3]. Group 1: AI and Storage Evolution - The AI race has shifted focus from sheer computational power to addressing the new bottleneck of memory capacity and bandwidth, particularly for handling large amounts of intermediate states in AI processing [5]. - Nvidia's new Rubin architecture introduces a "context memory storage platform" based on BlueField-4 DPU, which aims to revolutionize the storage industry by creating a new storage layer [7][10]. - The Vera Rubin NVL72 rack features four BlueField-4 DPUs managing a dedicated 150TB context memory pool, which serves as a "warm data" layer between GPU's HBM and traditional cold storage [7][10]. Group 2: Storage Architecture Changes - The new architecture allows for a significant increase in effective memory for each GPU, reaching up to 20TB, which is nearly a 200% increase compared to the previous Blackwell architecture [10]. - The three-tier storage system introduced by Nvidia includes HBM4 for hot data, DRAM for warm data, and the context memory storage platform (ICMS) for efficiently storing large KV caches [16][17]. - The ICMS platform reduces the cost of token generation for MoE models to one-tenth of previous costs and enhances inference performance by five times [20]. Group 3: Market Impact and Future Trends - The transformation of NAND flash from a cold storage solution to a critical component in real-time inference calculations will elevate its value and performance requirements [16]. - The demand for NAND due to the new architecture could lead to a significant increase in the overall NAND market, with Nvidia's deployment potentially adding over 115EB of NAND demand [21]. - The shift in storage dynamics is expected to drive a structural upgrade across the entire storage industry, making NAND storage a core hardware component for AI inference [26][27].