HBF,再曝新进展
公众号记得加星标⭐️,第一时间看推送不会错过。 HBF采用多层3D NAND芯片堆叠技术,与HBM互补,用于GPU。 人工智能工作负载的爆炸式增长给内存系统带来了前所未有的压力,迫使企业重新思考如何向加速器 提供数据。 高带宽内存 (HBM) 已用作 GPU 的快速缓存,使AI 工具能够高效地读取和处理键值 (KV) 数据。 然而,HBM 价格昂贵、速度快、容量有限,而高带宽闪存 (HBF) 则以较慢的速度提供更大的容量。 HBF 如何与 HBM 互补 HBF 的设计允许GPU访问更广泛的数据集,同时限制写入次数(每个模块大约 100,000 次),这就 需要软件优先处理读取操作而不是写入操作。 HBF 将与 HBM 集成到 AI 加速器附近,形成分层内存架构。 韩国科学技术院 (KAIST) 的金钟浩教授将 HBM 比作家里的书架,方便快速学习;而 HBF 则像一 个图书馆,内容更丰富,但访问速度较慢。 该概念设想未来的迭代产品(如 HBM7)可以作为"内存工厂"运行,数据可以直接从 HBF 进行处 理,而无需通过传统的存储网络。 HBF 将多个 3D NAND 芯片垂直堆叠,类似于 HBM 将 DRAM ...