Virtual VRAM虚拟显存扩展卡

Search documents
第四范式(06682)发布“Virtual VRAM”虚拟显存扩展卡 GPU资源利用率实现突破
智通财经网· 2025-09-30 01:39
该产品主要面向两大应用场景:一是在大模型单卡运行显存不足时,用户可通过调用内存资源继续完成 任务,从而避免采购额外显卡,显著降低成本;二是在轻负载场景中,可将多个模型部署于同一GPU, 实现资源动态调度,有效解决"一模型一卡"带来的资源闲置问题。 此外,"Virtual VRAM"具备高度兼容性与部署便利性。产品支持物理机、Docker容器及Kubernetes等云 原生环境,用户无需修改现有代码或重新编译即可实现即插即用,大幅降低了部署复杂度和二次开发成 本。 分析认为,随着AI模型数量与参数规模持续高速增长,显存容量已成为制约企业AI能力构建与成本控 制的关键因素。第四范式此次发布的新产品,有望为企业提供更具性价比的算力扩展方案,帮助用户在 保持高性能的同时进一步实现降本增效。未来,第四范式计划与更多内存厂商展开合作,持续推动AI 基础设施的优化与普及。 传统GPU显存容量固定且扩展成本高昂,限制了AI模型规模的扩大与多任务并发能力。用户往往只能 通过购置更高端显卡或多卡并行来缓解压力,导致投入成本急剧上升。第四范式的"Virtual VRAM"创新 性地构建了显存与内存之间的高速数据通道,将内存虚拟为显 ...
第四范式发布“Virtual VRAM”虚拟显存扩展卡 GPU资源利用率实现突破
Zhi Tong Cai Jing· 2025-09-30 01:39
据第四范式联合创始人、首席科学家陈雨强介绍,单张显卡在使用该扩展卡后,虚拟显存容量最高可扩 展至256GB。以NVIDIA H20显卡为例,其原生显存为96GB,扩展后相当于10张NVIDIA RTX4090或6 张NVIDIA A100的物理显存容量。用户无需更换硬件,即可在接近原生大显存性能的状态下,运行更 大规模的AI训练与推理任务。 在AI大模型迅速发展的背景下,GPU显存容量正成为制约模型训练与推理效率的关键瓶颈。单卡运行 时显存不足,又或是轻负载场景中一模型一卡的部署形态,无不反映出市场对高效、低成本扩展显存资 源的迫切需求。 近日,第四范式(06682)正式推出了"Virtual VRAM"可插入式虚拟显存扩展卡,该产品通过将物理内存 转化为可动态调度的显存缓冲池,实现了GPU算力资源的弹性扩展。第四范式创始人戴文渊,第四范式 联合创始人、首席科学家陈雨强出席发布活动。 传统GPU显存容量固定且扩展成本高昂,限制了AI模型规模的扩大与多任务并发能力。用户往往只能 通过购置更高端显卡或多卡并行来缓解压力,导致投入成本急剧上升。第四范式的"Virtual VRAM"创新 性地构建了显存与内存之间的高 ...