Workflow
华为发布AI新技术
Zheng Quan Shi Bao·2025-11-21 12:05

一是算力资源切分,一卡变多卡,服务多个AI工作负载。针对AI小模型训推场景中"一张卡跑一个任 务"的资源浪费问题,华为与上海交通大学联合研发XPU池化框架,可将单张GPU或NPU算力卡切分为 多份虚拟算力单元,切分粒度精准至10%。这一技术实现了单卡同时承载多个AI工作负载,且通过弹性 灵活的资源隔离技术,可实现算力单元的按需切分,"用多少,切多少",使此类场景下的整体算力平均 利用率提升30%,提高单卡服务能力。 二是跨节点算力资源聚合,充分利用空闲算力。针对大量通用服务器因缺乏智能计算单元而无法服务于 AI工作负载的问题,华为与厦门大学联合研发跨节点拉远虚拟化技术。该技术将集群内各节点的空闲 XPU算力聚合形成"共享算力池",一方面为高算力需求的AI工作负载提供充足资源支撑;另一方面,可 让不具备智能计算能力的通用服务器通过高速网络,将AI工作负载转发到远端"资源池"中的GPU/NPU 算力卡中执行,从而促进通用算力与智能算力资源融合。 11月21日,在2025AI容器应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周跃峰正式 发布AI容器技术——Flex:ai。同时,华为联合上海交通大学、西安交 ...