Workflow
GB200 Blackwell系统
icon
Search documents
英伟达员工指微软数据中心冷却系统浪费资源
Xin Lang Ke Ji· 2025-12-12 11:22
【#英伟达员工吐槽微软冷却系统太浪费#】英伟达正在为微软的数据中心提供最新一代 Blackwell 芯 片,而在今年初秋的部署过程中,英伟达一名员工注意到,微软其中一处设施的冷却方式显得过于浪 费。 随着 AI 模型训练与推理的算力需求迅猛攀升,英伟达正为微软等科技巨头大量部署 GB200 Blackwell 系统。 今年初秋时,英伟达基础设施专家团队的员工在内部邮件中,详细描述了为 OpenAI 机群部署 Blackwell 机架的现场情况。作为 OpenAI 的云合作伙伴与最大投资方,此类部署由微软负责。 《商业内幕》今天援引的英伟达内部邮件提到,此次安装包括两组 GB200 NVL72 机架,每组搭载 72 颗英伟达 GPU。由于如此高密度的 GPU 阵列会产生巨量热能,微软采用液冷技术将热量从服务器周围 迅速带走。 但邮件也指出,微软在建筑层面的整体冷却方式因规模过大且未使用设施级冷却用水,看起来造成资源 浪费,但确实带来了良好的弹性与故障容忍能力。 美国加州大学的电气与计算机工程副教授任绍雷(音译)解释说,数据中心通常采用"双层冷却结构": 服务器内部用液冷,而建筑本体需要另一套系统把整体热量排到室 ...