量子计算的瓶颈:处理器再快,也必须等待数据
Guan Cha Zhe Wang·2026-01-22 00:46

【文/观察者网专栏作者 徐令予】 关于量子计算的争论,大多在量子比特的数字游戏与工程实现的泥潭中打转。公众叙事中默认了一个近 乎迷信的前提:只要处理器足够快,算力便会如期而至。然而,这个在计算技术发展史中早已被证伪的 命题,正借着量子的外壳重新还魂。 现代计算的战场,不在于运算本身,而在于数据的"搬运"与"等待"。 过去数十年取得的算力红利,其 实主要来自数据调度与存储架构的持续演进。英伟达的黄仁勋在2026年CES展会上强调指出:当前AI算 力的瓶颈已从传统的算术计算单元扩展到内存带宽、数据移动效率及系统级延迟,这源于AI模型规模 的指数级增长和物理AI对实时性的严苛要求。 本文并非试图否定量子计算的研究价值,而是希望从计算体系结构与算力本体的角度,重新审视量子计 算的技术承诺。文章将首先澄清"算力并不等同于处理器速度"这一常被忽视的基本事实,继而讨论量子 计算在存储与数据调度层面所面临的结构性约束,从而为当前量子计算的争议提供一个新的视角。 一、算力不只是处理器速度,内存往往才是决定因素。 在关于计算能力的讨论中,长期存在一个误区:算力等同于中央处理器(CPU)的运算速度。这种理 解或许符合人们对"计算" ...