实锤了:GPU越多,论文接收率越高、引用越多
机器之心·2025-10-17 08:12
机器之心编辑部 在过去三年里,AI 领域取得了显著进步,这一飞跃主要得益于基础模型的发展。这些模型在大规模多模态数据上进行训练,并在公开发布后取得了巨大成功。 然而,基础模型的研究需要大量的数据、算力和人力资源。这一问题引发了广泛关注与讨论,更大的资源获取是否会直接带来更有影响力的研究成果,例如更多 的论文发表或更高的引用量。 这一问题的答案对于资源分配策略、研究方向的优先级设定,以及如何保障基础模型研究的公平与可持续参与,都具有重要意义。 机器之心报道 然而,由于缺乏统一的资源披露标准,研究成本往往难以量化。在缺乏全面公开的情况下,研究经费最直观的衡量方式,通常是购买或租用硬件(如计算集群或 芯片)的具体成本。当然,研究还包括软件、云存储服务以及专业平台等其他开支。 在这些资源中,GPU 是一个尤其关键的指标,因为它是一种供应量有限、受严格控制的资源。 在本文中,来自 MIT、剑桥等机构的研究者研究了硬件资源与 AI/ML 领域顶级会议论文发表之间的关系。他们重点考察了两种计算能力指标: GPU 数量和 TFLOPs(每秒浮点运算次数),并将这些数据与 2022 至 2024 年间共 34,828 篇录用论 ...