Workflow
为什么 OpenAI 们都要搞 AI 基建?Groq 创始人把背后的逻辑讲透了
NvidiaNvidia(US:NVDA) Founder Park·2025-10-10 13:27

本篇文章转载自「AI产品阿颖」 如果你留意的话,会发现最近 OpenAI 在芯片和数据中心方向出手颇多。 它一手在自建芯片,另外一手又着手和英伟达、AMD、Oracle 等公司合作,推动新一代的 AI 基础 设施建设。 为什么要这么干?芯片、数据中心对于 AI 的意义是什么?自研芯片的难点在哪里?目前的芯片热 是泡沫吗? Groq 创始人 Jonathan Ross 的最新一期访谈,能很好地回答这些问题。 进群后,你有机会得到: 01 芯片要自建?难得很 Groq 是一家专注超低时延 AI 推理的 LPU 芯片与云服务公司,他们将自己定位为英伟达的最大挑 战者。 这期播客访谈的信息量很大: 「如果现在给 OpenAI 的推理算力翻一倍,给 Anthropic 的推理算力翻一倍,那么在一个月之内, 他们的收入几乎会翻倍。」 AI 应用的增长目前完全受限于算力的供给,谁能获得更多算力,谁 就能服务更多用户,赚更多钱。 AI 与以往的技术革命不同,其增长几乎不受单一要素的制约。AI 的三要素:数据、算法、算 力,只要提升其中任意一项,AI 的整体表现就会变好。而在实践中,最容易调整、见效最快的就 是算力。 传统观念 ...