Workflow
GPU(通用芯片)
icon
Search documents
博通打算做空英伟达
3 6 Ke· 2026-01-22 02:42
刚刚,我看了高盛发布的一份报告。 发布时间是1月20日。名字比较长,叫 《Inference Cost Curve: Comparing AI Compute Solutions (GPUs vs. ASICs)》(中文直译:《推理成本曲线:AI 计算方案对比(GPU vs. ASIC)》)。 核心观点是,随着谷歌和博通(Broadcom)的最新一代 TPU v7 芯片量产,它单位算力的推理成本居 然暴降了 70%。 01 这 70% 降幅,到底意味着啥?要只看硬件参数,估计有人会觉得「不就是芯片常规升级嘛」。 但高盛想表达的核心是,这 70% 的降幅,本质上,要在物理规则层面打破行业原有逻辑了。 这话该怎么理解?要掰扯清楚,我得先把「推理」和「训练」这两个词拆开来讲明白。 过去两年,AI 行业都处在「造车」的阶段,说白了,训练大模型。谁的引擎,也就是算力,够强,谁 就能最先造出「布加迪」这种顶级模型。 那时,英伟达的H100/H200 是独有的选择,哪怕贵到离谱,大家也得咬牙买,就因为它的速度最快。 但现在不一样了,车基本造好了,该进入「跑车接客」的阶段了,也就是做模型推理。这时,老板们最 关心:每跑一公里 ...