从“更快”到“更省”:AI下半场,TPU重构算力版图
3 6 Ke·2026-02-09 02:47

当谷歌的大模型 Gemini 3 在2025年末以惊人的多模态处理速度和极低的延迟震撼业界时,外界往往将目光聚焦于算法的精进。然而,真正的功臣正沉默 地跳动在谷歌数据中心的机架上——那就是他们潜研10年的 TPU (Tensor Processing Unit)。 长期以来,英伟达凭借其"通用而强大"的 GPU 统治了模型训练的黄金时代。但随着大模型走进规模化应用爆发期,算力逻辑正发生本质改变:"训练为 王"的旧秩序正在瓦解,"推理为王"的新时代已经降临。 当专用架构的极致效率突破了通用架构的冗余局限,以 TPU 为代表的 ASIC 芯片正以不可阻挡之势,从英伟达手中接过主角的剧本,重塑全球AI算力的 权力版图。 成本为王,芯片变了 这些年,在海内外厂商的共同推动下,大模型和人工智能成为了几乎人尽皆知的热词。所谓大模型,其诞生有点像一个人的成长:先通过预训练"博览群 书",在海量文本中学习语言结构和世界知识;再通过指令微调,学会如何按人类要求组织和表达回答;接着借助基于人类反馈的强化学习,对齐输出风 格与边界,使回答更符合人类偏好;最后经过压缩和工程优化部署到服务器上,在与用户交互时实时解析输入,并以逐词预测 ...