Google TPU

Search documents
花旗:Dell‘Oro Q2 2025 数据中心资本支出报告要点
花旗· 2025-06-23 02:09
Flash | 17 Jun 2025 10:01:01 ET │ 9 pages – 1Q market up > 50% YoY to $134bn, driven by accelerated server spend; servers >50% of DC capex, accelerated > general purpose US Communications Equipment Dell'Oro 1Q25 Data Center Capex Report Highlights CITI'S TAKE We summarize key points from Dell'Oro Group's 1Q data center capex report. – General purpose infrastructure was up modestly – Limited impact from tariff-except components. System vendors and hyperscale cloud SPs increased component inventory purchases ...
为什么定义2000 TOPS + VLA + VLM为L3 级算力?
自动驾驶之心· 2025-06-20 14:06
专注于汽车及相关的电子技术研究与讨论 作者 | Xingwei 来源 | 辣笔小星 点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 >>点击进入→ 自动驾驶之心 『大模型』技术交流群 本文只做学术分享,如有侵权,联系删文 以下文章来源于辣笔小星 ,作者Xingwei 辣笔小星 . 小鹏在10亿(1B)、30亿、70亿直至720亿(72B)参数的VLA视觉-语言-行动模型上都验证了这一效应证明 了"参数规模越大模型能力越强"在自动驾驶场景中同样成立。确立了通过"海量高质量数据+大模型驱动"实现自 动驾驶能力的跃升路径。论文中VLM视觉-语言模型专注于"看懂和理解"而VLA视觉-语言-行动模型在VLM基础 上增加了"决策和行动"能力是从理解到执行的进化升级。也是小鹏基于论文提出2000TOPS+VLA+VLM定义L3级 自动驾驶算力新标准的底层逻辑,以及小鹏G7部署30B参数本地运行VLA模型的原因。 2000TOPS算力标准的技术逻辑 自动驾驶系统的算力需求呈现明显的分级特征。小鹏论文中从L2到L3级别的跨越不仅是功能上的提升更是算力 需求的指数级增长。自动 ...
摩根士丹利:全球科技-AI 供应链ASIC动态 -Trainium 与 TPU
摩根· 2025-06-19 09:46
1) AWS Trainium: it remains a global debate whether Marvell will win part of the Trainium3 business (link). At least our checks suggest that Alchip taped out the Trainium3 design back in February, and the wafers were already out in May. Charlie Chan thinks Alchip has a higher chance to win the 2nm Trainium4, which should be decided this summer. Astera Labs and Alchip just formed a partnership in connectivity chip design (I/O chiplets). We think that may help Alchip compete for next-generation XPU ASIC proje ...
全新GPU高速互联设计,为大模型训练降本增效!北大/阶跃/曦智提出新一代高带宽域架构
量子位· 2025-05-19 04:37
InfiniteHBD团队 投稿 量子位 | 公众号 QbitAI 随着大模型的参数规模不断扩大,分布式训练已成为人工智能发展的中心技术路径。 如此一来, 高带宽域的设计对提升大模型训练效率至关重要 。 然而, 现有的 HBD 架构在可扩展性、成本和容错能力等方面存在根本性限制 : 以交换机为中心的HBD (如NVIDIA NVL-72) 成本高昂、不易扩展规模;以GPU为中心的HBD (如 Google TPUv3和Tesla Dojo) 存在 严重的故障传播问题;TPUv4等交换机-GPU混合HBD采用折中方案,但在成本和容错方面仍然不甚理想。 为解决上述问题, 北京大 学、阶跃星辰和曦智科技的研究团队提出了 InfiniteHBD ,这是 一种以光交换模组为中心的高带宽域架构 。 InfiniteHBD 通过将低成本光交换 ( OCS , Optical Circuit Switching ) 能力嵌入每个光电转换模组,实现了数据中心规模的低成本可扩 展性和节点级故障隔离能力。 InfiniteHBD 的单位成本仅为 NVL-72 的 31% , GPU 浪费率接近零 (比 NVL-72 和 TPUv4 ...
Counterpoint:需求强劲 台积电(TSM.US)3nm制程成为其史上最快达成全面利用的技术节点
智通财经网· 2025-05-15 12:39
智通财经APP获悉,5月15日Counterpoint发文,全球晶圆代工市场的龙头企业台积电(TSM.US)在经历2022年末的库存调整后,进一步巩固了其行业的主导地 位。先进制程产能利用率保持高位,凸显了公司技术的领先优势。根据Counterpoint的数据显示,3nm制程凭借Apple A17 Pro/A18 Pro芯片、x86 PC处理器及 其他应用处理器芯片(AP SoC)的巨大需求,在量产后第五个季度就实现了产能充分利用,创下先进制程初期市场需求的新纪录。 至于未来的发展,NVIDIA Rubin GPU的引入,加上Google TPU v7、AWS Trainium 3等专用AI芯片的相继问世,在AI与高性能计算(HPC)应用需求持续攀升 的驱动下,预计未来将延续目前先进制程的高产能。 相比之下,智能手机市场已有制程(比如7/6nm和5/4nm)的初期产能增长较为缓慢。7/6nm制程虽在2020年左右凭借智能手机的需求大涨实现产能充分利用, 但随后增长放缓;而5/4nm制程在2023年年中再次增长,并在NVIDIA H100、B100、B200及GB200等AI加速芯片需求激增的推动下持续恢复。这 ...
TSMC 先进制程产能利用率持续保持强劲
Counterpoint Research· 2025-05-15 09:50
全球晶圆代工市场的龙头企业台积电在经历2022年末的库存调整后,进一步巩固了其行业的主导地 位。先进制程产能利用率保持高位,凸显了公司技术的领先优势。 根据 Counterpoint的数据 显示,3nm制程凭借Apple A17 Pro/A18 Pro芯片、x86 PC处理器及其他应 用处理器芯片(AP SoC)的巨大需求,在量产后第五个季度就实现了产能充分利用,创下先进制程 初期市场需求的新纪录。 至于未来的发展,NVIDIA Rubin GPU的引入,加上Google TPU v7、AWS Trainium 3等专用AI芯片 的相继问世,在AI与高性能计算(HPC)应用需求持续攀升的驱动下,预计未来将延续目前先进制 程的高产能。 相比之下,智能手机市场已有制程(比如7/6nm和5/4nm)的初期产能增长较为缓慢。7/6nm制程虽 在2020年左右凭借智能手机的需求大涨实现产能充分利用,但随后增长放缓;而5/4nm制程在2023 年年中再次增长,并在NVIDIA H100、B100、B200及GB200等AI加速芯片需求激增的推动下持续恢 复。这些AI算力芯片的需求激增不仅加速了AI数据中心建设,更带动5/ ...