AI推理
Search documents
报道:英伟达在下月GTC大会推出“新推理芯片”,融入Groq LPU设计
Hua Er Jie Jian Wen· 2026-02-28 03:45
英伟达计划在下个月的GTC开发者大会上发布一款整合了Groq"语言处理单元"(LPU)技术的全新推理 芯片,代表着英伟达正加速向推理计算领域转型,以应对客户对高效能、低成本计算方案的迫切需求。 据华尔街日报报道,这款被英伟达首席执行官黄仁勋称为"世界从未见过"的全新系统,专为加速AI模型 的查询响应而设计。该产品的推出预计将重塑当前的AI算力市场格局,直接影响正在寻找更具成本效 益替代方案的云服务提供商和企业级投资者。 业内分析认为,即将发布的新品可能涉及具备颠覆性的下一代Feynman架构。据华尔街见闻此前文章, Feynman架构可能采用更广泛的SRAM集成方案,甚至通过3D堆叠技术将LPU深度整合其中,专门针对 延迟和内存带宽这两大推理瓶颈进行优化,从而大幅降低AI智能体运行的能耗与成本。 拓展纯CPU部署,提供多元化计算选择 在引入LPU架构的同时,英伟达也在灵活调整其传统处理器的使用方式。英伟达以往的标准做法是将 Vera CPU与其强大的Rubin GPU捆绑在数据中心服务器中,但在处理某些特定的AI智能体工作负载时, 这种配置被证明成本过高且能效不足。 部分大型企业客户发现,纯CPU环境在运行特 ...
江波龙(301308) - 2026年2月25日投资者关系活动记录表
2026-02-27 09:40
深圳市江波龙电子股份有限公司 编号:2026-003 | 投资者关系活动 | √特定对象调研 | □分析师会议 | □媒体采访 | | --- | --- | --- | --- | | 类别 | □业绩说明会 | □新闻发布会 | □路演活动 | | | □现场参观 | □电话会议 | □其他 | | 参与单位名称及 人员姓名 | 东方证券、鹏华基金、Willing Capital | | | | 时间 | 2026 年 2 月 25 日 | (周三) 15:00-16:00 | | | 地点 | 深圳市前海深港合作区南山街道听海大道 | | 5059 号鸿荣源前 | | | 海金融中心二期 B | 座 2301 | | | 上市公司接待人 | 投资者关系经理 | 黄琦 | | | 员姓名 | 投资者关系资深主管 | 苏阳春 | | | | 1、如何看待公司主控芯片的技术能力?公司主控芯片 | | --- | --- | | | 整体的应用规划? | | | 答:公司目前已推出了应用于 UFS、eMMC、SD 卡、高端 | | | USB 等领域的多款主控芯片。公司主控芯片采用领先于主流 | | | 产品的 ...
广发证券:SRAM提升AI推理速度 相关架构进入主流大厂视野
Zhi Tong Cai Jing· 2026-02-27 07:35
广发证券发布研报称,在大模型应用中,相比依赖外置HBM,SRAM可显著降低权重与激活数据的访 延迟与抖动,从而改善Time-to-First-Token与尾时延表现。目前,Groq与Cerebras都相继推出基于 SRAMAI芯片。SRAM架构进入主流视野,根据Groq官网以及市场媒体报道,英伟达此前斥资200亿美 元获得Groq的知识产权的非独家授权;OpenAI与Cerebras签署100亿美元合同,部署多达750兆瓦的定制 AI芯片。 广发证券主要观点如下: SRAM是片上高带宽存储层 存储分级为SRAM、HBM、DRAM和SSD,其中SRAM(静态随机存取存储器)集成在CPU、GPU计算核 心附近的片上存储,具备纳秒级访问时延与高度确定性的带宽特性,带宽高但容量小、成本高。 SRAM可提升AI推理速度 根据Cerebras官网,其晶圆级引擎3(WSE-3)芯片集成44GB SRAM,片上存储带宽达21PB/s,在OpenAI GPTOSS120B推理任务中实现>3000tokens/s的输出速度,较主流GPU云推理快约15×。此外,2026年2 月,OpenAI推出首个运行在Cerebras Syst ...
欧洲头部数据中心运营商再度提价,低费率云计算ETF华夏(516630)涨超1.3%,云天励飞20cm涨停
2 1 Shi Ji Jing Ji Bao Dao· 2026-02-27 06:52
2月27日午后,算力租赁板块延续强势,截至发稿,同标的费率最低一档云计算ETF华夏(516630)涨 幅为1.33%,成分股云天励飞20cm涨停,拓维信息涨停,云赛智联、润和软件、汉得信息等股跟涨。 消息面上,据智通财经,近日欧洲最大的数据中心运营商及云服务商之一Hetzner宣布,由于IT多个领 域成本大幅上涨,公司将于4月1日起调高全线产品及服务报价,包括云服务、专用服务器、存储及负载 均衡器等。本次调价将影响其位于欧洲、美国和新加坡数据中心的新订单及现有订阅用户,德国及芬兰 地区的云服务价格根据配置等级不同,涨幅在30%到38%之间;美国地区的CCX专用vCPU云服务器价 格普遍上涨约30%。值得注意的是,这已是Hetzner本月第二次宣布提价,该公司于2月2日已调高专用服 务器的一次性设置费用。 中银证券最新研报指出,随着模型能力提升,智能体(Agent)与多模态应用进入深水区。算力涨价成 为新迹象,凸显供应瓶颈,算力产业链有望持续受益。 (文章来源:21世纪经济报道) 云计算ETF华夏(516630)聚焦国产AI软硬件算力,按中信二级行业分类,该指数计算机软件+云服务 +计算机设备合计权重高达84. ...
GTC大会前瞻-PCB设备钻针更新-重视LPU带来的增量
2026-02-27 04:00
3 月 16 日英伟达 GTC 大会前瞻中,LPU 为何成为市场关注焦点,其与 GPU 在设计目标、通用性、功耗与推理效率方面的核心差异是什么? LPU 成为关注焦点,主要在于下半年 Robin 的部署节奏以及 LPU 相关进展, 尤其是英伟达在 2025 年 12 月以 200 亿美元"收购"(加引号)Groq 后的整 合进展与 LPU 如何融入英伟达体系,成为 GTC 的重要看点。LPU 在设计上从 一开始面向序列类自然语言处理,GPU 更偏通用,可用于图像处理、游戏等多 类场景;功耗方面,已有证据显示 LPU 功耗约为 GPU 的 1/10。推理效率方面, LPU 的突出特征是推理速度极快:GPU 的数据处理存在不确定性,依赖软件与 LPU 对 PCB 行业影响路径有两条:一是 LPU 单独使用,板卡数量百倍 增长;二是 LPU 与 GPU 混合封装,采用高多层 PCB。后者对应"价" 的逻辑,高层数与高端材料提升单板价值与加工难度,利好高端微钻。 钻针环节利好优先级最高,混合封装 GPU 若采用 M9Q 布,市场优先聚 焦 PCD 微钻方向。沃尔德 PCD 微钻已能钻 1 万个孔,受益于应用场景 变化 ...
补齐AI推理拼图:英伟达黄仁勋揭秘Groq LPU整合路线图
Sou Hu Cai Jing· 2026-02-27 03:45
英伟达凭借 Hopper 和 Blackwell 架构绝对主导了 AI 模型训练市场,并通过 Rubin CPX 架构的注意力加速引擎,覆盖了推理的"预填充"(Prefill)阶段,但 在对延迟极度敏感的"解码"(Decode)环节,公司亟需引入 Groq 的技术来确立行业标杆。 战略布局方面,黄仁勋强调 Groq 将补齐 AI 推理阶段的短板,实现超低延迟的解码能力。AI 行业目前正加速迈向多智能体协同(Agentic AI)时代,应用层 要求极低的延迟和超快的响应速度。 IT之家 2 月 27 日消息,科技媒体 Wccftech 昨日(2 月 26 日)发布博文,报道称在 2026 财年第 4 财季(截至 2026 年 1 月)财报会议上,英伟达 CEO 黄仁 勋透露了收购 Groq 后的核心整合计划。 技术实现方面,英伟达希望全面释放 Groq 的硬件潜力。Groq 的语言处理单元(LPU)采用片上 SRAM(静态随机存取存储器),能够提供每秒数十 TB 的 内部超高带宽。 重要性方面,黄仁勋将此次价值 200 亿美元(IT之家注:现汇率约合 1370.47 亿元人民币)的非授权收购,和当年收购 Mel ...
英伟达2026财年Q4营收681亿美元,数据中心业务占比超91%
Xin Lang Cai Jing· 2026-02-27 02:58
来源:搜狐财经 2月21日,英伟达公布了2026财年第四季度财报,再次以碾压式的数字震撼市场。总营收高达681.3亿美 元,同比增长73%;GAAP净利润达到429.6亿美元,同比猛增94%——相当于平均每天净赚超过4.7亿美 元。营收、利润、现金流三项核心指标均创历史单季新高。 这份财报的核心逻辑只有一个词:AI。所有增长几乎全部由数据中心业务驱动,其单季收入达到623.1 亿美元,占总营收比例历史性地突破了91.5%。这个数字意味着,英伟达已经从一家"游戏显卡公司"彻 底变为全球AI基础设施的核心供应商。 数据中心业务内部,有一个更值得关注的结构性变化:网络业务(Networking)的收入同比暴增 263%,达到110亿美元。这背后是NVLink互联技术的爆发,英伟达通过"计算芯片+高速网络"的系统级 方案,正在把自己的护城河越挖越深。CEO黄仁勋将其描述为"AI工厂"的基础设施:不只是卖一块芯 片,而是卖一套完整的"算力工厂"解决方案。 在一片叫好声中,市场的目光更聚焦于AI的下一战场——推理(Inference)。这里的推理是指AI模型训 练完成后,真正被用户调用、生成回答的过程,所消耗的算力就是推 ...
海力士+闪迪,存储芯片巨头力推 HBF 标准化
3 6 Ke· 2026-02-27 02:56
存储芯片巨头大战下,HBM还在进化,而新型内存HBF(High Bandwidth Flash,高带宽闪存)也加快 了商业化进程。 近日,SK海力士与闪迪联合举办"HBF规格标准化联盟启动"活动,宣布在开放计算项目(OCP)框架 下成立专属工作组,推进HBF的全球标准化。 消息传出后,闪迪盘前股价拉升5%,足以看出市场对该技术的高度期待。 什么是HBF?这并非全新概念,其源于AI产业从训练向规模化推理的转型。 作为"AI推理时代存储缺口解决方案"的核心技术,HBF的标准化启动,标志着下一代存储架构竞争进入 实质阶段。 随着多模态大模型普及,AI服务并发量激增,现有存储架构陷入明显瓶颈:HBM带宽优异但容量有 限、成本高昂,单堆栈仅数十GB;而TB级的SSD虽容量充足,却读写偏慢,无法适配AI推理的实时性 需求。 在全新的AI存储架构下,HBM将负责延迟敏感型任务,而HBF会接替HBM专注于大容量顺序读取的工 作,例如模型参数读取。 两者分工协作、优势互补,精准满足AI推理的性能与功耗双重需求,SK海力士推出的"H3混合架构"就 是用来验证这一逻辑。 该架构将HBM与HBF并列部署于GPU周边,仿真测试显示,其 ...
AI发展驶入“回归商业本质”阶段 国产芯片迎“推理机遇”
Shang Hai Zheng Quan Bao· 2026-02-26 17:59
郭晨凯 制图 ◎记者 李兴彩 春节期间,算力产业链新闻不断。OpenAI"大幅下调"算力投资,引发广泛关注和讨论;Meta与英伟达 达成一项价值数十亿美元的芯片采购协议;Taalas芯片的异军突起引人瞩目…… 不过,在AI应用加速落地的背景下,产业链公司对算力结构、AI大模型乃至于商业模式的需求,都将 发生变化,AI推理算力、国产AI芯片的投资机遇值得重点关注。 算力领域新闻多 产业链景气持续 2月21日,OpenAI宣布,将2030年前的AI基础设施支出目标由1.4万亿美元下调至6000亿美元,引发广 泛关注。知情人士表示,该6000亿美元为纯算力专项支出,聚焦芯片采购与租赁。与此同时,OpenAI 仍在推进超千亿美元的融资,其中90%资金将来自英伟达、软银、亚马逊等战略投资者。 OpenAI CEO山姆·奥特曼于2025年11月演讲中提出,2030年前在AI基础设施上投入约1.4万亿美元,用于 构建全球领先的算力体系,这一广义远景涵盖芯片、电力、土地、数据中心建设等全产业链投入。 对于OpenAI"大幅下调"投资预算,业界给出整体上较为正面的评价。该事件短期情绪上可能利空英伟 达产业链,但长期来看,这意味 ...
美股异动丨闪迪盘前涨超5%,携手SK海力士启动下一代存储器“HBF”全球标准化进程
Ge Long Hui· 2026-02-26 09:22
HBF作为介于高频宽记忆体(HBM)和固态硬碟之间的新型储存阶层,旨在弥合HBM高效能与固态硬碟 大容量特性之间的差距,并满足AI推理场景对容量扩展性与能源效率的双重需求。业界普遍预测,以 HBF为关键零组件的整合式记忆体解决方案,市场需求将在2030年左右迎来全面扩张。(格隆汇) 闪迪(SNDK.US)盘前涨超5%,报665美元。消息面上,当地时间25日,SK海力士与闪迪联合举办"HBF 规格标准化联盟启动会",正式发布面向AI推理时代的下一代存储器解决方案HBF的全球标准化战略。 ...