Sohu芯片
Search documents
开年全球AI独角兽大增,9家新贵总估值达224亿美元
Sou Hu Cai Jing· 2026-02-07 10:17
与2025年相比,这一集中涌现的现象更为突出。睿兽分析数据显示,2025年全球新增独角兽123家,美国75家、中国22家。其中53家为AI相关企业,美国 36家、中国8家。而2026年仅1月就新增9家AI独角兽,其集中程度和融资规模均刷新纪录。 更重要的是,这9家公司大多在极早期(种子轮或A轮)就获得了远超常规的巨额融资。例如,Humans&的4.8亿美元种子轮融资和Etched的5亿美元A+融 资,以及Waabi的7.5亿美元新一轮融资,均创下各自阶段或细分领域的融资纪录。 同期,中国AI领域并未诞生新的独角兽,但也有不少AI公司获得大额融资。据睿兽分析,中国1月融资额位居前10的AI公司,总融资近100亿元人民币。 其中大模型公司阶跃星辰获得超50亿元人民币B+轮投资,位居1月中国AI公司融资额之首。 为什么这9家公司成为独角兽? 作者丨冯汝梅 编辑丨关雎 在2026年的第一个月,AI领域新增多家独角兽公司。 根据睿兽分析的统计数据,截至2026年1月31日,全球新增了24家独角兽公司,这些公司在本月完成了新一轮融资,估值首次突破10亿美元。 24家新增独角兽中,有9家属于AI领域。这9家AI公司本轮融资 ...
开年全球AI独角兽大增,9家新贵总估值达224亿美元
创业邦· 2026-02-07 10:09
「奔向AGI」 栏目聚焦AI大模型、AI agent、AI应用、芯片、机器人等前沿、热门的AI技术和商业 创新。 作者丨冯汝梅 编辑丨关雎 在2026年的第一个月,AI领域新增多家独角兽公司。 根据睿兽分析的统计数据,截至2026年1月31日,全球新增了24家独角兽公司,这些公司在本月完 成了新一轮融资,估值首次突破10亿美元。 24家新增独角兽中,有9家属于AI领域。这9家AI公司本轮融资总额近30亿美元,总估值达224亿美 元。 | | | | 2026年1月新晋Al独角兽 (数据来源: 睿兽分析) | | | | --- | --- | --- | --- | --- | --- | | 序号 | 公司名 | 成立时间 | 最近融资时间、轮次及金额 | 最新估值 | 核心业务 | | | | | (即成为独角兽时间) | | | | 1 | Etched.ai, Inc. | 2022年 | 2026-01-14 | 50亿美元 | 用于Transformer架构的ASIC芯片 | | | | | 5亿美元A+轮 | | | | 2 | humans& ai, inc. | 2025年10月 | 202 ...
哈佛辍学“三剑客”,做AI芯片,刚刚融了35亿
创业邦· 2026-01-24 04:10
专用芯片正在崛起。 作者丨漫地 编辑丨 关雎 三位 从哈佛辍学的 00 后,最近刚为自己的人工智能芯片初创公司 Etched.ai 融了 5 亿美元。 这是人工智能硬件领域规模最大的融资之一,此轮融资使 Etched.ai 的估值接近 50 亿美元,总融资额也接近 10 亿美元。 Etched.ai 的创始人 Gavin Uberti ,今年才 24 岁。 他和另两位创始人 Chris Zhu 、 Robert Wachen 一同 从哈佛辍学后,致力于领导公司打造下一代 人工智能芯片,与芯片巨头英伟达不同的是,他 们 闯出了一条细分赛道 —— 做专用于当 前 AI 主流模型 Transformer 架构 的 ASIC 芯片,从而超越通 用 GPU 芯片。 ASIC 是为了某种特定的用途而定制设计的芯片,而不是像 CPU (中央处理器)或 GPU (图形处理器)那样可以运行各种不同类型的程序。 算力市场的逻辑正在生变。 Etched.ai 何以能挑战英伟达? 从哈佛辍学的创业者 Etched.ai 的成立,要从一位哈佛大学的辍学生 Gavin Uberti 说起。 在创立 Etched.ai 之前, Gavin ...
哈佛辍学生拿下5亿美元融资:不造GPU,也要“绕开”英伟达
是说芯语· 2026-01-15 23:37
Core Insights - Etched, an AI chip company founded by Harvard dropouts, has raised nearly $500 million in a new funding round, achieving a valuation of $5 billion and total funding close to $1 billion [1][12] - The company aims to optimize the cost-performance ratio of AI computing, specifically focusing on running Transformer models more efficiently rather than competing directly with Nvidia's general-purpose GPUs [1][4] Market Context - Nvidia dominates the GPU market, with projected data center sales exceeding $500 billion by the end of 2026 [3] - Etched's analysis indicates that computational density has only improved by about 15% over the past few years, highlighting a need for more efficient solutions [3] Product Overview - Etched has developed a custom chip named Sohu, designed specifically for Transformer architecture, claiming it to be the "fastest AI chip ever" [3][10] - Under specific testing conditions, Sohu can process over 500,000 tokens per second when running the Llama 70B model, outperforming Nvidia's Blackwell GB200 GPU by an order of magnitude [3][4] Competitive Advantage - A server composed of eight Sohu chips can replace 160 H100 GPUs, offering a more economical, efficient, and environmentally friendly option for enterprises requiring specialized chips [5] - Sohu's design focuses on reducing energy consumption while achieving higher efficiency in running Transformer models, distinguishing it from general-purpose GPUs [5][10] Financial Implications - The cost of training AI models exceeds $1 billion, with inference applications potentially surpassing $10 billion; even a 1% performance improvement can justify a custom chip project costing between $50 million to $100 million [5][7] Future Prospects - Etched's chip is manufactured using TSMC's 4nm process and is integrated with HBM memory and server hardware to support production capabilities [10] - The company has plans to expand its technology beyond text generation to include image and video generation, as well as protein folding simulations [16] Industry Landscape - Other companies, such as Meta and Amazon, are also developing specialized AI chips, but Etched's approach focuses solely on Transformer models, avoiding unnecessary hardware components and software overhead [10][17] - The success of Etched hinges on the continued relevance of Transformer models in the AI landscape; a shift away from this architecture could necessitate a reevaluation of their strategy [18]