OpenAI
Search documents
圣诞假日前夕华尔街空头猛增,“AI交易”能否逆转颓势?
Di Yi Cai Jing· 2025-12-19 09:16
经历了11月的AI抛售,此次AI热门股的再度下挫主导了这波下跌。 尽管周四(18日)美股有所反弹,但市场仍弥漫着焦虑。周三时,纳斯达克指数1.9%的跌幅是18个交 易日以来最大的单日跌幅。"AI杠杆王"甲骨文(ORCL)股价下跌5.4%,跌至六个月低点,自9月高点 下跌45%;此前备受追捧的新晋"AI卖铲人"博通因一份财报而重挫,截至周三时周跌幅高达近9.4%,较 前期高位下跌约20%。据第一财经了解,近期做空规模⼤幅上升并以对冲基⾦为主,出现⾃5⽉以来最 ⼤的⼀次增幅。 美国资产管理公司Amont Partners董事总经理李肇宇(Rob Li)对第一财经表示,除了杠杆率高,甲骨 文的动荡主要受到OpenAI融资能力的影响,9月时引发甲骨文暴涨的巨额公司未实现履约义务(RPO, 尚未确认的已签约收入),在这5233亿美元RPO中,来自OpenAI的合同规模就占到3000亿美元;博通 的暴跌则是源于2026财年指引上调缺乏上行空间,加之大家担心谷歌今后做自己自有定制方案会吃掉博 通业务。尽管实际情况并无需过度担忧,但由于对冲基金杠杆较高且估值不便宜,AI热门股容易遭 遇"杀估值"。 圣诞前的一周,华尔街空头罕 ...
Sam Altman 最新访谈:OpenAI 想赢的不是下一次发布会,而是下一代入口
3 6 Ke· 2025-12-19 09:13
2025 年 12 月19日,《Big Technology Podcast》放出了一期罕见的一对一长访谈:Alex Kantrowitz 对话 OpenAI CEO Sam Altman。 这个时间点很微妙。外界刚经历一轮"竞品密集上新",市场同时在追问 OpenAI 三个问题:你还怎么赢? 钱从哪来、为什么要花到天文数字?以及 ChatGPT 这条产品线到底会长成什么样? 更关键的是,Altman 在这期访谈里反复强调的并不是"模型分数",而是一套更长期的胜负手:红色代码式 的组织应激、个性化与记忆带来的迁移成本、企业市场的加速、以及算力基建的账本逻辑。这些东西,比 任何一次 benchmark 更容易决定 OpenAI 接下来两三年的走向。 视频来源:https://www.youtube.com/watch?v=2P27Ef-LLuQ&t=19s 竞争白热化时,OpenAI 的第一反应是"进入红色代码" 访谈开场,主持人就把气氛拉到极致:竞品发布后 OpenAI 进入"红色代码",是不是意味着"慌了"? Altman 的回应反而像在讲一套内部流程:红色代码在 OpenAI 并非灾难状态,而是一种低风险 ...
Robinhood's Vlad Tenev Addresses Bernie Sanders' AI Concerns: Says This Is Why We Need To Give 'Retail Investors Exposure To Private AI Companies' - Robinhood Markets (NASDAQ:HOOD)
Benzinga· 2025-12-19 09:12
Stock trading platform, Robinhood Markets Inc.’s (NASDAQ:HOOD) CEO, Vlad Tenev, weighed in on the growing political backlash against artificial intelligence (AI), responding directly to concerns raised by Sen. Bernie Sanders (I-VT) over the rapid expansion of AI data centers and their potential societal impact.Bats For Retail Exposure To Private AI CompaniesOn Thursday, in a post on X, Tenev said that the fears surrounding AI are rooted in a growing sense of economic exclusion among everyday Americans. Addr ...
阿联酋资本托底美股?不仅注资OpenAI,更把甲骨文从债务悬崖边拉了回来
Hua Er Jie Jian Wen· 2025-12-19 09:03
市场分析认为,鉴于此前已投入的巨额资金,阿联酋资本此时选择继续注资,在某种程度上反映了"大而不能倒(Too Big To Fail)"的逻辑——从 2008年的金融机构延伸至如今的人工智能龙头企业,资本必须继续投入以维持系统的运转。 对于二级市场投资者而言,这笔融资的意义远超OpenAI本身,它直接关系到甲骨文等关键供应商的资产负债表健康。此前,市场普遍担忧 OpenAI无法产生足够的收入来支付其对Oracle和CoreWeave等公司的巨额算力基础设施承诺。这种担忧导致Oracle被巴克莱银行下调债务评级,其 信用违约互换(CDS)价格一度飙升至约156个基点的16年高位,市场甚至开始定价其未来5年的破产风险。 此轮融资对产业链具有显著的提振效应。OpenAI所获资金将主要用于支付算力成本,这意味着像甲骨文这类数据中心服务商将获得持续且稳定的 收入来源。受此影响,周四盘后甲骨文股价涨超5%。 在市场担忧AI泡沫破裂的关键时刻,来自阿联酋(UAE)的资本可能成为扭转局面的关键力量。 据华尔街日报报道,OpenAI正计划筹集高达1000亿美元的资金,预计将寻求阿联酋主权财富基金的投资。此前,OpenAI已获得阿 ...
美国「曼哈顿计划」启动,OpenAI谷歌等24巨头打响「科技珍珠港之战」
3 6 Ke· 2025-12-19 07:54
今天,重磅消息来了:美国的AI曼哈顿计划,正式启动! 就在刚刚,美国能源部白宫签署了历史性的合作文件,这个被命名为「创世纪任务」的国家计划,终于将最顶尖的AI技术与国家实验室的科研能力结合 了起来。 参与方包括微软、谷歌、英伟达、OpenAI、DeepMind、Anthropic等几乎所有的美国科技巨头! 这个「创世纪」计划,可以称为美国的AI曼哈顿计划,史上首次,规模宏大,影响深远。 这,是一个奇点时刻。 2025年11月,美国政府正式启动这个国家级战略计划,由总统发布行政命令。目标是—— 打造全国首个AI驱动的科研平台,用人工智能与超级计算能力加速科学发现。 从此,美国的AI模型和计算平台,将首次全面应用于可控核聚变、能源材料发现、气候模拟、量子计算算法等重大科学研究,这标志着美国在科技领域 的国家级战略调整——从各自为战,转向系统性的集体攻关。 消息一出,网友们兴奋表示:「这是一次高水平合作」。 「如今的AI,已经成为国家级的战略资产」。 一张白宫签署的协议,集结了从微软、谷歌到OpenAI、DeepMind等24家顶尖科技企业,一场重塑美国科研未来的AI「超级合众国」计划正在拉开序幕。 OpenAI谷 ...
募资最高1000亿美元,估值或达8300亿美元 最快明年1季度完成!更多报道披露OpenAI最新融资细节
Xin Lang Cai Jing· 2025-12-19 06:46
来源:华尔街见闻 OpenAI正计划在一轮新的融资中募集高达1000亿美元资金,以支持其雄心勃勃的增长计划。 据《华尔街日报》19日援引知情人士透露,这轮融资目前处于早期阶段。如果OpenAI能顺利募集到全 额目标资金,其公司估值可能高达8300亿美元。该初创公司计划最快在明年第一季度末完成这轮融资, 不过交易条款仍可能发生变化。 目前尚不清楚是否有足够的投资者需求来通过这一目标。此次融资将是OpenAI在公开市场对人工智能 支出的狂热情绪消退后面临的最大考验之一。尽管对人工智能泡沫的担忧已经对许多相关科技股造成压 力,OpenAI仍需积极寻求大量资本以保持竞争力。 OpenAI首席执行官Sam Altman此前已在全球范围内寻找投资者以建立资本池,据《华尔街日报》此前 报道,该公司正在权衡潜在的首次公开募股(IPO)。为了在快速变化的市场中构建其人工智能模型, OpenAI需要极其充裕的资金支持。 巨额注资与战略布局 在这一轮大规模融资计划背后,软银集团已同意向OpenAI投资300亿美元。为了资助这一赌注,软银在 上个月出售了价值58亿美元的英伟达股份。预计到今年年底,OpenAI将从软银处获得剩余的22 ...
Mamba作者团队提出SonicMoE:一个Token舍入,让MoE训练速度提升近2倍
机器之心· 2025-12-19 06:38
表 1 : MoE 扩展趋势:在此,团队将激活率展示为每个 Token 激活的专家数 K / 专家总数 E ;针对前沿开源模型,专家粒度展示为模型嵌入维度( d ) / 专家中间层大小( n )。在 MoE 稀疏度计算中未包含 共享专家。趋势表明,新的开源 MoE 模型倾向于具备更高的粒度和稀疏度。 然而,这种追求极致粒度和稀疏性的设计导致了严重的硬件效率下降问题: 机器之心编辑部 混合专家(MoE)模型已成为在不显著增加计算成本的情况下,实现语言模型规模化扩展的事实标准架构。 近期 MoE 模型展现出明显的高专家粒度(更小的专家中间层维度)和高稀疏性(在专家总数增加的情况下保持激活专家数不变)的趋势,这提升了单位 FLOPs 的 模型质量。 这一趋势在近期的开源模型中表现尤为明显,例如 DeepSeek V3、Kimi K2 以及 Qwen3 MoE 等, 它们均采用了更细粒度的专家设计(更小的中间层维度)和更高 的稀疏度,在保持激活参数量不变的同时大幅增加了总参数量。 | Model | Release date | Parameters | Expert activation ratio (K/E) E ...
甲骨文百亿项目融资突然“告吹” 美国AI泡沫恐慌来袭
Xin Lang Ke Ji· 2025-12-19 06:22
这一叙事迅速传导至资本市场。甲骨文股价从 4 月 21 日的约 122 美元一路上涨,在 9 月初一度冲至 320 美元以上,也让 81 岁的联合创始人埃里森以约 3832 亿美元的身家,短暂超过马斯克,重回世界首 富宝座。几乎在同一时期,主导云计算基建项目的 Clay Magouyrk 被提拔为甲骨文联席 CEO。 美国时间12月中旬,有报道称,甲骨文在美国数据中心项目的主要支持者Blue Owl Capital将不会资助密 歇根州一个价值100亿美元的数据中心。 这被视为百亿项目融资"告吹",该消息迅速放大并引发市场对AI泡沫的担忧。实际上,自9月初见顶以 来,甲骨文股价已下跌近45%。 作为近两年推动美股牛市的关键因素,AI行业对于明年市场的走向依然至关重要。难道,美国此轮 AI 基建周期已经提前来到了拐点? 甲骨文的AI故事不香了? 7 个月前,甲骨文官方账号在社交媒体上发布了一段颇具象征意味的视频。画面中,时任甲骨文云基础 设施负责人 Clay Magouyrk 正带领 OpenAI CEO 山姆·奥特曼(Sam Altman)参观德克萨斯州阿比林 (Abilene)首个"星际之门(Stargate ...
谷歌版两门「小钢炮」开源,2.7亿参数干翻SOTA
3 6 Ke· 2025-12-19 06:17
Core Insights - Google has made significant advancements in the field of AI with the release of T5Gemma 2 and FunctionGemma, focusing on small models that can operate efficiently on edge devices [1][3][37] Group 1: T5Gemma 2 Overview - T5Gemma 2 is part of the Gemma 3 family and emphasizes architectural efficiency and multimodal capabilities, distinguishing itself from larger models like Gemini [3][4] - The model is available in three sizes: 270M, 1B, and 4B parameters, showcasing its versatility [5] - T5Gemma 2 outperforms corresponding models in the Gemma 3 series across various benchmarks, particularly in code, reasoning, and multilingual tasks [9][11] Group 2: FunctionGemma Overview - FunctionGemma is designed for function calling optimization, allowing it to run on mobile devices and browsers, making it suitable for applications like voice assistants and home automation [7][40] - The model has 270M parameters and is optimized for specific tasks, demonstrating that smaller models can achieve high performance in targeted areas [44][46] - FunctionGemma aims to transition AI from a conversational interface to an active agent capable of executing tasks and interacting with software interfaces [43][56] Group 3: Architectural Innovations - T5Gemma 2 represents a return to the encoder-decoder architecture, which is seen as a modernized revival of classical Transformer models, contrasting with the dominant decoder-only models like GPT [14][30] - The model's architecture allows for better handling of "hallucination" issues and provides inherent advantages in multimodal tasks [32][34] - Google employs a technique called "model adaptation" to efficiently train T5Gemma 2, leveraging existing models to reduce computational costs [36] Group 4: Strategic Implications - The release of these models reflects Google's strategic positioning in the AI landscape, particularly in mobile computing and edge AI, as it seeks to maintain control over the Android ecosystem [52][64] - FunctionGemma's design philosophy aims to democratize AI capabilities across various applications, making advanced functionalities accessible to developers without significant infrastructure costs [64] - By establishing a standard protocol for AI interactions with applications, Google is enhancing its competitive edge in the mobile AI market [57][58]
太狠了,奥特曼亲手「干掉」GPT-5.2,OpenAI祭出最强编程AI
3 6 Ke· 2025-12-19 06:11
GPT-5.2-Codex,深夜突袭! 它是OpenAI迄今为止,最强的AI智能体编程模型,专为复杂、真实世界软件工程而打造。 从名字可以看出,GPT-5.2-Codex基于GPT-5.2进一步优化版本,它在多项能力上实现了关键改进: ·上下文压缩,提升了长周期任务处理能力 ·在大型代码变更,如重构与迁移上性能更强 ·在原生Windows环境下,编程能力显著增强 ·网络安全能力最强 奥特曼宣称,「OpenAI们」已经用上了,而且还取得了非常好的成效。 在基准测试中,GPT-5.2-Codex在软件工程、终端测试中,击败了5.1-Codex-Max、GPT-5.2、GPT-5.1。 OpenAI博客中多次重点强调,GPT-5.2-Codex在网络安全上,达到了迄今为止最高水平。 就在上周,一位安全研究员用GPT-5.1-Codex-Max+Codex CLI,直接挖出了一个导致源代码泄露的React漏洞。 在业内专业基准测试中,5.2-Codex在SWE-Bench Pro和Terminal-Bench 2.0上刷新SOTA。 今天起,所有付费用户皆可用上GPT-5.2-Codex,API将在未来几周开放。 G ...