DeepSeek终于把OpenAI逼急了

摘要: 中国开源模型的爆发式发展很难不触动OpenAI的神经,以及硅谷的神经。 北京时间8月6日凌晨,OpenAI突然发布了其首个开源语言模型 GPT-OSS,在全球科技圈投下了一枚炸弹。 具体来看,gpt-oss-120b采用了MoE架构,拥有1170亿参数,其中激活参数约51亿,仅需在单张80GB的GPU上就能运行,其性能与闭源的o4-mini十分接 近。 而gpt-oss-20b同样基于MoE架构,有210亿参数,激活参数约36亿,可在配备16GB内存的设备上流畅运行,性能表现接近o3-mini。 其实,回顾过去几年,OpenAI一直在走"闭源+收费"的路线。无论是GPT-4还是GPT-4o,核心模型始终没有开放。业界也一度认为,"最强模型永远不会开 源"。 但GPT-OSS的出现,打破了这一共识。 据OpenAI官方称,GPT-OSS是一款"小型但高效"的语言模型,训练数据涵盖多语种、多领域。 更重要的是,OpenAI声称该模型"可以免费用于商业用途",这对中国乃至全球的AI初创企业来说,简直是"天降神兵"。 准备向国产模型宣战? 作为ChatGPT世代的开创者,OpenAI此举意味着一个巨大的转向: ...