Workflow
OpenAI的命门,决定了大模型公司的未来
Hu Xiu·2025-09-03 06:26

2025年年初,DeepSeek在国外开源社区首先爆火,一个很重要的原因就是,DeepSeek几乎将同性能模型的推理算力和 训练算力成本都降到了10%以内。MoE架构也在GPT-4发布之后,逐渐取代了稠密架构,成为了几乎所有大模型开发 商的默认选项,最核心的原因也是能够有效降低模型推理的算力成本。 而OpenAI伴随着GPT-5发布第一次与用户见面的"路由(routing)"功能,设计本意也是代替用户来把简单问题匹配到 低消耗模型,复杂问题匹配到能力和算力消耗高的推理模型,从而有效提升用户体验和算力效率,但却变成AI圈最知 名的"降本增笑"事件。 如果Scaling Law是指导大模型能力提升最重要的标尺,那么"算力成本控制"就是大模型行业发展和商业化的基石。 而造成翻车最直接的原因,就是他们强推的路由功能没能将用户的预期和相应的模型能力匹配好。 那么问题来了,为什么OpenAI冒着GPT-5"发布即翻车"的风险,也要强推路由功能? 即便是GPT-5发布接近了一个月,OpenAI还是没有能让所有用户满意,网友依然还在吐槽,GPT-5没有办法解决一些 很简单的问题。虽然随着OpenAI回滚了GPT-4o,还让用 ...