“DeepSeek-V3基于我们的架构打造”,欧版OpenAI CEO逆天发言被喷了
量子位·2026-01-26 04:45

鱼羊 发自 凹非寺 量子位 | 公众号 QbitAI "DeepSeek-V3是在Mistral提出的架构上构建的。" 欧洲版OpenAI CEO此言一出,炸了锅了。 网友们的反应be like: 这还是温和派,还有更直接的吐槽:Mistral在胡说八道些什么…… 还没吃上瓜的家人们别着急,咱们从头捋一捋这事儿: 在最近一次访谈中,当被问到如何看待中国开源AI的强势发展时,Mistral联合创始人、CEO Arthur Mensch这样回应: 中国在AI领域实力强劲。我们是最早发布开源模型的公司之一,而他们发现这是一个很好的策略。 开源不是真正的竞争,大家在彼此的基础上不断进步。 比如我们在2024年初发布了首个稀疏混合专家模型(MoE),DeepSeek-V3以及之后的版本都是在此基础上构建的。它们采用的是相 同的架构,而我们把重建这种架构所需的一切都公开了。 Arthur Mensch很自信,但网友们听完表示:桥豆麻袋,这不对劲。 且不说DeepSeek MoE论文的发布时间和Arthur Mensch提到的Mixtral论文相差 仅3天 : △ 图源:@Sebastian Raschka 认真细扒起来, ...

“DeepSeek-V3基于我们的架构打造”,欧版OpenAI CEO逆天发言被喷了 - Reportify