AI三国杀:OpenAI狂卷,DeepSeek封神,却被Mistral偷了家?
Seek .Seek .(US:SKLTY) 3 6 Ke·2025-12-03 11:55

就在昨天,「欧洲版DeepSeek」一口气公布了两件事: 一个MoE大模型:Mistral Large 3 一套小模型:Ministral 3(14B/8B/3B) 全部开源、全部多模态、全部能落地。 Mistral Large 3 这次Mistral推出的Mistral Large 3,规格上看几乎是「开源界的准天花板」: 41B active / 675B total的MoE架构、原生图像理解、256k context、多语言能力在非英中语种上强得离谱,LMArena排名直接杀到开源模型第6。 Mistral Large 3的ELO得分在开源大模型中稳居第一梯队,和Kimi K2打成平手,仅落后DeepSeek v3.2一小截 它的底模表现也不弱,在多个基础任务上与DeepSeek、Kimi这种体量更大的模型正面交手。 Mistral Large 3(Base)在MMLU、GPOA、SimpleQA、AMC、LiveCodeBench等多项基础任务上与DeepSeek 37B、Kimi K2 127B保持同一水平,属于开源 系的第一梯队底模 再看预训练能力,它和Qwen、Gemma的底模在核心评测上也是正 ...