MiniMax重磅开源M1模型:百万上下文超DeepSeek R1,实现性能与效率双杀
AI科技大本营·2025-06-17 02:32
大模型全面迈入"长上下文、低成本、高推理"阶段。 MiniMax 正式开源其首个推理模型 M1,原生支持百万级上下文长度,在推理效率、计算成本和复杂任务能力上展现出与 DeepSeek R1、Qwen3-235B 等 模型不同的技术路径与性能表现。 责编 | 梦依丹 出品丨AI 科技大本营(ID:rgznai100) 国内 AI 六小虎之一的 MiniMax 在其官方 X 平台宣布,正式开源其最新研发的大语言模型 MiniMax-M1。此举作为其"MiniMaxWeek"系列发布活动 的首日亮点。 MiniMax-M1 被称为是全球首个开放权重的大规模混合注意力推理模型。凭借混合门控专家架构(Mixture-of-Experts,MoE)与 Lightning Attention 的结合,MiniMax-M1 在性能表现和推理效率方面实现了显著 突破。 相关链接: M1 上下文 8 倍 DeepSeek,计算量仅 1/4 性能与效率双杀 M1 是基于此前发布的 MiniMax-Text-01 模型打造, 具备 4560 亿参数规模,其中每个 token 激活约 459 亿参数。模型原生支持最长 100 万 t ...