Workflow
多token预测机制
icon
Search documents
阿里巴巴开源新架构Qwen3-Next 训练成本大幅下降 引入混合注意力机制
Zhi Tong Cai Jing· 2025-09-12 06:12
9月12日,阿里巴巴(09988)通义发布下一代基础模型架构Qwen3-Next,并开源了基于该架构的Qwen3- Next-80B-A3B系列模型。该模型包含两个版本:更擅长理解和执行指令的指令(Insctruct)模型,以及更 擅长多步推理和深度思考的推理(Thinking)模型。 据介绍,相比Qwen3的MoE(混合专家)模型结构,Qwen3-Next进行了以下核心改进:混合注意力机制、 高稀疏度MoE结构、一系列训练稳定友好的优化,以及提升推理效率的多token预测机制(简称MTP, Multiple-Token Prediction)。 具体表现方面,新模型总参数80B仅激活3B,性能可媲美千问3旗舰版235B模型,模型计算效率大幅提 升。Qwen3-Next训练成本较密集模型Qwen3-32B大降超90%,长文本推理吞吐量提升10倍以上,并可支 持百万Tokens(文本处理的最小单位)超长上下文。 阿里巴巴通义团队指出,高稀疏MoE架构是Qwen3-Next面向下一代模型的最新探索。当前,MoE是主 流大模型都采用的架构,通过激活大参数中的小部分专家完成推理任务。此前,Qwen3系列的MoE专家 ...