赛道Hyper | 追平全球顶级:千问3推理模型开源
作者:周源/华尔街见闻 7月25日,阿里巴巴开源千问3推理模型。 这是千问系列中首个采用混合专家MoE(Mixture of Experts)架构的代码模型,总参数达480B(4800 亿),原生支持256K token的上下文,可扩展至1M长度,能帮助程序员完美完成写代码、补全代码等 基础编程任务,大幅提升编程工作效率。 混合专家模型(MoE)是一种高效的神经网络架构设计,核心思想是通过分工协作提升模型性能,同时 控制计算成本,尤其在大模型参数规模突破千亿、万亿级后,成为平衡性能与效率的关键技术。 简单说,MoE架构就像一个智能团队:有很多专业分工的成员(专家),但每次任务只让最适合的几个 人干活(门控调度),既保证了效率,又能应对更复杂的需求。 据公开消息称,该模型性能提升显著,在知识储备、编程能力、数学运算等关键维度,与Gemini-2.5 pro、o4-mini等全球顶级闭源模型水平相当。 在7月21日至7月25日期间,阿里连续开源3款重要模型,成就斐然,在基础模型、编程模型、推理模型 领域均获全球开源冠军。 这一系列动作不仅让技术开发者投入研究,也让企业决策者关注这些技术成果在实际业务中的应用,其 ...