腾讯混元开源首款混合推理MoE模型
Guan Cha Zhe Wang·2025-06-27 10:25
6月27日,腾讯混元宣布开源首个混合推理MoE模型 Hunyuan-A13B,总参数80B,激活参数仅13B,效 果比肩同等架构领先开源模型,但是推理速度更快,性价比更高。这意味着,开发者可以用更低门槛的 方式获得更好的模型能力。 这是业界首个13B级别的MoE开源混合推理模型,基于先进的模型架构,Hunyuan-A13B表现出强大的 通用能力,在多个业内权威数据测试集上获得好成绩,并且在Agent工具调用和长文能力上有突出表 现。 | | | OpenAl-o1-1217 | Deepseek-R1-0120 | Qwen3-A22B | Hunyuan-A13B | | --- | --- | --- | --- | --- | --- | | Mathematics | AIME2024 | 74.3 | 79.8 | 85.7 | 87.3 | | | AIME2025 | 79.2 | 70 | 81.5 | 76.8 | | | MATH | 96.4 | 94.2 | 94 | 94.3 | | Science | GPOA-Diamond | 78 | 71.5 | 71.1 | 71.2 | ...