腾讯混元推出首款开源混合推理模型:擅长Agent工具调用和长文理解
AI前线·2025-06-28 05:13
整理 | 褚杏娟 6 月 27 日,腾讯混元宣布开源首个混合推理 MoE 模型 Hunyuan-A13B,总参数 80B,激活参数仅 13B,效果比肩同等架构领先开源模型,但是推理速度更快,性价比更高。模型已经在 Github 和 Huggingface 等开源社区上线,同时模型 API 也在腾讯云官网正式上线,支持快速接入部署。 开源地址: Github : https://github.com/Tencent-Hunyuan HuggingFace : https://huggingface.co/tencent 据介绍,这是业界首个 13B 级别的 MoE 开源混合推理模型,基于先进的模型架构,Hunyuan-A13B 表现出强大的通用能力,在多个业内权威数据测试集上获得好成绩,并且在 Agent 工具调用和长文 能力上有突出表现。 | | | OpenAl-o1-1217 | Deepseek-R1-0120 | Qwen3-A22B | Hunyuan-A13B | | --- | --- | --- | --- | --- | --- | | Mathematics | AIME2024 | 74 ...