Workflow
ArtifactsBench
icon
Search documents
赛道Hyper | 腾讯混元开源Hunyuan-A13B:1张AI卡搞定
Hua Er Jie Jian Wen· 2025-07-02 12:15
作者:周源/华尔街见闻 6月27日,腾讯混元宣布开源首个混合推理MoE(专家混合模型:Mixture of Experts)模型Hunyuan- A13B,同时发布ArtifactsBench和C3 - Bench两个新数据集,为大模型领域的发展提供了新的技术资源和 评估工具。 Hunyuan-A13B模型总参数为800亿(80B),激活参数130亿(13B),这样的参数配置在推理效率上有 一定优势。 对比同等架构的开源模型,以常见的Transformer架构模型为例,Hunyuan-A13B在处理相同规模任务 时,推理速度提升明显,计算资源消耗相对较低。 作为首个开源的13B级别MoE混合推理模型,在多个业内权威数据测试中,该模型展现出一定的通用能 力,特别是在Agent工具调用和长文处理方面表现出特色,这使其在实际应用场景中具备差异化竞争 力。 目前,模型已接入开源主流推理框架生态,支持多种量化格式,包括INT4、INT8等。在相同输入输出 规模下,其整体吞吐能力达到前沿开源模型的2倍。 腾讯混元通过构建多Agent数据合成框架,提升Hunyuan-A13B的工具调用能力。 该框架整合了MCP(大模型上下 ...