Workflow
腾讯,重磅开源
Zheng Quan Shi Bao·2025-06-27 15:32

业界首个13B级别的MoE(混合专家)开源混合推理模型,以小参数实现大智慧。 6月27日,腾讯混元宣布开源首个混合推理MoE模型Hunyuan-A13B。这一模型总参数为80B,但激活参数仅为13B,以小参数实现了比肩同等架构领先开 源模型的成绩,具有推理速度更快,性价比更高的优势。目前,该模型已经在Github和Huggingface等开源社区上线,同时模型API也在腾讯云官网正式上 线,支持快速接入部署。 此外,今年2月,腾讯混元发布了新一代快思考模型TurboS,旨在将擅长快思考的TurboS与擅长慢思考的混元T1结合起来,弥补单一推理模型响应速度不 及时的不足,让大模型更智能、更高效地解决问题。此次开源的Hunyuan-A13B可以根据需要选择快慢思考模式。腾讯混元表示,这种融合推理模式优化 了计算资源分配,能够在效率和特定任务准确性之间取得平衡。 Hunyuan-A13B本次升级更新及对外开源,是腾讯继混元large后推出的又一重要开源模型,参数更小,但性能和效果实现了大幅的提升。腾讯混元表示, 未来还计划推出将推出更多尺寸、更多特色的模型,适配企业与端侧不同需求,混元图像、视频、3D等多模态基础模 ...