Workflow
【腾讯开源混元-A13B模型】6月27日讯,6月27日,腾讯发布并开源混元-A13B模型。据介绍,作为基于专家混合(MoE)架构的大模型,总参数800亿、激活参数130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与计算开销;极端条件下仅需1张中低端GPU卡即可部署。
news flash·2025-06-27 08:05

腾讯开源混元-A13B模型 跟踪腾讯动态 +订阅 金十数据6月27日讯,6月27日,腾讯发布并开源混元-A13B模型。据介绍,作为基于专家混合(MoE) 架构的大模型,总参数800亿、激活参数130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与 计算开销;极端条件下仅需1张中低端GPU卡即可部署。 ...