直播预告:「开箱」华为盘古首个开源大模型
机器之心·2025-07-02 10:40
这周一,开源阵营又迎来一个重磅玩家 —— 华为盘古。 这次,这个新玩家一口气宣布了两个大模型的开源 ——70 亿参数的稠密模型 「 盘古 Emb edded 」和 720 亿参数的混合专家模型「 盘古 Pro MoE 」,甚至连基 于昇腾的模型推理技术也一并开源了。 | pangu-pro-moe | ☆ 108 | pangu-embedded | 公 37 | | --- | --- | --- | --- | | 盘古 Pro MoE (72B-A16B): 昇腾原生的分组混合专家模型 | | 盘古 Embedded (7B):灵活切换快慢思考的高效7B模型 | | | | | ☆ 37 ¥ 4 | | | ascend-inference-cluster | ☆ 115 | ascend-inference-system | △ 40 | | 昇腾超大规模MoE模型推理部署技术分享 | | 异腾盘古推理系统技术 | | | ☆ 115 ¥ 22 | | · Python ⭐ 40 ዓ° 6 | | 综合来看,这两个大模型都不是「等闲之辈」:在 SuperCLUE 5 月榜单上,盘古 Pro ...