华为大模型也加入开源大军了
Hua Er Jie Jian Wen·2025-06-30 10:16
自四年前盘古大模型首次亮相以来,AI大模型行业风云变幻,不少AI大模型厂商加入开源大军。一直坚持闭源大模型的华为, 如今也终于决定打开盘古的大门了。 6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。 作者 | 黄昱 编辑 | 刘宝丹 这是华为首次开源盘古大模型。 华为方面表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行 百业的应用与价值创造。 据悉,盘古Pro MoE 72B模型权重、基础推理代码,基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台;盘古7B相关 模型权重与推理代码将于近期上线开源平台。 华为首次开源大模型选择了两款可应用广泛的模型。 70亿参数的稠密模型采用双系统框架,参数量适中、性能均衡、部署门槛较低,具备"快思考"和"慢思考"能力,可根据任务复杂 度自动切换推理模式。 同时,该模型专为在昇腾 NPU 上优化部署,兼顾推理速度与推理深度,在 AIME、GPQA 等复杂推理基准测试中,超越 Qwen3- 8B、GLM4-9B 等同量级模型,适用于智能客服、 ...