华为盘古否认抄袭阿里后,其大模型员工自曝存在套壳、续训、洗水印
Qi Lu Wan Bao·2025-07-07 03:50
2025年6月30日,华为高调宣布开源其盘古大模型核心组件(Pangu Pro MoE),包括70亿参数稠密模型和720亿参数的混合专家模型,宣称这 是构建昇腾生态的关键举措。 然而仅隔四天,一项发布于GitHub的研究引发业界关注:用户@HonestAGI 通过"LLM指纹"技术分析指出,盘古Pro MoE与阿里通义千问 Qwen-2.5 14B模型的注意力参数分布相似性高达0.927(1.0为完全一致),远超业内0.7以下的正常差异范围。 华为诺亚方舟实验室7月5日发布最新声明,表示盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模 型增量训练而来。 盘古团队表示,"盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循 开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。" 华为诺亚方舟实验室声明截图 该员工表示,由于团队初期算力非常有限,虽做出了很多努力和挣扎,但没有预期效果,内部的质疑声和领导的压力也越来越大。后来小模型 实验室多 ...