盘古Pro MoE 72B

Search documents
华为盘古大模型事件的“三重门”
Jing Ji Guan Cha Wang· 2025-07-09 22:55
经济观察报 记者 周悦 7月4日,开源社区GitHub用户HonestAGI发布研究报告称,通过一种"模型指纹"技术(分析Transformer层注意力参数的标准差分布),发现华为盘古Pro MoE 72B与阿里通义千问Qwen-2.5 14B模型的相似度高达0.927(在统计学上,完全一致为1),远超业内通常的0.7阈值。 经济观察报检索该报告引用的文献内容,发现部分文献无法在公开数据库中查验。截至发稿前,该报告已经在Github删除,HonestAGI主页无法找到。 此外,原报告发布在GitHub页面,但点赞(stars)、收藏(forks)等数据数较低;相比之下,其他具备社区共识的模型安全/评估工具如OpenLlama Eval等, 往往在发布几小时内即获得数百互动。作为对比,OpenLlama Eval点赞目前超过7500,收藏超过400。 该报告作者认为,盘古模型可能在千问模型的基础上进行了增量训练,而非完全从零训练。 事涉华为和阿里,这一报告引发关注。支持者认为,两个模型在众多注意力参数上呈现近乎一致的分布,自然发生(非人为干预)的可能性较低。质疑者则 指出,这一方法过于简化,来自Github、知 ...
通信行业周报:甲骨文超300亿云服务协议落地,关注算力全链-20250707
Guoyuan Securities· 2025-07-07 04:13
——通信行业周报 [Table_Summary] 报告要点: 市场整体行情及通信细分板块行情回顾 周行情:本周(2025.6.29-2025.7.5)上证综指上涨 1.40%,深证成 指上涨1.25%,创业板指上涨 1.50%。本周申万通信回调0.10%。考 虑通信行业的高景气度延续,AI、5.5G 及卫星通信持续推动行业发 展,我们给予通信行业"推荐"评级。 细分行业:本周(2025.6.29-2025.7.5)通信板块三级子行业中,通 信线缆及配套上涨幅度最高,涨幅为 1.02%,其他通信设备回调幅度 最高,跌幅为 2.49%,本周各细分板块呈回调趋势。 [Table_Main] 行业研究|电信服务 证券研究报告 电信服务行业周报 2025 年 7 月 7 日 [Table_Title] 甲骨文超 300 亿云服务协议落地,关注算力全链 个股方面:本周(2025.6.29-2025.7.5)通信板块涨幅板块分析方 面,南凌科技(17.08%)、*ST 高鸿(15.06%)、永鼎股份 (10.65%)涨幅分列前三。 建议关注方向:算力产业链 算力产业链:美东时间 6 月 30 日,甲骨文 CEO 称,202 ...
媲美千亿级模型,华为首个开源大模型上线
Xuan Gu Bao· 2025-06-30 23:32
Group 1 - Huawei announced the open-source release of the Pangu model with 70 billion parameters and the Pro MoE 72B model with 720 billion parameters, enhancing the development of large model technology on domestic computing platforms [1] - The Pro MoE 72B model achieves superior performance comparable to trillion-parameter models by dynamically activating a network of experts, with only 160 billion parameters activated during operation [1] - The latest Super CLUE ranking places Huawei's large model as the top domestic model within the trillion-parameter category, indicating significant advancements in the field [1] Group 2 - Huawei's Ascend chips and CANN heterogeneous computing architecture are part of a fully autonomous and optimized closed-loop solution, marking a shift in global AI computing competition towards large-scale system efficiency and ecosystem development [2] - The Ascend super node has been commercially deployed in data centers such as China Telecom, contributing to the growth of the domestic supply chain [2] Group 3 - Huasen Tiancheng has collaborated with Huawei on Ascend chips and AICC intelligent contact center initiatives, indicating a strategic partnership in AI technology [3] - Softcom Power has launched the Softcom Ascend AI workstation to enhance local AI inference and production efficiency, reflecting the industry's push towards localized AI solutions [4]
华为宣布开源盘古7B稠密和72B混合专家模型
财联社· 2025-06-30 06:21
[中国,深圳,2025年6月30日] 今日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。 此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进 人工智能在千行百业的应用与价值创造。 2. 基于昇腾的超大规模 MoE模型推理代码,已正式上线开源平台。 3. 盘古 7B相关模型权重与推理代码将于近期上线开源平台。 华为 诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。请访问 https://gitcode.com/ascend-tribe 1. 盘古 Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。 ...
华为首个!重磅发布!
Zheng Quan Shi Bao· 2025-06-30 04:37
Core Insights - Huawei has announced the open-sourcing of the Pangu 70 billion parameter dense model and the 720 billion parameter mixture of experts model (Pangu Pro MoE 72B), marking a significant step in its Ascend ecosystem strategy to promote AI research and innovation across various industries [1][5] - The Pro MoE 72B model, with 720 billion parameters and 160 billion activated parameters, demonstrates exceptional performance that can rival models with trillion parameters, ranking first among domestic models under the 1 trillion parameter category in the latest Super CLUE rankings [3][4] - Huawei's Pangu models have been successfully implemented in over 30 industries and 500 scenarios, showcasing their value in sectors such as government, finance, manufacturing, healthcare, and more [5] Summary by Sections Open-Sourcing and Model Performance - Huawei's open-sourcing of the Pangu models aims to enhance the development of AI technologies on domestic computing platforms, expanding the Ascend ecosystem [5] - The Pro MoE 72B model's innovative design allows for dynamic activation of expert networks, achieving high performance with fewer activated parameters [3] Technological Advancements - The recent release of the Pangu Ultra MoE model, with a parameter scale of 718 billion, highlights Huawei's advancements in training large-scale models on the Ascend AI computing platform [4] - The Pangu models are built on a fully integrated software and hardware training system, demonstrating Huawei's capability in achieving a self-controlled training process from hardware to software [4] Industry Impact and Strategic Focus - Huawei emphasizes practical applications of its models, focusing on solving real-world problems across various industries rather than merely theoretical advancements [4] - The launch of the Pangu 5.5 model includes five foundational models targeting NLP, multimodal, prediction, scientific computing, and computer vision, positioning them as core drivers for digital transformation in industries [3]
华为宣布开源盘古7B稠密和72B混合专家模型
雷峰网· 2025-06-30 04:32
3. 盘古 7B相关模型权重与推理代码将于近期上线开源平台。 [中国,深圳,2025年6月30日] 今日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。 此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在 千行百业的应用与价值创造。 1. 盘古 Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。 2. 基于昇腾的超大规模 MoE模型推理代码,已正式上线开源平台。 " 盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源 平台 。 " 编辑丨李希 华 为 诚 邀 全 球 开 发 者 、 企 业 伙 伴 及 研 究 人 员 下 载 使 用 , 反 馈 使 用 意 见 , 共 同 完 善 。 请 访 问 https://gitcode.com/ascend-tribe // 近期热门文章 昇腾+鲲鹏双核暴击!华为打通MoE训练任督二脉再加速20%,内存省70% 华为盘古首次露出,昇腾原生72B MoE架构,SuperCLUE千亿内模型并列国内第一 华为昇腾万卡集群揭秘:如何驯服 ...
华为首个!重磅发布!
证券时报· 2025-06-30 04:12
据了解,华为最新开源的Pro MoE 72B大模型,在参数量仅为720亿,激活160亿参数量的情况下,通过动态激活专家网络的创新设计,实现了以小打大的优异性 能,甚至可以媲美千亿级模型的性能表现。在业界权威大模型榜单Super CLUE最新公布的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国内第一。 华为加入开源大军,开源了首个大模型。 6月30日,华为宣布开源盘古70亿参数的稠密模型和720亿参数的混合专家模型(盘古Pro MoE 72B)。此外,基于昇腾的模型推理技术也同步开源。华为表示,此 举是华为践行昇腾生态战略的又一关键举措,将推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。 最近一段时间以来,华为公开了一系列基于昇腾的大模型技术,让国内AI开发者备感期待。 今年6月20日举办的华为开发者大会2025上,华为重磅发布了盘古大模型5.5。全新升级的盘古大模型5.5包含了五大基础模型,分别面向NLP(自然语言处理)、多 模态、预测、科学计算、计算机视觉领域,推动大模型成为行业数智化转型的核心动力。会上,华为还发布了基于Cloud Matrix384超节点的新一代昇 ...
华为开源盘古7B稠密和72B混合专家模型
Guan Cha Zhe Wang· 2025-06-30 02:38
5月底,华为曾披露,盘古Pro MoE大模型,在参数量仅为720亿,激活160亿参数量的情况下,通过动 态激活专家网络的创新设计,实现了以小打大的优异性能,甚至可以媲美千亿级模型的性能表现。在业 界权威大模型榜单SuperCLUE最新公布的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国 内第一。 "盘古72B是兼顾性能与推理成本的黄金尺寸,最适合行业用户用AI改造业务。"华为专家曾表示。 随后在6月,有华为技术专家告诉观察者网,华为初步计划会向外开源,首先是盘古72B MoE模型是最 有可能开源的模型。其次是小模型,有可能会给高校开源。 6月30日早上,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和 基于昇腾的模型推理技术。 华为表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推 进人工智能在千行百业的应用与价值创造。 根据公告,盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。基于昇腾的超大规模 MoE模型推理代码,已正式上线开源平台。盘古7B相关模型权重与推理代码将于近期上线开源平台。 (文/观 ...