Workflow
全栈国产化
icon
Search documents
华为首个!重磅发布!
证券时报· 2025-06-30 04:12
据了解,华为最新开源的Pro MoE 72B大模型,在参数量仅为720亿,激活160亿参数量的情况下,通过动态激活专家网络的创新设计,实现了以小打大的优异性 能,甚至可以媲美千亿级模型的性能表现。在业界权威大模型榜单Super CLUE最新公布的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国内第一。 华为加入开源大军,开源了首个大模型。 6月30日,华为宣布开源盘古70亿参数的稠密模型和720亿参数的混合专家模型(盘古Pro MoE 72B)。此外,基于昇腾的模型推理技术也同步开源。华为表示,此 举是华为践行昇腾生态战略的又一关键举措,将推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。 最近一段时间以来,华为公开了一系列基于昇腾的大模型技术,让国内AI开发者备感期待。 今年6月20日举办的华为开发者大会2025上,华为重磅发布了盘古大模型5.5。全新升级的盘古大模型5.5包含了五大基础模型,分别面向NLP(自然语言处理)、多 模态、预测、科学计算、计算机视觉领域,推动大模型成为行业数智化转型的核心动力。会上,华为还发布了基于Cloud Matrix384超节点的新一代昇 ...
华为,重大发布!
新华网财经· 2025-06-20 12:17
值得一提的是,5月30日,证券时报·券商中国记者从华为获悉,华为在MoE模型训练领域再进一步,重 磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练 的准万亿MoE模型。同时,华为发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细 节,充分体现了昇腾在超大规模MoE训练性能上的跨越。 据悉,训练超大规模和极高稀疏性的MoE模型极具挑战,训练过程中的稳定性往往难以保障。针对这一 难题,华为盘古团队在模型架构和训练方法上进行了创新性设计,成功地在昇腾平台上实现了准万亿 MoE模型的全流程训练。 "一年以来,盘古大模型深入行业解难题,在30多个行业、500多个场景中落地。"6月20日下午,在华为 开发者大会2025上,华为常务董事、华为云计算CEO张平安分享了盘古大模型在工业、农业、科研等领 域的丰富创新应用和落地实践,并重磅发布盘古大模型5.5,在自然语言处理、多模态等5大基础模型全 面升级,加速重塑千行万业。 会上,华为云还发布了盘古医学、金融、政务、工业、汽车五个具备深度思考能力的行业自然语言大模 型,加速行业智能化,并将在6月底正式上 ...
湖北移动全栈国产化AI巡考系统筑牢高考公平防线
Ren Min Wang· 2025-06-12 00:58
全栈国产化AI巡考系统 2025年高考期间,湖北移动打造的全国首个全栈国产化AI巡考系统,整合专线网络、云平台、智能业 务和安全防护四大核心模块,为全省高考考场提供了智能化的巡考服务,为高考公平公正保驾护航,更 通过全链条国产化技术应用,开创了教育考试管理领域的"中国智造"实践范本。 科技赋能开启教育数智化新征程 湖北AI巡考系统首次上线后顺利完成高考实战场景大规模视频拉流、高并发流量涌现、高强度计算等 多重挑战,展现了科技对教育考试管理数智化的有力推动。相关算法模型完成了昇腾硬件适配调优,采 用CV大小模型结合的方式,不仅节省了算力成本,也大幅降低了巡考算法的误报率和虚警。同时中心 算力资源池部署的方式也允许算力资源弹性伸缩,面对考场不同的需求做到算力灵活调配,快速部署, 高效维护。AI巡考系统对考场考生行为特征进行分析并生成报告,为考务管理提供决策依据,通过实 时监控服务器运行情况,定时完成日志巡检,保障AI巡考系统稳定运行,为高考保驾护航。 全栈国产化技术筑牢公平基石 在中国移动智算中心(武汉)的算力枢纽内,中国移动成研院开发的算法模型在昇腾服务器进行部署,对 来自全省1.7万余路考场的视频流同时进行实 ...
重磅!华为发布准万亿大模型
Mei Ri Jing Ji Xin Wen· 2025-05-30 11:41
每经编辑|张锦河 据悉,训练超大规模和极高稀疏性的MoE模型极具挑战,训练过程中的稳定性往往难以保障。针对这一难题,华为盘古团队在模型架构和训练方法上进行了 创新性设计,成功地在昇腾平台上实现了准万亿MoE模型的全流程训练。 在模型架构上,盘古团队提出Depth-Scaled Sandwich-Norm(DSSN)稳定架构和TinyInit小初始化的方法,在昇腾平台上实现了超过18TB数据的长期稳定训 练。此外,他们还提出了EP loss负载优化方法,这一设计不仅保证了各个专家之间的能保持较好的负载均衡,也提升了专家的领域特化能力。同时,盘古 Ultra MoE使用了业界先进的MLA和MTP架构,在预训练和后训练阶段都使用了Dropless训练策略,实现了超大规模MoE架构在模型效果与效率之间的最佳 平衡。 在训练方法上,华为团队首次披露在昇腾CloudMatrix 384超节点上,高效打通大稀疏比MoE强化学习(RL)后训练框架的关键技术,使RL后训练进入超节 点集群时代。同时,在5月初发布的预训练系统加速技术基础上,在不到一个月的时间内,华为团队又完成了一轮迭代升级,包括:适配昇腾硬件的自适应 流水掩盖策 ...
重大突破!刚刚,华为发布!
券商中国· 2025-05-30 10:43
5月30日,券商中国记者从华为获悉,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全 新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。同时,华为发布盘 古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在超大规模MoE训练性能 上的跨越。 中国AI产业注入强心剂。 业内人士分析,华为盘古Ultra MoE和盘古Pro MoE系列模型的发布,证明华为不仅完成了国产算力+国产模 型的全流程自主可控的训练实践,同时在集群训练系统的性能上也实现了业界领先。这意味着国产AI基础设 施的自主创新能力得到了进一步验证,为中国人工智能产业的发展提供了一颗"定心丸"。 国产算力与国产模型重大突破 据悉,训练超大规模和极高稀疏性的MoE模型极具挑战,训练过程中的稳定性往往难以保障。针对这一难题, 华为盘古团队在模型架构和训练方法上进行了创新性设计,成功地在昇腾平台上实现了准万亿MoE模型的全流 程训练。 在模型架构上,盘古团队提出Depth-Scaled Sandwich-Norm(DSSN)稳定架构和TinyInit小初始化的方法, ...
国产六大推理模型激战OpenAI?
创业邦· 2025-04-30 10:09
以下文章来源于光子星球 ,作者郝鑫 来源丨光 子星球(ID:TMTweb) 作者丨郝鑫 光子星球 . 细微之处,看见未来 编辑丨王潘 图源丨Midjourney "DeepSeek-R1如同当年苏联抢发的第一颗卫星,成为AI开启新时代的斯普特尼克时刻。" 2025年春节前,DeepSeek比除夕那天的烟花先一步在世界上空绽放。 离年夜饭仅剩几个小时,国内某家云服务器的工程师突然被拉入工作群,接到紧急任务,要求其快速调 优芯片,以适配最新的DeepSeek-R1模型。该工程师告诉我们,"从接入到完成,整个过程不到一周"。 大年初二,一家从事Agent To B业务的厂商负责人电话被打爆,客户的要求简单粗暴:第一时间验证模型 真实性能,尽快把部署提上日程。 节前大模型,节后只有DeepSeek。DeepSeek-R1就像一道分水岭,重新书写了中国大模型的叙事逻辑。 以2022年11月,OpenAI发布基于GPT-3.5的ChatGPT应用为起点,国内自此走上了追赶OpenAI的道路。 2023年,大模型如雨后春笋般冒出头,无大模型不AI,各厂商你追我赶,百模大战初见端倪。 你方唱罢我登场,2024年的主人公变成了 ...