混合专家网络

Search documents
科大讯飞申请混合专家网络训练及问答相关专利,降低显存占用量
Jin Rong Jie· 2025-07-05 13:21
天眼查资料显示,科大讯飞股份有限公司,成立于1999年,位于合肥市,是一家以从事软件和信息技术 服务业为主的企业。企业注册资本231173.4185万人民币。通过天眼查大数据分析,科大讯飞股份有限 公司共对外投资了129家企业,参与招投标项目5000次,财产线索方面有商标信息2736条,专利信息 5000条,此外企业还拥有行政许可59个。 金融界2025年7月5日消息,国家知识产权局信息显示,科大讯飞股份有限公司申请一项名为"混合专家 网络训练方法、问答方法、相关设备及程序产品"的专利,公开号CN120258046A,申请日期为2025年 06月。 专利摘要显示,本申请公开了一种混合专家网络训练方法、问答方法、相关设备及程序产品,本申请将 混合专家网络中第二专家层FC2和Unpermute操作层融合为第一融合层,在前向传播过程仅需保存第一 融合层的输入及每个token对应专家的概率Probs,在反向传播过程,第一融合层的输入既可以用来计算 第一融合层参数的梯度,又可以用来计算Probs的梯度,无需额外保存FC2的输出,降低了需要保存的激 活的显存占用量。进一步还可以将Permute操作和FC1融合为第二融合层 ...
MoE那么大,几段代码就能稳稳推理 | 开源
量子位· 2025-07-02 09:33
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 混合专家网络模型架构(MoE) 已经成为当前大模型的一个主流架构选择,以最近开源的盘古Pro MoE为例,其基于MoGE架构构建的混 合专家架构,总参数量达720亿,激活参数量为160亿,专门针对昇腾硬件优化,在性能与效率上表现突出。 盘古还实现了在 推理时 做到又快又稳。 在技术特性上,盘古模型引入 "快思考" 和 "慢思考" 双系统,可根据问题复杂度自动切换响应模式,并在推理性能上实现突破——在昇腾 800I A2上单卡推理吞吐性能达1148 tokens/s,经投机加速技术可提升至1528 tokens/s,显著优于同等规模稠密模型。 那么让盘古、DeepSeek、Qwen这些开源的MoE模型在昇腾硬件上推理,能够达到易维护、高性能,并且全面开源的技术项目有没有呢? 现在,这个问题似乎有了标准答案—— 华为 一个新项目,直接把推理超大规模MoE背后的架构、技术和代码,统统给 开源了! 这个新开源项目名叫 Omni-Infer ,整体来看,它对于企业用户来说是非常利好的。 例如它可以给企业提供PD分离部署方案,针对QPM进行系统级优化,还会分享大规模商 ...