大模型开源

Search documents
“百模大战”生变 巨头集体转向开源
Zhong Guo Jing Ying Bao· 2025-07-04 20:46
Core Insights - The large model industry is shifting from a "parameter competition" to an "ecosystem co-construction" approach, with major companies like Huawei and Baidu announcing open-source initiatives for their models [2][4] - Open-sourcing models is seen as a strategic move to build ecosystems rather than just offering free resources, as companies aim to establish a comprehensive model system that enhances their bargaining power [2][5] - The recent wave of open-source models is driven by multiple factors, including international trends and the success of models like DeepSeek, which have pressured closed-source companies to adapt [4][5] Group 1: Open Source Initiatives - Huawei has open-sourced its Pangu Pro MoE model, which has 720 billion parameters and is optimized for specific platforms, while Baidu has released its Wenxin model series, marking a significant shift in their strategies [3][4] - Other companies like Alibaba and Tencent have also joined the open-source movement, creating a more robust ecosystem and responding to the competitive landscape [4][5] Group 2: Market Dynamics - The open-source trend is expected to lower technical barriers, allowing new players to enter the market and intensifying competition among existing firms [7][8] - Companies that can quickly adapt to the open-source trend and enhance their technical capabilities will likely emerge as leaders, while those lagging behind may face obsolescence [7][8] Group 3: Long-term Strategy - Open-sourcing is viewed as a long-term strategic decision that sacrifices some immediate profits for greater control over the ecosystem [6][8] - The future winners in the open-source race will be those with strong foundational capabilities and open ecosystem strategies, where model capabilities become entry points rather than barriers [8]
刚刚,神秘模型火了!网友:是OpenAI要开源?
机器之心· 2025-07-02 10:40
机器之心报道 机器之心编辑部 OpenRouter 又上新神秘模型了,支持 100 万 token 上下文,猜猜是谁家的。 刚刚,OpenRouter 上出现了一个神秘模型,该模型被命名为「Cypher Alpha」。其可以免费使用,100 万 token 上下文,还具有推理能力。 注:OpenRouter 是一个大模型 API 路由器,旨在将各种 AI 模型和服务集成到一个统一的接口中。 模型地址:https://openrouter.ai/openrouter/cypher-alpha:free 大家看到这个消息时的反应是这样的: 毕竟,以 Alpha 为结尾的命名方式不止一次传出是来自 OpenAI 的模型。比如此前 OpenRouter 上线的两款神秘模型 Optimus Alpha、Optimus Alpha 都被怀疑出自 OpenAI。因为它们的风格与 OpenAI 顶级模型非常相似,并且工具调用 ID 格式与 OpenAI 格式一致。 所以这次相同的命名方式,很难不让大家联想到 OpenAI 又要发新模型了。 虽然没有官方认领,但许多人怀疑这是 OpenAI 对未来开源版本的一次悄无声息的测试。 ...
赛道Hyper | 百度开源ERNIE 4.5:策略是什么?
Hua Er Jie Jian Wen· 2025-07-01 09:39
但百度创始人、董事长兼CEO李彦宏曾在2024年的WAIC(世界人工智能大会:World Artificial Intelligence Conference)上,认为开源大模型是"智商税"。 从参数覆盖到工具适配 百度此次开源的10款模型,形成了从0.3B到47B参数的梯度覆盖,囊括基础文本模型和视觉多模态模型 (VLM)。除最小的0.3B 模型外,其余模型都采用异构多模态MoE(专家混合模型:Mixture of Experts)架构。 对于算力有限的中小开发者,0.3B参数的稠密型模型可降低部署门槛,MoE模型则能满足企业级复杂任 务的需求。这种分层供给思路,让不同资源条件的使用者都能找到适配的工具。 作者:周源/华尔街见闻 6月30日,百度正式开源文心大模型4.5系列(ERNIE 4.5),涵盖10款不同参数规模的模型,包括47B (470亿)、3B(30亿)激活参数的混合专家(MoE)模型及0.3B(3亿)参数的稠密型模型,预训练 权重与推理代码均完全开放。 目前,这些模型已可在飞桨星河社区、HuggingFace等平台下载,百度智能云千帆大模型平台也同步提 供了API(应用程序编程接口:Appli ...
2025长三角国际人工智能创业大会在杭盛大启幕,引领智能时代的新创业浪潮
Jiang Nan Shi Bao· 2025-07-01 07:37
2025年6月26日,备受瞩目的2025长三角国际人工智能创业大会在中国·杭州国际博览中心隆重拉开帷 幕。本次大会由中国产业发展促进会指导,中国云计算应用联盟、大湾区人工智能数字产业联盟主办, 杭州云隐智观科技有限公司、杭州亿脉通科技有限公司、深圳链接者信息技术有限公司承办,杭州早鸟 文化执行承办,来自人工智能领域的顶尖专家、企业领袖、投资大咖、AI企业1000余人参加了大会。 天使联合汇荣誉主席周丽霞代表投资人致辞。强调人工智能在推动经济社会发展中的重要作用,以及长 三角地区在AI产业领域的独特优势和发展潜力,为大会奠定了高规格、前瞻性的基调。 俄罗斯自然科学院院士张彩芳带来《根植中文,智创未来:以自主创新引领人工智能高质量发展》的演 讲,深入探讨了中文语境下AI自主创新的路径。 中关村智用人工智能研究院院长孙明俊聚焦《大模型开源革命:全球AI发展趋势》,分析了开源模式 对AI发展的深远影响。 华为NGE数据通信领域总裁王辉则以《道阻且长、行则将至:中国AI产业路径的思考》为题,分享了 对中国AI产业发展的深刻见解。 大会的一大亮点是长三角人工智能企业上市培育中心启动。中国产业发展促进会数智经济产业创新集群 ...
大模型如何发展这条路,任正非李彦宏都想“开”了
Di Yi Cai Jing· 2025-06-30 10:40
集体开源行动背后,既是对AI进入应用为王时代的回应,也有各家加速抢占市场高地、应对国际竞争 的战略布局。 2025上半年的最后一天,百度和华为都想"开"了。今日两家公司各自宣布了最新的开源动作。 其中,百度一口气开源了文心大模型4.5系列的10款模型,涵盖47B、3B激活参数的混合专家(MoE) 模型与0.3B参数的稠密型模型等,并称实现预训练权重和推理代码的完全开源;华为则宣布开源盘古70 亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。 在百度、华为之前,阿里早已通过一系列有竞争力的开源大模型、魔搭社区布局AI开源生态,腾讯混 元此前也开源了混合推理MoE模型 Hunyuan-A13B以及3D生成模型等。 "开源的趋势早就已经摆在这儿了。"一位AI应用从业者对第一财经记者分析说,去年此时业界讨论开源 闭源路线之争时,业界都还在发力底层大模型,究竟哪种模式更好还没得到真正、充分的验证。但很快 DeepSeek、阿里已经用事实说明了,开源成为推动AI技术进步和产业发展的重要力量。 华为此次开源则选择了两款用量相对较多的模型。其中70亿参数的稠密模型部署门槛较低,在智能 ...
华为大模型也加入开源大军了
Hua Er Jie Jian Wen· 2025-06-30 10:16
自四年前盘古大模型首次亮相以来,AI大模型行业风云变幻,不少AI大模型厂商加入开源大军。一直坚持闭源大模型的华为, 如今也终于决定打开盘古的大门了。 6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。 作者 | 黄昱 编辑 | 刘宝丹 这是华为首次开源盘古大模型。 华为方面表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行 百业的应用与价值创造。 据悉,盘古Pro MoE 72B模型权重、基础推理代码,基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台;盘古7B相关 模型权重与推理代码将于近期上线开源平台。 华为首次开源大模型选择了两款可应用广泛的模型。 70亿参数的稠密模型采用双系统框架,参数量适中、性能均衡、部署门槛较低,具备"快思考"和"慢思考"能力,可根据任务复杂 度自动切换推理模式。 同时,该模型专为在昇腾 NPU 上优化部署,兼顾推理速度与推理深度,在 AIME、GPQA 等复杂推理基准测试中,超越 Qwen3- 8B、GLM4-9B 等同量级模型,适用于智能客服、 ...
从文心开源谈起,论大模型发展新生态
AI科技大本营· 2025-06-30 09:52
郑靖舒,北京智源人工智能研究院智能评测产品负责人 此次开源更像是一个面向全球开发者的完整交付:从模型能力到训练方式,再到部署支持,百度正 将"文心"打造成国际开发者能够真正用起来、调得动、落得下的国产大模型代表。 就在今晚 7:30,CSDN 针对百度此次大手笔开源,邀请到了 AI 行业知名专家范凯,北京智源人工 智能研究院智能评测产品负责人郑靖舒,Boolan 首席技术顾问、资深大模型技术专家李沫南围绕文 心大模型开源、行业发展趋势等进行深度解读: 嘉宾介绍 范凯, AI 行业知名专家、JavaEye 创始人 AI+Web3 领 域 超 级 个 体 、 JavaEye 创 始 人 、 前 CSDN& 丁 香 园 CTO , 8 年 AI 研 发 , 14 年 CTO。 6 月 30 日,百度正式宣布开源 ERNIE 4.5 即文心 4.5 系列模型,覆盖 47B 和 3B 激活参数的 MoE(混合专家)模型,以及 0.3B 参数的稠密模型,并实现了预训练权重 + 推理代码的完全开 源。 文心大模型 4.5 系列开源模型国内下载地址: https://ai.gitcode.com/theme/19393254 ...
华为首个开源大模型来了!Pro MoE 720亿参数,4000颗昇腾训练
Hua Er Jie Jian Wen· 2025-06-30 07:27
国产大模型开源竞争进入新阶段,华为首次开源盘古大模型核心能力。 此次开源正值国产大模型开源浪潮兴起之际。继DeepSeek-R1成功后,MiniMax、阿里巴巴、月之暗面等头部厂商陆续升级开源模型,推动大模型价格下探 60%-80%,加速应用普及。 模型引入"快思考"和"慢思考"双系统 华为此次开源包括三个主要组件:盘古Pro MoE 72B模型权重和基础推理代码已正式上线开源平台,基于昇腾的超大规模MoE模型推理代码同步发布,盘古 7B相关模型权重与推理代码将于近期上线。 据开源开发者平台GitGo信息,盘古Pro MoE基于MoGE架构构建,总参数量720亿,激活参数量160亿。该模型专门针对昇腾硬件优化,在昇腾300I Duo推理 服务器上提供极具性价比的模型推理方案。 6月30日,华为宣布开源盘古70亿参数稠密模型和盘古Pro MoE 720亿参数混合专家模型,同时开放基于昇腾的模型推理技术。这是华为首次将盘古大模型的 核心能力对外开源。 华为表示,720亿参数的盘古Pro MoE模型在昇腾800I A2上实现单卡1148 tokens/s的推理吞吐性能,通过投机加速技术可进一步提升至1528 tok ...
刚刚,华为发布!
中国基金报· 2025-06-30 04:05
【导读】华为首次开源盘古大模型,包含 70 亿和 720 亿参数模型 中国基金报记者 张燕北 6 月 30 日,华为宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专 家模型,以及基于昇腾的模型推理技术。 华为表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发 展,加速推进人工智能在千行百业的应用与价值创造。 据华为官网信息,此次是华为首次将盘古大模型的核心能力开源,本次开源主要包括:盘古 Pro MoE 72B 模型权重、基础推理代码,已正式上线开源平台;基于昇腾的超大规模 MoE 模型推理代码,已正式上线开源平台;盘古 7B 相关模型权重与推理代码将于近期上线开源 平台。 华为表示, " 我们诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完 善。 " (来源:开源开发者平台 GitGo ) 据了解,盘古是华为推出的一系列超大规模人工智能预训练模型,涵盖自然语言处理、计算 机视觉、科学计算等多个领域。其名称寓意 " 开天辟地 " ,象征着华为在人工智能基础研究 和行业应用上的突破性探索。盘古模型自发布以来,已在多个行业中实现落地,包括 ...
华为缘何开源盘古大模型?
Tai Mei Ti A P P· 2025-06-30 03:23
这也是华为首度宣布开源盘古大模型,大模型开源的本质是以开放换生态,以生态养技术。 对于华为而言,本次并不是全面开源,而是选择了两款用量相对较多的模型,70亿参数的稠密模型参数 量适中、性能均衡、部署门槛较低,在智能客服、知识库等多种场景中均可应用;盘古Pro MoE 720亿 参数的混合专家模型凭借其稀疏激活、动态路由和多专家协作的特性,更适合处理相对复杂的任务。 不排除华为未来继续开源的可能性,一般而言,华为在做好技术稳定性等优化的基础上,先用两款模型 试验开发者和市场反应,在可用性和易用性方面持续优化,再进一步开源。开源只是第一步,如何持续 运营开源生态,远比开源本身更重要。 其中值得关注的是,本次华为还开源了基于昇腾的模型推理技术,国产AI之难,难在芯片,更难在生 态,如果要让开发者更好地调用盘古等国产模型,就要让底层的AI基础设施实现更优适配,这也是华 为开源基于昇腾的模型推理技术的意义。 6月30日消息,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和 基于昇腾的模型推理技术。 华为官方表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创 ...