MiniCPM

Search documents
这里,已成为“人工智能第一城”
Jin Rong Shi Bao· 2025-06-20 11:00
"2024年北京人工智能企业突破2400家,核心产业规模近3500亿元,均占全国一半,成为名副其实的人工智能第一城。"6月17日,北京市科委、中关村管 委会信息处处长韩健在"活力中国调研行"活动中,谈到北京市人工智能产业发展有关情况时介绍说,"北京是中国人工智能创新资源最丰富的城市,我们 已在人工智能技术创新、应用示范、产业要素、创新生态等方面形成系统布局。" 北京之所以成为名副其实的"人工智能第一城",有着诸多内在因素。 首先,创新资源高度集聚。据悉,北京现已拥有全国重点实验室21家,集聚了全国超40%的顶尖人才。聚焦大模型、具身智能、人工智能安全等方向建设 首批23家人工智能领域北京市重点实验室。坚持多元化技术路线布局,建设了智源院、通研院、科学智能院、中关村人工智能研究院4家人工智能领域新 型研发机构,产出全球首个原生多模态大模型Emu等一批国际领先的原创成果。 据了解,北京已出台具身智能三年行动计划、科技赋能文化专项行动、人工智能+新材料等产业政策,加快培育人工智能发展新赛道,推动人工智能广泛 赋能。 与此同时,原始创新能力不断增强。北京市聚焦光计算、晶圆级芯片等方向,持续布局颠覆性技术路线,产出全球 ...
(活力中国调研行)北京何以成为中国“人工智能第一城”?
Huan Qiu Wang Zi Xun· 2025-06-17 14:07
中新网北京6月17日电 (记者 吕少威)记者17日从2025年"活力中国调研行"北京市主题采访活动中获悉, 2024年北京人工智能企业突破2400家,核心产业规模近3500亿元,均占全国一半,成为名副其实的"人 工智能第一城"。 同时,北京开放创新生态加速形成,联合外交部举办北京首届国际人工智能研讨班,来自35个发展中国 家代表齐聚清华园,共商合作新机遇;成功举办2025年智源大会,线下注册观众达到8000多人,线上观 看开幕式直播达205万人,覆盖全球超过30个国家和地区。 韩健表示,下一步,北京市将坚持创新与应用并重,加快建设具有全球影响力的人工智能创新策源地和 产业高地。 北京市科委、中关村管委会信息处处长韩健当天向记者表示,人工智能是引领新一轮科技革命和产业变 革的战略性技术,正深刻改变着人类生产生活方式。北京是中国人工智能创新资源最丰富的城市,已在 人工智能技术创新、应用示范、产业要素、创新生态等方面形成系统布局,这些举措助力北京成为"人 工智能第一城"。 北京创新资源高度集聚。拥有全国重点实验室21家,集聚了全国超40%的顶尖人才。聚焦大模型、具身 智能、人工智能安全等方向建设首批23家人工智能领 ...
北京打造“人工智能第一城”,核心产业规模近3500亿元
Xin Jing Bao· 2025-06-17 12:53
"在北京市的支持下,我们采取了非常灵活的运行机制。"智源研究院院长王仲远介绍,智源研究院是国 内最早从事大模型技术研发的机构,几乎与国际同步,早在2020年便成立了一支百余人的技术攻关团 队。2021年3月推出的悟道1.0,作为中国首个超大规模信息智能模型,填补了中文超大预训练模型生态 的空白;同年6月发布的悟道2.0,以1.75万亿参数规模登顶全球最大预训练模型。"悟道系列的发布使全 世界意识到,中国也有能力研发性能领先的大模型"。 在本月初举行的北京智源大会上,智源研究院发布"悟界"系列大模型,推动人工智能从数字世界迈向物 理世界。其中,脑科学多模态通用基础模型见微Brainμ整合了神经科学领域多个大型公开数据集和多个 合作实验室的高质量神经科学数据,完成了超过100万单位的神经信号预训练。在抑郁症、阿尔茨海默 病、帕金森综合征的预测上,Brainμ的能力已经超越了专用模型的预测能力。 人工智能是引领新一轮科技革命的战略性技术,正深刻改变着人类生产生活方式。 6月17日,记者从"活力中国调研行"北京市主题采访活动中获悉,北京已在人工智能技术创新、应用示 范、产业要素、创新生态等方面形成系统布局,2024年 ...
长文本推理 5 倍提速!面壁MiniCPM4 端侧模型发布,0.5B模型效果秒杀同级
AI前线· 2025-06-12 06:07
Github 链接:https://github.com/openbmb/minicpm Huggingface 链接:https://huggingface.co/collections/openbmb/minicpm-4- 6841ab29d180257e940baa9b 整理 | 华卫 近日,新一代"面壁小钢炮" MiniCPM4.0 端侧模型发布,拥有 8B 、0.5B 两种参数规模 。 一款 8B 稀疏闪电版,带来端侧性能大跃升;一款 0.5B "以小博大",适配广泛终端场景。 模型相关链接 Model Scope 链接:https://www.modelscope.cn/collections/MiniCPM-4-ec015560e8c84d 截至目前,面壁小钢炮 MiniCPM 系列全平台下载量累计破 1000 万。 据介绍,MiniCPM4.0 -8B 是首个原生稀疏模型,5% 的极高稀疏度加持系统级创新技术的大爆发, 让长文本、深思考在端侧真正跑起来。在 MMLU、CEval、MATH500、HumanEval 等基准测试中, MiniCPM4.0 -8B 以仅 22% 的训练开销,性能比肩 ...
苹果虽迟但到,端侧AI加速爆发,AI新势力抢先圈地突围
3 6 Ke· 2025-06-11 23:56
端侧模型的产业坐标系正在被重塑! 一方面,10日凌晨,AI浓度大大降低的苹果WWDC中,苹果智能(Apple Intelligence)正加速融入到系统各个功能中,同时苹果宣布向所有App开放权限 允许开发者直接访问苹果智能核心的设备端大语言模型,提出"Foundation Models框架"也引发了不小的讨论;另一方面,上周面壁智能发新一代面壁小钢 炮MiniCPM4.0端侧模型,0.5B模型性能超Qwen-3-0.6B、以及参数规模1B的Llama 3.2、Gemma3。 | Models | Qwen3 | Llama3.2 | Gemma3 | MiniCPM4 | BRCPM4 | BitCPM4 | Models | Qwen3 | GLM4 | Gemma3 | LLaMA3.1 | Phi4 | MiniCPM4 | | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | | 參数量 | 0.68 | 1B | 1B | 0.5B | 0.5B | 1B | 参数量 | 88 | ...
面壁小钢炮4.0发布:性能比肩 Qwen-3-8B,极限220倍提速
Xin Lang Ke Ji· 2025-06-10 09:37
新浪科技讯 6月10日下午消息,近日,面壁智能第四代"面壁小钢炮" MiniCPM4.0 端侧模型(代号"前进 四")发布。据悉,第四代小钢炮拥有 8B 、0.5B两种参数规模,实现了同级最佳的模型性能。可让长 文本、深思考在端侧真正跑起来,实现220倍极限加速。 据悉,MiniCPM 4.0 模型采用的InfLLMv2稀疏注意力架构改变了传统 Transformer 模型的相关性计算方 式,有效摆脱了逐字重复计算的低效,将稀疏度从行业普遍的40%-50%,降至极致的5%,注意力层仅 需1/10的计算量即可完成长文本计算。且对算子底层重写,进一步加速提升,并使得对文本相关性精准 性大大提升。 值得一提的是,DeepSeek 使用的长文本处理架构NSA(Native Sparse Attention)也引用并采用了与 InfLLM相同的分块注意力计算思路,但其对于短文本的推理较慢,InfLLMv2则很好地解决了NSA在短 文本推理上的短板。 在缓存消耗上,MiniCPM 4.0-8B在 128K 长文本场景下相较于Qwen3-8B仅需 1/4 的缓存存储空间。在速 度、性能飙升的同时,又做到了模型极致压缩,让端 ...
面壁MiniCPM4端侧模型发布:长文本推理 5 倍提速,0.5B 模型拿下新SOTA
AI科技大本营· 2025-06-10 09:31
MiniCPM4.0 -0.5B 在性能上,也展现出惊人的以小博大—— 在MMLU、CEval、BBH、HumanEval等基准测试中,MiniCPM4.0 -0.5B性能秒杀同级 的 Qwen-3-0.6B、Llama 3.2、Gemma3,并通过原生QAT技术实现几乎不掉点的int4量化,实现了 600 Token/s 的极速推理速度。 模型相关链接 https://arxiv.org/pdf/2506.07900 「前进四」速度狂飙,快至220 倍! 2025 智源大会,新一代「面壁小钢炮」 MiniCPM4.0 端侧模型发布。一款 8B 稀疏闪电版,带来端侧性能创新式大跃升;一款 0.5B 实力演绎以小博 大,适配广泛终端场景。 MiniCPM4.0 -8B 是首个原生稀疏模型,5%的极高稀疏度加持系统级创新技术的大爆发,让长文本、深思考在端侧真正跑起来,宣告了端侧长文本时 代到来。 MiniCPM4.0 -8B 在MMLU、CEval、MATH500、HumanEval等基准测试中,以仅 22% 的训练开销,性能比肩 Qwen-3-8B,超越Gemma-3-12B。 代号「前进四」,小钢炮 Mini ...
0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源
量子位· 2025-06-10 07:35AI Processing
清华大学&面壁智能 投稿 量子位 | 公众号 QbitAI 端侧性价比之王,清华大学和面壁智能团队开源新模型—— MiniCP M 4 ,提供 8B、0.5B 两种参数规模, 仅使用同级别开源模型22%的训练开销 ,就达到了同级别最优性能。 MiniCPM4-8B是 开源首个开源的原生稀疏模型,5%的极高稀疏度加持,让长文本、深思考在端侧真正跑起来。 在MMLU、CEval、MATH500、HumanEval等基准测试中,以仅22%的训练开销,性能比肩 Qwen-3-8B,超越Gemma-3-12B。 MiniCPM4-0.5B 在性能上,也展现出以小博大——在MMLU、CEval、BBH、HumanEval等基准测试中,MiniCPM4.0 -0.5B性能超越同级 的Qwen-3-0.6B、Llama 3.2、Gemma3, 并通过 原生QAT技术 实现几乎不掉点的int4量化以及600Token/s的极速推理速度。 在常见端侧芯片,比如Jetson AGX Orin与RTX 4090上,MiniCPM 4可实现长文本处理的5倍常规加速与极限场景下的百倍加速。 请看VCR: 目前团队已公开发布技术报告,该模 ...
0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源
量子位· 2025-06-10 07:35
清华大学&面壁智能 投稿 量子位 | 公众号 QbitAI 端侧性价比之王,清华大学和面壁智能团队开源新模型—— MiniCP M 4 ,提供 8B、0.5B 两种参数规模, 仅使用同级别开源模型22%的训练开销 ,就达到了同级别最优性能。 MiniCPM4-8B是 开源首个开源的原生稀疏模型,5%的极高稀疏度加持,让长文本、深思考在端侧真正跑起来。 在MMLU、CEval、MATH500、HumanEval等基准测试中,以仅22%的训练开销,性能比肩 Qwen-3-8B,超越Gemma-3-12B。 MiniCPM4-0.5B 在性能上,也展现出以小博大——在MMLU、CEval、BBH、HumanEval等基准测试中,MiniCPM4.0 -0.5B性能超越同级 的Qwen-3-0.6B、Llama 3.2、Gemma3, 并通过 原生QAT技术 实现几乎不掉点的int4量化以及600Token/s的极速推理速度。 在常见端侧芯片,比如Jetson AGX Orin与RTX 4090上,MiniCPM 4可实现长文本处理的5倍常规加速与极限场景下的百倍加速。 请看VCR: 目前团队已公开发布技术报告,该模 ...
面壁小钢炮4.0原生稀疏模型发布:最高220倍提速,开启端侧长文本时代
IPO早知道· 2025-06-10 02:39
首个系统级上下文稀疏化高效创新模型。 本文为IPO早知道原创 作者| Stone Jin 微信公众号|ipozaozhidao 据 IPO早知道消息,面壁智能于日前举行的 2025智源大会 上发布了 新一代「面壁小钢炮」 MiniCPM4.0端侧模型发布 。 一款 8B稀疏闪电版,带来端侧性能创新式大跃升;一款0.5B实力演 绎以小博大,适配广泛终端场景。 值得一提的是, 第四代小钢炮推出了首个原生稀疏模型, 5%的极高稀疏度加持系统级创新技术的 大爆发,让长文本、深思考在端侧真正跑起来,宣告了端侧长文本时代到来 ; 220倍极限加速,一 半参数翻倍性能的表现, 则继续 带来端侧基模最极致表现。 具体来讲, 面对此前端侧模型长文本「龟速推理」业界难题, MiniCPM 4-8B「闪电稀疏版」, 采用了新一代上下文稀疏高效架构 ,相较于同等参数规模端侧模型实现了长文本推理速度 5倍常规 加速以及最高220倍加速(显存受限极限场景下测出),真正让端侧模型长文本推理实现了「快如闪 电」的质变。此外,注意力机制上实现了高效双频换挡,长文本用稀疏,短文本用稠密,切换快如 流。 同时, MiniCPM 4.0推出端侧性能 ...