Workflow
可深度专业化通用模型
icon
Search documents
迈向AI4S 2.0,上海AI实验室开源书生万亿科学大模型Intern-S1-Pro
第一财经· 2026-02-05 10:18
2月4日,上海人工智能实验室开源基于 "通专融合"技术架构SAGE 打造的 万亿参数 科学多模态大模型 Intern-S1 - Pro ,为AI4S从"工具革命"的 1.0阶段迈向以"革命 的工具"驱动科学发现的2.0时代,提供创新的系统性开源基座。 作为当前全球开源社区中参数规模最大的科学多模态模型,Intern-S1-Pro的核心科 学能力实现了质的跃升,高难度综合学科评测稳居AI4S领域国际领先水平,复杂数理 逻辑推理能力达奥赛金牌水平,面向真实科研流程的智能体能力位居开源模型第一梯 队。 此次发布的Intern-S1-Pro是通过SAGE实现 "可深度专业化通用模型" 的关键实 践。该模型基于混合专家架构(MoE),共拥有512个专家,总参数达1T,每次调用 仅激活8个专家、22B参数。其通用能力和科学能力协同演进,并在底层架构实现了 两大核心突破:在SAGE的基础模型层,通过引入 傅里叶位置编码 ① 并 重构时序编 码器 ,赋予模型统一理解从微观生命信号到宏观宇宙波动的"物理直觉";通过高效 路由机制 ,系统攻克了训练万亿参数MoE模型在稳定性与算力效率上的瓶颈,为超大 规模模型的训练提供了关键的工 ...
科学智能领域迎来“上海时刻”
Xin Lang Cai Jing· 2026-02-05 07:53
记者了解到,此次发布的书生万亿科学大模型通过多项SAGE基础模型层的技术创新,拓宽了模型应用 边界,提升了超大规模训练可行性,推进了对可深度专业化通用模型的探索。 为构建能更深层次理解物理世界规律的科学大模型,研究团队引入了傅里叶位置编码(FoPE)并重构 时序编码器,还革新了内部的"路由机制"。传统方法存在训练低效和算力浪费两大痛点,新技术通 过"路由稠密估计",让模型在高效运行的同时能进行更充分的学习,提升了稳定性;进而通过"分组路 由"策略,像智能交通系统一样使海量计算芯片实现负载均衡,避免了资源闲置。 本报讯(记者 郜阳)昨晚,上海人工智能实验室宣布,开源全球首个基于"通专融合"架构的万亿参数 科学多模态大模型——Intern(书生)-S1-Pro。这是全球开源社区中参数规模最大的科学模型,其性能 表现稳居全球第一梯队,为AI for Science从"工具革命"的1.0阶段迈向以"革命的工具"驱动科学发现的 2.0时代,提供创新的系统性开源基座。 值得一提的是,书生万亿科学大模型验证了从原创模型架构到国产算力基座自主技术的完整链路。通过 开源开放,书生万亿科学大模型旨在降低全球科研门槛,与学术界和产 ...