推理模型

Search documents
Qwen3深夜炸场,阿里一口气放出8款大模型,性能超越DeepSeek R1,登顶开源王座
3 6 Ke· 2025-04-29 09:53
今天凌晨,大模型领域最受关注的重磅消息来自阿里 Qwen 团队——他们正式发布了备受期待的全新 Qwen3 系列大模型。 8 大模型齐发! 这 8 款混合推理模型中,包括了 2 个 MOE 模型:Qwen3-235B-A22B 和 Qwen3-30B-A3B。 其中,Qwen3-235B-A22B 是本次发布中规模最大的旗舰模型,拥有 2350 亿个参数,激活参数超过 220 亿。 在代码、数学和通用能力等多个基准测试中,它的表现不仅超过了 DeepSeek 的 R1 开源模型,还优于 OpenAI 的闭源模型 o1。尤其在软件工程和数学领 域的 ArenaHard 测试(共 500 道题)中,成绩甚至接近了 Google 最新发布的 Gemini 2.5-Pro,可见其实力不容小觑。 | | Qwen3-235B-A22B | Qwen3-32B | OpenAl-o1 | Deepseek-R1 | Grok 3 Beta | Gemini2.5-Pro | Open Al-o3-mini | | --- | --- | --- | --- | --- | --- | --- | --- | | | MO ...
性能超越DeepSeek R1,Qwen3正式登场!阿里一口气放出8款大模型,登顶开源王座!
AI科技大本营· 2025-04-29 09:05
整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 今天凌晨,大模型领域最受关注的重磅消息来自 阿里 Qwen 团队——他们正式发布了备受期待的全 新 Qwen3 系列 大模型。 8 大模型齐发! 这 8 款混合推理模型中,包括了 2 个 MOE 模型: Qwen3-235B-A22B 和 Qwen3-30B-A3B 。 其中,Qwen3-235B-A22B 是本次发布中规模最大的旗舰模型,拥有 2350 亿个参数,激活参数超 过 220 亿。 在代码、数学和通用能力等多个基准测试中,它的表现不仅超过了 DeepSeek 的 R1 开源模型,还 优于 OpenAI 的闭源模型 o1。尤其在软件工程和数学领域的 ArenaHard 测试(共 500 道题)中, 成绩甚至接近了 Google 最新发布的 Gemini 2.5-Pro,可见其实力不容小觑。 不同于以往,这次其一次性开源了多达 8 款混合推理模型,在性能上全面逼近 OpenAI、Google 等 闭源大模型,以及超越了开源大模型 DeepSeek R1,堪称当前最强的开源模型之一,也难怪昨晚 Qwen 团队一直在加班。 | | Qwen3- ...
通义千问 Qwen3 发布,对话阿里周靖人
晚点LatePost· 2025-04-29 08:43
以下文章来源于晚点对话 ,作者程曼祺 晚点对话 . 最一手的商业访谈,最真实的企业家思考。 阿里云 CTO、通义实验室负责人 周靖人 "大模型已经从早期阶段的初期,进入早期阶段的中期,不可能只在单点能力上改进了。" Qwen3 旗舰模型,MoE(混合专家模型)模型 Qwen3-235B-A22B,以 2350 亿总参数、220 亿激活参数,在 多项主要 Benchmark(测评指标)上超越了 6710 亿总参数、370 亿激活参数的 DeepSeek-R1 满血版。更小 的 MoE 模型 Qwen3-30B-A3B,使用时的激活参数仅为 30 亿,不到之前 Qwen 系列纯推理稠密模型 QwQ- 32B 的 1/10,但效果更优。更小参数、更好性能,意味着开发者可以用更低部署和使用成本,得到更好效 果。图片来自通义千问官方博客。 (注:MoE 模型每次使用时只会激活部分参数,使用效率更高,所以有 总参数、激活参数两个参数指标。) Qwen3 发布前,我们访谈了阿里大模型研发一号位,阿里云 CTO 和通义实验室负责人,周靖人。他 也是阿里开源大模型的主要决策者。 迄今为止,Qwen 系列大模型已被累计下载 3 ...
不要思考过程,推理模型能力能够更强丨UC伯克利等最新研究
量子位· 2025-04-29 08:02
实验数据显示,在低资源情况 (即少token数量、少模型参数) 或低延迟情况下,Nothinking方法得出的结果均优于Thinking方法的结果, 实现比传统思考方式更好的精度- 延迟权衡。 其他情况下,NoThinking方法在部分数据集上的表现也能超越Thinking。 衡宇 发自 凹非寺 量子位 | 公众号 QbitAI 其实…… 不用大段大段思考,推理模型也能有效推理! 是不是有点反常识?因为大家的一贯印象里,推理模型之所以能力强大、能给出准确的有效答案,靠的就是长篇累牍的推理过程。 这个过程往往用时很长,等同于需要消耗大量算力。已经有一些研究尝试提高推理效率,但大多仍依赖显式思考过程。 来自UC伯克利和艾伦实验室团队的最新研究结果打破了这一刻板印象—— 通过简单的prompt绕过「思考」这一过程直接生成解决方案,可能同样有效,甚至更好。 这种方法被称为 "无思考(NoThinking)"方法 。 「思考」和「无思考」 研究团队以DeepSeek-R1-Distill-Qwen模型为基础,提出了NoThinking方法。 咱们先来分辨一下Thinking和NoThinking的区别在哪里。 Thin ...
阿里开源通义千问Qwen3:登顶全球最强开源模型,成本仅需DeepSeek-R1三分之一
IPO早知道· 2025-04-29 03:01
性能超越DeepSeek-R1、OpenAI-o1。 本文为IPO早知道原创 作者| Stone Jin 微信公众号|ipozaozhidao 据 IPO早知道消息, 阿里巴巴 于 4月29日凌晨开源新一代通义千问模型Qwen3(简称千问3), 参数量仅为DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等全球顶尖模 型,登顶全球最强开源模型 。千问 3是国内首个"混合推理模型","快思考"与"慢思考"集成进同一 个模型,对简单需求可低算力"秒回"答案,对复杂问题可多步骤"深度思考",大大节省算力消耗。 千问 3采用混合专家(MoE)架构,总参数量235B,激活仅需22B。千问3预训练数据量达36T , 并在后训练阶段多轮强化学习,将非思考模式无缝整合到思考模型中。千问3在推理、指令遵循、工 具调用、多语言能力等方面均大幅增强,即创下所有国产模型及全球开源模型的性能新高:在奥数水 平的AIME25测评中,千问3斩获81.5分,刷新开源纪录;在考察代码能力的LiveCodeBench评测 中,千问3突破70分大关,表现甚至超过Grok3;在评估模型人类偏好对齐的ArenaHard ...
阿里开源千问3模型 成本仅需DeepSeek-R1三分之一
2 1 Shi Ji Jing Ji Bao Dao· 2025-04-29 00:24
阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个。 4月29日凌晨,阿里巴巴开源新一代通义千问模型Qwen3(简称千问3),参数量仅为DeepSeek-R1的1/3,成本大幅下降,性能 全面超越R1、OpenAI-o1等全球顶尖模型。 千问3是国内首个"混合推理模型","快思考"与"慢思考"集成进同一个模型,对简单需求可低算力"秒回"答案,对复杂问题可多 步骤"深度思考",大大节省算力消耗。 据了解,千问3采用混合专家(MoE)架构,总参数量235B,激活仅需22B。千问3预训练数据量达36T ,并在后训练阶段多轮 强化学习,将非思考模式无缝整合到思考模型中。 同时,所有千问3模型都是混合推理模型,API可按需设置"思考预算"(即预期最大深度思考的tokens数量),进行不同程度的思 考,灵活满足AI应用和不同场景对性能和成本的多样需求。 比如,4B模型是手机端的绝佳尺寸;8B可在电脑和汽车端侧丝滑部署应用;32B最受企业大规模部署欢迎,有条件的开发者也 可轻松上手。 千问3为即将到来的智能体Agent和大模型应用爆发提供了更好的支持。 在评估模型Agent能力的BFCL评测中,千问 ...
OpenAI最早本周发布“o3或o4-mini”,“博士水平AI”要来了?
硬AI· 2025-04-15 15:34
编辑 | 硬 AI OpenAI最新模型取得突破性进展:具备原创构思能力。 点击 上方 硬AI 关注我们 据介绍,最新模型不仅能总结研究论文或解决数学问题,还能够独立提出新构思,连接不同领域的概念,提出创新性实验 设计,完成需要科学家跨领域合作才能实现的成果,相当于"博士水平AI"。 硬·AI 作者 | 李笑寅 据媒体援引知情人士消息, OpenAI最早将在本周发布代号为o3或o4-mini的新模型, 该模型不仅能总结 研究论文或解决数学问题,还能够独立提出新构思,连接不同领域的概念,提出创新性实验设计。 据介绍,即将推出的新模型能同时利用物理学、工程学和生物学等多个领域的知识,提供跨学科的解决方 案,而科学家通常需要跨领域合作才能实现类似成果,相当"博士水平AI"。 硬·AI OpenAI总裁Greg Brockman在2月的"AI研讨会"活动上曾表示: "我们真正的方向是开发能够花大量时间认真思考重要科学问题的模型,我希望在未来几年内,这将 使所有人的效率提高10倍或100倍。" * 感谢阅读! * 转载、合作、交流请留言,线索、数据、商业合作请加微信:IngAI2023 * 欢迎大家在留言区分享您的看法 ...
智谱想给DeepSeek来一场偷袭
Hu Xiu· 2025-03-31 12:39
出品|虎嗅科技组 作者|宋思杭 编辑|苗正卿 头图|智谱Openday现场 那个在一个月内斩获三轮国资的"国家队"智谱,终于开启与DeepSeek正面交锋。 但也并非所有大模型厂商都在摒弃预训练、拥抱DeepSeek。对此,智谱创始人兼CEO张鹏告诉虎 嗅,"我们仍然会坚持预训练,但更深一层的问题是,目前关于预训练有很多没有被关注到的点,比如 预训练的架构、数据使用效率等等。" 实际上,自2025开年以来,DeepSeek对所有基座模型形成的降维打击,正在持续给整个行业带来余 震。"DeepSeek做得那么好,为什么还要投你?"类似这样的灵魂拷问,却从未在过去两年从投资人的口 中传出。相反,"大模型六小虎"曾是他们摘不到的星星。 而从整个第一季度来看,资本正逐渐对大模型初创公司失去耐心。可以说,除了智谱连续拿到地方产投 融资,目前并无市场化资本进入到其余大模型企业当中。 与此同时,这种降维打击所暴露出的另一面是,即使是用百亿元砸出来的预训练,也没能让基座模型厂 商形成护城河。 商业化难题,是大模型企业这三年来都没能绕过去的槛。继拿到多笔国资后,智谱也即将开启新旅程。 在今日的发布会现场,CEO张鹏首次正面回应 ...
解读英伟达的最新GPU路线图
半导体行业观察· 2025-03-20 01:19
如果您希望可以时常见面,欢迎标星收藏哦~ Nvidia 在很大程度上拥有 AI 训练,并且如今在 AI 推理方面占有很大的份额,尤其是基础和推理 模型。所以你可能会认为路线图上没有具体信息。但 Nvidia 也让世界上很多人想知道对 AI 计算的 需求是否最终会减弱,或者至少会用更便宜的替代品来满足。此外,作为其最大客户的所有超大规 模和云构建者也在构建自己的 CPU 和 AI 加速器;公开的路线图是为了提醒他们 Nvidia 致力于构 建比他们更好的系统——并让我们都知道,这样我们就可以跟踪谁在实现他们的里程碑,谁没有。 Nvidia 的路线图非常宏大,它拥有 GPU、CPU、纵向扩展网络(用于跨 GPU 和有时 CPU 共享内 存的内存原子互连)和横向扩展网络(用于更松散地将共享内存系统相互连接)。它还有 DPU,即 具有本地化 CPU 和有时 GPU 处理的高级 NIC,以下路线图中未显示这些产品: Quantum 系列 InfiniBand 交换机的容量增长也同样不尽如人意,也没有入选。对于人工智能领域来 说,InfiniBand 的重要性越来越低,因为人工智能领域希望能够进一步扩展,而基于 Infi ...
AI转向”推理模型和Agent时代“,对AI交易意味着什么?
硬AI· 2025-03-10 10:32
点击 上方 硬AI 关注我们 如果Scaling Law继续有效, 继续看好AI系统组件供应商(如芯片、网络设备等),谨慎对待那些不得不持续投入巨额资 本支出的科技巨头。如果预训练缩放停滞: 看好科技巨头(因为自由现金流将回升),并关注那些拥有大量用户、能够 从推理成本下降中获益的应用类股票。 硬·AI 作者 |硬 AI 编辑 | 硬 AI 还抱着"越大越好"的AI模型不放?华尔街投行巴克莱最新研报给出了一个颠覆性的预测: AI行业正经历一 场"巨变"(Big Shift),"推理模型"和"Agent"将成为新时代的弄潮儿,而"大力出奇迹"的传统大模型, 可能很快就要过气了! 这场变革的核心,是AI模型从"死记硬背"到"举一反三"的进化。过去,我们追求更大的模型、更多的参 数、更海量的训练数据,坚信"量变产生质变"。但现在,巴克莱指出,这条路可能已经走到了尽头。 算力无底洞、成本高企、收益却难以匹配……传统大模型的"军备竞赛"让众多科技巨头苦不堪言。更要命 的是,用户真的需要那么"大"的模型吗?在许多场景下,一个更"聪明"、更会推理的小模型,反而能提供 更精准、更高效的服务。 这究竟是怎么回事?对于投资者来说 ...