Workflow
OpenChat
icon
Search documents
又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同
Sou Hu Cai Jing· 2025-08-10 04:21
闻乐 发自 凹非寺 量子位 | 公众号 QbitAI 27M小模型超越o3-mini-high和DeepSeek-R1!推理还不靠思维链。 开发者是那位拒绝了马斯克、还要挑战Transformer的00后清华校友,Sapient Intelligence的创始人王冠。 2700万参数,就实现了对现有大模型的精准超车。 不用预训练补课,还不靠思维链打草稿,仅凭1000个训练样本,就把极端数独、30x30迷宫玩得明明白白。 所以,HRM这个小模型是如何做到的? 核心是仿脑的双层循环模块设计 HRM之所以能有如此出色的表现,源于其五项核心技术的巧妙设计。 首先是分层循环模块与时间尺度分离。 HRM受大脑皮层区域分层处理和时间分离机制启发,设计了两个相互配合的循环模块:一个高层模块负责慢节奏的抽象规划,一个低层模块处理快节奏 的细节计算,不用明确监督中间过程,一次就能完成推理。 这个27M小模型就是Sapient最新提出的开源可复现的分层推理模型Hierarchical Reasoning Model(下面简称HRM),模仿大脑的分层处理与多时间尺度 运作机制,克服了标准Transfomer的计算局限。 两者在不同时 ...
又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同
量子位· 2025-08-10 04:11
开发者是那位拒绝了马斯克、还要挑战Transformer的00后清华校友,Sapient Intelligence的创始人 王冠 。 27M 小模型超越o3-mini-high和DeepSeek-R1!推理还不靠思维链。 闻乐 发自 凹非寺 量子位 | 公众号 QbitAI 这个27M小模型就是Sapient最新提出的开源可复现的 分层推理模型Hierarchical Reasoning Model(下面简称HRM) ,模仿大脑的分层 处理与多时间尺度运作机制,克服了标准Transfomer的计算局限。 2700万参数,就实现了对现有大模型的精准超车。 不用预训练补课,还不靠思维链打草稿,仅凭1000个训练样本,就把极端数独、30x30迷宫玩得明明白白。 甚至连衡量通用智能的ARC-AGI测试都能碾压一众参数规模更大、上下文更长的Claude 3.7等"大前辈"。 有网友感叹,这就像四两拨千斤AI版…… 所以,HRM这个小模型是如何做到的? 核心是仿脑的双层循环模块设计 HRM之所以能有如此出色的表现,源于其五项核心技术的巧妙设计。 首先是分层循环模块与时间尺度分离 。 HRM受大脑皮层区域分层处理和时间分离 ...
马斯克挖不动的清华学霸,一年造出 “反内卷 AI”!0.27B参数硬刚思维链模型,推理完爆o3-mini-high
AI前线· 2025-08-04 06:43
整理 | 华卫 近期,总部位于新加坡的 Sapient Intelligence 推出了一款新的人工智能模型,名为 HRM。其参数规模仅为 2700 万,但能够解决那些让当今先进大型 语言模型都束手无策的复杂推理难题。 据其研究人员称,像 ChatGPT 这类模型存在一个问题——它们在架构上属于"浅层"设计。这些模型依赖"思维链(CoT)"提示法(本质上是通过一步步 自言自语来拆解问题)作为辅助手段,但这种方式存在隐患:只要一步出错,整个推理过程就会偏离正轨。而这次发布的小型模型 HRM 采用了截然不 同的思路,其做法是借鉴了人类大脑的工作方式。 发布后,该模型迅速引起了网友的讨论。不少网友震惊于该模型的参数规模及带来的效果,称"这太疯狂了"。一位网友指出,"一个名为 HRM 的小型 AI 模型刚刚击败了 Claude 3.5 和 Gemin,它甚至不使用 token。" 一位资深投资人对该模型的成果论文给予极高的评价:"人工智能领域最重要的论文之一"。还有一位网友称,"如果这个成果得以确立,它不仅仅是一篇 人工智能论文——它标志着一个哲学性的转变。效率和结构或许终于能够战胜蛮力。" 值得一提的是,Sapie ...
X @Token Terminal 📊
Token Terminal 📊· 2025-07-02 16:32
RT Fabio (@Zero2HeroZombie)In June, @OpenChat has added 13.7K new Users (12.9K registered with POH) 📈Hopefully, the number of new users in the $ICP Ecosystem should rapidly increase after the release of ☕️Data: @tokenterminal https://t.co/Y2PSRx8hv1 ...