打破思维链推理瓶颈!“软推理”让大模型学会人类抽象能力,token使用量还更少了
量子位·2025-05-24 04:38
闻乐 发自 凹非寺 量子位 | 公众号 QbitAI 不再像CoT("思维链")一样"一个字一个字往外蹦",加上 "软思维" 就能让大模型像人类一样进行抽象思考。 来自SimularAI和微软DeepSpeed的研究员联合提出了 Soft Thinking ,让模型在 连续的概念空间 中进行 "软推理",而非局限于离散的语 言符号,打破了基于离散token的推理瓶颈。 相比标准CoT,Soft Thinking最高提升Pass@1平均准确率2.48%、减少token使用量22.4%。 并且,Soft Thinking是一种 即插即用 的推理策略, 无需额外训练 即可应用于现有模型(如Llama、Qwen)。 目前主流的语言模型推理方法存在一个关键问题: 只能逐字生成离散的语言符号(如单词或子词) 。 这就好比思考时只能一个字一个字的蹦出来,不仅限制了模型表达抽象概念的能力,还容易在复杂问题中因"单一路径选择"而犯错。 人类大脑思考时并非依赖明确的语言符号,而是通过 抽象概念的灵活整合 进行推理。 Soft Thinking正是受此启发,将语言模型的推理从"离散符号空间"拓展到"连续概念空间"。 这样,模型就可 ...