Workflow
潜变量建模
icon
Search documents
翁荔最新万字长文:Why We Think
量子位· 2025-05-18 05:20
网友们看罢,纷纷打出了 "精彩" 二字: 感觉就像打开了人工智能理解的一个全新维度。 金磊 发自 凹非寺 量子位 | 公众号 QbitAI 《Why We Think》。 这就是北大校友、前OpenAI华人VP 翁荔 所发布的最新 万字长文 —— 围绕"测试时计算"(Test-time Compute)和"思维链"(Chain-of-Thought,CoT),讨论了如何通过这些技术显著提升模型性能。 翁荔表示: 让模型在输出答案前多思考一会儿(比如通过智能解码、思维链推理、潜在思考等方法),能显著提升它的智能水平,突破当前的能 力瓶颈。 那么接下来,我们就来深入了解一下这篇文章。 动机 让模型思考更长的时间可以通过几种不同的方式来激发。 心理学类比 核心思想与人类思考方式深度关联。 人类无法立即回答"12345×56789等于多少?",而是需要时间分析——这正是Daniel Kahneman在《思考,快与慢》(2013)中提出的双 系统理论: 因为系统1思维是快速和简单的,它经常以准确性和逻辑性为代价,成为主要的决策驱动因素。它自然依赖于我们大脑的思维捷径(即启发 式),并可能导致错误和偏见。 通过有意识地放 ...
刚刚!北大校友Lilian Weng最新博客来了:Why We Think
机器之心· 2025-05-18 04:25
选自 Lil'Log 作者: Lilian Weng 机器之心编译 学习大模型的优质博客又更新了! 最近,北大校友、前 OpenAI 应用 AI 研究负责人 Lilian Weng 更新了一篇长长长长长长长博客《Why We Think》。 文章回顾了近期在如何有效利用测试时计算(即「思考时间」)及其作用机制方面的研究进展,旨在让模型「思考得更久」这一目标可以从多个角度得到合理动 机支持。 通过观察 GPT、Claude、Gemini 等模型的迭代,可以清晰地看到,它们在复杂逻辑推理、长文本理解、数学问题求解以及代码生成与调试等高级认知任务上的性 能边界被不断拓展。 这种性能的提升得益于思维链(CoT)和测试时计算等策略的优化,但也带来了新的研究挑战。 为了方便国内读者更好地学习这篇内容,机器之心对此文章进行了编译。感兴趣的读者也可查阅原英文内容。 英文博客链接: https://lilianweng.github.io/posts/2025-05-01-thinking/ 类比心理学 该核心思想与人类的思维方式密切相关。人类通常无法立即给出「12345 × 56789」的答案,对于复杂问题,进行一段时间的思 ...