北大校友、OpenAI前安全副总裁Lilian Weng关于模型的新思考:Why We Think
Founder Park·2025-05-18 07:06
文章转载自「机器之心」的编译版本。 学习大模型的优质博客又更新了! 最近,北大校友 Lilian Weng (OpenAI前AI安全与机器人技术应用研究副总裁,现Thinking Machines Lab联合创始人,知名博客Lil'Log作者) 更新了一篇长长长长长长长博客《Why We Think》。 最新、最值得关注的 AI 新品资讯; 不定期赠送热门新品的邀请码、会员码; 文章回顾了近期在如何有效利用测试时计算(即「思考时间」)及其作用机制方面的研究进展,旨在让模型「思考得更久」这一目标可以从多个角 度得到合理动机支持。 通过观察 GPT、Claude、Gemini 等模型的迭代,可以清晰地看到,它们在复杂逻辑推理、长文本理解、数学问题求解以及代码生成与调试等高级 认知任务上的性能边界被不断拓展。 这种性能的提升得益于思维链(CoT)和测试时计算等策略的优化,但也带来了新的研究挑战。 为了方便国内读者更好地学习这篇内容,机器之心对此文章进行了编译。感兴趣的读者也可查阅原英文内容。 英文博客链接: https://lilianweng.github.io/posts/2025-05-01-thinking ...