Test-Time Compute
Search documents
2025 AI 年度复盘:读完200篇论文,看DeepMind、Meta、DeepSeek ,中美巨头都在描述哪种AGI叙事
3 6 Ke· 2026-01-12 08:44
编者按:以定力致远,以重构图新。大象新闻、大象财富联合腾讯新闻、腾讯科技推出2025年终策划《定力与重构》,回望2025、展望2026, 让洞察照见本质,向变革寻求确定。 在刚刚过去的2025年,我通读了大约两百篇人工智能领域的论文。 如果用一个词来形容这一年的技术体感,那就是「暴力美学」时代的终结。单纯依靠堆砌参数摘取低垂果实的日子已经过去,2025年的技术进化回归到了 基础研究。 这篇文章,我想通过梳理这一年的技术脉络,明确三个结论: 第一,2025年,技术进步主要集中在流体推理(Fluid Reasoning)、长期记忆(Long-term Memory)、空间智能(Spatial Intelligence)以及元学习 (Meta-learning) 这四个领域。原因在于Scaling Law在单纯的参数规模上遇到了边际效应递减,为了突破AGI 的瓶颈,业界被迫寻找新的增长点,即从「把模型做大」转向把「模型做聪明」。 第二,现在的技术瓶颈主要在模型要"不仅要博学,更要懂思考和能记住"。 通过Yoshua Bengio提出的AGI框架(基于CHC认知理论),我们发现之前的 AI存在严重的「能力偏科」:它在 ...
X @Anthropic
Anthropic· 2025-07-29 17:20
Research Findings - Anthropic Research 发现,在某些情况下,更长的推理时间会导致准确率降低 [1] - 研究表明,简单地增加测试时的计算量可能会无意中加强有问题的推理模式 [1] Implications - 行业应警惕测试时计算的逆向扩展现象,即计算资源增加反而导致性能下降 [1] - 行业需要更深入地研究和理解推理过程,以避免因盲目扩展计算资源而产生负面影响 [1]