参数化知识
Search documents
刚刚,腾讯姚顺雨署名首篇论文发布,「下半场」先搞上下文学习
机器之心· 2026-02-03 10:35
机器之心编辑部 不久前在 AGI-Next 前沿峰会上,姚顺雨曾分享过一个核心观点:模型想要迈向高价值应用,核心瓶颈就在于能否「用好上下文(Context)」。 这与最近 OpenAI Jiayi Weng 在访谈中的看法不谋而合。Jiayi Weng 认为,上下文决定了模型和人类认知的边界。只要信息足够对等,普通人大概也能在 OpenAI 胜任工作,人和人的差距往往只是源于信息的不对称。 而近日, 混元团队和复旦联合团队 发布了首篇论文《CL-bench》,在「重视上下文」的基础上又往前推了一大步。 值得一提的是,这也是姚顺雨加入腾讯后首次署名的研究论文。 论文证实了一个更棘手的问题:即便抹平了上下文带来的信息差,模型也未必能解决问题。这说明模型在上下文利用上,依然存在显著的能力短板。 具体来说,作者认为上下文「给到位了」并不等同于任务就能「做对」。这中间考验的是模型的学习能力:就像两个学习天赋不同的人,读的是同一本武功秘 籍,有人能瞬息间领悟招式精髓,有人却始终不得要领。 这种差异的本质在于模型的上下文学习能力不同。 如果模型缺乏从上下文中学习新知识、掌握新技能的能力,哪怕解决任务所需的逻辑和范例都近在咫 ...