Percept-WAM:真正「看懂世界」的自动驾驶大脑,感知到行动的一体化模型
机器之心·2025-12-10 02:09
在过去几年,自动驾驶圈流行一句话: 「大模 型会说话,但不会开 车。」 一方面,大规模视觉语言模型(VLM)在文本理解和逻辑推理上突飞猛进;另一方面,一旦把它们放到真实道路上,让它们处理长尾场景、远距离目标和复杂博 弈时,这些 "聪明大脑" 却常常犯低级错误:看不清、定位不准、反应不稳定。深层原因在于 —— 现有 VLM 在空间感知和几何理解上的能力,远远跟不上它们在 语义层面的 "表达能力" 。 为了让大模型真的能 "看懂世界",在很多现有方案中,研究者会在训练中加入一些 "感知类 QA" 问题,比如问 "左前方有没有车""两车距离有多远"。但这类监督 更多停留在语义标签和粗略相对关系层面,并没有让模型真正学会可用于控制决策的强 2D/3D 感知能力 —— 例如精确、稳定的检测框、分割结果和 BEV 感知信 息。换句话说,今天很多 VLA 仍然停留在「会回答关于世界的问题」,而不是「真的看清这个世界」。这种 "弱感知的大模型",显然不足以支撑自动驾驶和广义 具身智能对空间理解的高要求。 近日,来自引望智能与复旦大学的研究团队联合提出了一个面向自动驾驶的新一代大模型 ——Percept-WAM(Percept ...