NVIDIA开源 Alpamayo-R1:让车真正“理解”驾驶
在加州圣地亚哥举行的 NeurIPS 2025 大会上,NVIDIA 宣布推出Alpamayo-R1—— 全球首个专为自动驾驶研究设计的开源推理型视觉语言动作模型 (Vision-Language-Action Model, VLAM)。这一发布标志着自动驾驶系统正从"感知驱动"迈向"语义理解与常识推理"新阶段。 "我们的目标不是构建一个更快的感知模块,而是赋予自动驾驶系统常识性判断能力。"—— NVIDIA 自动驾驶研究负责人 基于 Cosmos-Reason 架构,实现链式推理 Alpamayo-R1 构建于 NVIDIA 今年早些时候发布的Cosmos-Reason 模型家族之上。该架构引入"思维链"(Chain-of-Thought)机制,使模型能够将复杂驾 驶任务分解为可解释的推理步骤。 例如,在繁忙十字路口,系统会依次执行: 1.识别所有动态参与者(行人、自行车、机动车); 2.推断其潜在意图(是否准备穿越?是否减速?); 3.结合交通规则与历史轨迹预测未来状态; 4.评估本车可行动作的安全边际; 5.输出最优控制指令。 这种结构显著提升了模型在 ODD(运行设计域)边界情况下的鲁棒性,尤其适用于 ...