英伟达发布首款用于自动驾驶汽车开发的视觉语言动作模型

英伟达汽车营销经理凯特瓦沙巴赫(Katie Washabaugh)表示,开放这一平台背后的动机之一是,自动 驾驶的开发研究人员可以了解这些模型是如何进行工作的,从而让整个行业提出评估其工作的标准方 法。 随着芯片成为AI发展的核心,英伟达已成为世界上最有价值的公司之一。但该公司还拥有一个广泛的 软件研究部门,通过发布开源人工智能代码,令其他公司可以采用。 本文系观察者网独家稿件,未经授权,不得转载。 英伟达Alpamayo-R1 英伟达 【文/观察者网 潘昱辰 编辑/高莘】据路透社报道,英伟达于当地时间12月1日发布了新的开源软件 Alpamayo-R1,旨在利用人工智能(AI)中的一些最新"推理"技术加快自动驾驶汽车的开发。该模型目 前已在GitHub和Hugging Face等平台开源发布。 英伟达此次发布的Alpamayo-R1以秘鲁一座特别难以攀登的山峰命名,是一款"视觉-语言-动作"的AI模 型。该模型可使自动驾驶汽车通过传感器组在道路上获得的信息,转换为自然语言描述的行为。 其突破在于,在规划穿越世界的道路时,它会自主描述该行为。例如,如果汽车看到一条自行车道,它 会注意到它看到了这条路,并且正在 ...