端到端自动驾驶技术
Search documents
英伟达把自动驾驶核心技术公开了,吴新宙牵头研发,VLA大模型和海量数据免费用
3 6 Ke· 2025-12-03 10:52
所有人都能用,英伟达开源VLA自动驾驶模型。 ▲Alpamayo-R1相对基线的提升明显 日前,英伟达(NVIDIA)研究团队正式发布并开源全新的视觉-语言-动作(VLA)模型Alpamayo-R1,(简称:AR1)并明确宣布计划在未来的更新中开 源该模型的部分核心数据集。 ▲Alpamayo-R1对应的数据集已上传至开源社区 目前,该模型对应的数据集也已上传至开源社区,总大小约100TB,这也是英伟达首次将VLA模型进行开源。 在数据许可的部分,英伟达明确了数据集可以用于商业和非商业用途,这或许意味着之前没有太多VLA技术积累的公司,也可以通过英伟达快速上手 VLA的开发了。 ▲Alpamayo-R1模型架构 这一举措不仅打破了高端自动驾驶模型的封闭高墙,更标志着端到端自动驾驶技术从单纯的"模仿行为"迈向了具备深层"因果思考"的新阶段。 对于自动驾驶行业而言,Alpamayo-R1的出现直击了当前最令人头疼的痛点——长尾场景(Long-tail scenarios)下的安全性。 英伟达此次带来的 Alpamayo-R1正是为了终结这一困境,而其交出的实测成绩单也足够令人信服。 | Model | Off-R ...
清华最新SOTA!ArbiViewGen:自监督框架实现多车型任意视角可控图像生成~
自动驾驶之心· 2025-08-10 23:32
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近30个 方向 学习 路线 今天自动驾驶之心为大家分享 清华 最新的工作! ArbiViewGen:自监督框架实现多车型任意视点可控图像生成,性能达SOTA! 如 果您有相关工作需要分享,请在文末联系我们! 自动驾驶课程学习与 技术交流群加入 ,也欢迎添加小助理微信AIDriver005 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 论文作者 | Yatong Lan等 编辑 | 自动驾驶之心 写在前面 & 笔者的个人理解 任意视角图像生成 在自动驾驶领域具有重要潜力,但由于缺乏外推视角的真实数据,这阻碍了高保真生成模型的训练,因此仍然是一个具有挑战性的任务。 在本工作中,我们提出了 ArbiViewGen ,一个基于扩散的新框架,用于从任意视角点生成可控的相机图像。为了解决未见视角中缺乏真实数据的问题,我们引入 了两个关键组件: 特征感知自适应视角拼接(FAVS) 和 跨视角一致性自监督学习(CVC-SSL) 。 FAVS 采用分层匹配策略,首先使用相机姿态建立粗略几何对应关系,然后通过改进的特征匹配算法进行细粒度对齐,并通过聚 ...