8万条!清华开源VLA数据集:面向自动驾驶极端场景,安全提升35%
自动驾驶之心·2025-07-22 12:46
以下文章来源于深蓝AI ,作者迟浩瀚 深蓝AI . 专注于人工智能、机器人与自动驾驶的学习平台。 作者 | 迟浩瀚 来源 | 深蓝AI 点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 本文只做学术分享,如有侵权,联系删文 推荐语:自动驾驶领域的视觉-语言-动作(VLA)模型虽前景可期,却在非结构化边界场景中表现欠佳,主要归因于针对性基准数据的稀缺。为此,这 篇研究推出Impromptu VLA解决方案。核心贡献在于构建了Impromptu VLA数据集:该数据集包含8万余条精细构建的视频片段,提炼萃取自8个开源 大规模数据集中的200余万条原始素材。 本文由论文一作迟浩瀚 论 文题目: Impromptu VLA: Open Weights and Open Data for Driving Vision-Language-Action Models 论文作者: Haohan Chi, Huan-ang Gao, Ziming Liu, Jianing Liu, Chenyu Liu, Jinwei Li ...