Autonomous driving

Search documents
WeRide to Announce Second Quarter 2025 Financial Results on July 31, 2025
Globenewswire· 2025-07-16 10:00
Company Overview - WeRide Inc. is a global leader in autonomous driving technology and the first publicly traded Robotaxi company [3] - The company has tested or operated its autonomous vehicles in over 30 cities across 10 countries [3] - WeRide is the first and only technology company to receive autonomous driving permits in five markets: China, the UAE, Singapore, France, and the US [3] - The WeRide One platform offers autonomous driving products and services ranging from Level 2 to Level 4, catering to mobility, logistics, and sanitation industries [3] - WeRide was recognized in Fortune Magazine's 2024 "The Future 50" list [3] Upcoming Financial Results - WeRide plans to release its second quarter 2025 financial results before the U.S. market opens on July 31, 2025 [1] - The management team will host an earnings conference call at 8:00 AM U.S. Eastern Time on the same day [1] - Participants must register online in advance to receive dial-in numbers and a unique access PIN for the conference call [1]
自动驾驶论文速递 | 多模态大模型、运动规划、场景理解等~
自动驾驶之心· 2025-07-13 08:10
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 MCAM:面向自车层面驾驶视频理解的多模态因果分析模型 重庆大学&国防科技大ICCV25中稿的工作,本文提出 MCAM 模型,通过 DSDAG 因果图建模自车状态动 态演化,在BDD-X数据集上将驾驶行为描述任务BLEU-4提升至 35.7%,推理任务BLEU-4提升至 9.1%,显 著优于DriveGPT4等基线模型。 主要贡献: 算法框架: 实验结果: 论文标题:MCAM: Multimodal Causal Analysis Model for Ego-Vehicle-Level Driving Video Understanding 论文链接:https://arxiv.org/abs/2507.06072 代码:https://github.com/SixCorePeach/MCAM 1. 提出驾驶状态有向无环图(DSDAG),用于建模动态驾驶交互和状态转换,为因果分析模块(CAM) 提供结构化理论基础。 2. 提出多模态因果分析模型(MCAM),这是首个针对 ego-vehicle 级驾驶视频理解 ...
资料汇总 | VLM-世界模型-端到端
自动驾驶之心· 2025-07-12 12:00
作者 | qian 编辑 | 自动驾驶之心 点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 本文只做学术分享,如有侵权,联系删文 视觉大语言模型 综述汇总 基础理论 原文链接: https://zhuanlan.zhihu.com/p/1922228114404143784 预训练 智能交通和自动驾驶中的 LLM:https://github.com/ge25nab/Awesome-VLM-AD-ITS AIGC 和 LLM:https://github.com/coderonion/awesome-llm-and-aigc 视觉语言模型综述:https://github.com/jingyi0000/VLM_survey 用于 CLIP 等视觉语言模型的出色提示 / 适配器学习方法:https://github.com/zhengli97/Awesome-Prompt- Adapter-Learning-for-VLMs LLM/VLM 推理论文列表,并附有代码:https://github.com/D ...
暑假打比赛!RealADSim Workshop智驾挑战赛正式开启,奖池总金额超30万(ICCV'25)
自动驾驶之心· 2025-07-11 09:42
Core Viewpoint - The article emphasizes the significance of high-fidelity simulation technology in overcoming the challenges of testing autonomous driving algorithms, particularly through the introduction of New View Synthesis (NVS) technology, which allows for the creation of closed-loop driving simulation environments based on real-world data [1][2]. Group 1: Challenges and Tasks - The workshop addresses two main challenges in the application of NVS technology, focusing on the need for improved rendering quality in extrapolated views and the evaluation of driving algorithms in closed-loop simulation environments [2][3]. - The first track, "Extrapolated View New View Synthesis," aims to enhance rendering quality under sparse input views, which is crucial for evaluating autonomous driving algorithms in various scenarios [3][4]. - The second track, "Closed-Loop Simulation Evaluation," highlights the importance of creating high-fidelity simulation environments that bridge the gap between real-world data and interactive assessments, overcoming the limitations of traditional static datasets [5][6]. Group 2: Competition Details - Each track of the workshop offers awards, including a Creative Award of $9,000, and the competition is set to commence on June 30, 2025, with submissions due by August 31, 2025 [8][9]. - The workshop encourages global participation to advance autonomous driving technology, providing a platform for challenging and valuable research [10][11].
学长让我最近多了解些技术栈,不然秋招难度比较大。。。。
自动驾驶之心· 2025-07-10 10:05
❝ 柱哥,我是今年要找工作的应届生,211的本硕。最近在一家小厂实习着,这不秋招也开始了吗,就打算看看岗位,发现现在市面上都是一些端到端、VLA、强化学 习、世界模型之类的岗位~ 自己的技术栈主要聚焦在多传感器融合、3D检测这种。我咨询了毕业的学长,他说实际每个公司做前沿方向的人很少的,现在公司是即希望你什么都懂,但实际干 活的时候可能还是做一些量产的工作,偏向于数据啊、检测、OCC之类的。 目前我也想快速的丰富自己的技术栈,不求把新方向完全搞懂吧,知道是怎么回事就可以,有没有快速可以补充技术方向基础的办法? 星主回答: 点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 自动驾驶的技术更新实在是太快了,以前学BEV还可以找到不错的工作,现在就只能当做个基础的知识面,还需要你懂前沿的世界模型、扩散模型等等等等。可以说自动驾 驶算法工程师越来越往复合型人才的方向发展~ 最近有 知识星球 的小伙伴私聊我提问,估计也说出大多数26届求职伙伴的心声: 你学长说的很多!前沿的方向虽然很火,但量产的形式还不明确。各家公司都怕技术掉队,所以即希望招来的人懂一些新方向,又能实 ...
传统规控和端到端岗位的博弈......(附招聘)
自动驾驶之心· 2025-07-10 03:03
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 端到端对传统规控岗位的冲击 最近一年,以端到端自动驾驶技术为代表的智驾方案以摧枯拉朽之势席卷整个行业,其场景泛化能力与数据驱动 特性确实令人振奋。基于规则的规控方法设计复杂,且无法考虑到所有case,相关方案被逐渐替代,可以说端到 端在不断地冲击着传统规控,pnc岗位需求也开始慢慢减少。但端到端和pnc是零和博弈的关系还是相互依赖的关 系呢? 两个方案的区别 传统规控依赖开发人员手动编写规则和逻辑来实现车辆的规划与控制,一般是在感知和轨迹预测模块后。包括 PID、LQR、MPC等经典控制算法,以及A star、Hybrid A star、Lattice Planner等路径规划算法。如果说优势, 那就是算法明确、可解释性强,适用于成熟稳定的应用场景。 端到端算法试图直接从原始传感器数据输出控制指令或轨迹,中间不经过复杂的中间步骤,去除模块化的信息损 失,模型可以直接感知整个空间的状态信息,从全局角度优化最佳值。 优缺点对比 1)端到端方案 端到端模型直接从传感器数据映射到控制指令,减少了传统模块化架构中的感知 ...
端到端笔记:diffusion系列之Diffusion Planner
自动驾驶之心· 2025-07-09 12:56
作者 | 瑶大 编辑 | 自动驾驶之心 原文链接: https://zhuanlan.zhihu.com/p/1925984408785127117 点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 本文只做学术分享,如有侵权,联系删文 paper:https://arxiv.org/pdf/2501.15564 自动驾驶算法两大模块:场景理解、决策。 场景理解:理解周围的环境、预测agents的行为; 做决策:生成安全舒适的轨迹、可定制化多样化(可保守可激进)的驾驶行为。 diffusion planner这篇工作关注 planner 做决策部分,关注闭环场景的性能。 对于自动驾驶规划这一部分有几种方式: rule-based :如PDM(https://arxiv.org/pdf/2306.07962),选择道路中心线,基于周车的行为预测,利用 IDM得到几种候选轨迹,利用nuPlan的评分标准查看哪条轨迹是最好的。 rule-based的迁移性不好,在某个环境、系统下调好的规则不一定适用于其他场景。大 ...
2025秋招开始了,这一段时间有些迷茫。。。
自动驾驶之心· 2025-07-08 07:53
Core Viewpoint - The article discusses the current trends and opportunities in the fields of autonomous driving and embodied intelligence, emphasizing the need for strong technical skills and knowledge in cutting-edge technologies for job seekers in these areas [3][4]. Group 1: Job Market Insights - The job market for autonomous driving and embodied intelligence is competitive, with a high demand for candidates with strong backgrounds and technical skills [2][3]. - Companies are increasingly looking for expertise in advanced areas such as end-to-end models, visual language models (VLM), and reinforcement learning [3][4]. - There is a saturation of talent in traditional robotics, but many startups in the robotics sector are rapidly growing and attracting significant funding [3][4]. Group 2: Learning and Development - The article encourages individuals to enhance their technical skills, particularly in areas like SLAM (Simultaneous Localization and Mapping) and ROS (Robot Operating System), which are relevant to robotics and embodied intelligence [3][4]. - A community platform is mentioned that offers resources such as video courses, hardware learning materials, and job information, aiming to build a large network of professionals in intelligent driving and embodied intelligence [5]. Group 3: Technical Trends - The article highlights four major technical directions in the industry: visual language models, world models, diffusion models, and end-to-end autonomous driving [8]. - It provides links to various resources and papers related to these technologies, indicating a focus on the latest advancements and applications in the field [9][10].
小马智行与迪拜道路交通管理局签署战略合作协议:首批车辆将于今年开启路测
IPO早知道· 2025-07-07 07:51
据 IPO早知道消息, 小马智行与迪拜道路交通管理局( RTA) 日前 在迪拜签署战略合作协议,并 举办 Robotaxi发布仪式。双方将携手推进Robotaxi在迪拜的商业化落地,首批车辆将于2025年开 启路测,为2026年实现全无人商业化运营奠定基础。 此次战略合作协议由迪拜道路交通管理局公共交通署首席执行官艾哈迈德 ·哈希姆·巴赫罗齐安 (Ahmed Hashim Bahrozyan)与小马智行副总裁施雨共同签署,迪拜道路交通管理局局长、董事 会主席马塔尔·塔耶尔阁下(His Excellency Mattar Al Tayer)与小马智行首席财务官王皓俊见证 了签约仪式。根据合作计划,双方将共同推动L4级自动驾驶技术融入迪拜多模式交通体系,提升城 市出行效率,缓解交通拥堵问题,并构建可持续的交通模式,助力迪拜实现2030年自动驾驶出行占 比达25%的战略目标。 迪拜道路交通管理局局长、董事会主席马塔尔 ·塔耶尔阁下对与小马智行签署战略合作协议感到高 兴。他强调,此次合作将助力迪拜持续推进自动驾驶出行解决方案的落地应用,巩固其作为未来交通 领域全球引领者的地位。同时,塔耶尔阁下对小马智行选择迪拜作为其 ...
资料汇总 | VLM-世界模型-端到端
自动驾驶之心· 2025-07-06 08:44
本文只做学术分享,如有侵权,联系删文 视觉大语言模型 综述汇总 基础理论 作者 | qian 编辑 | 自动驾驶之心 原文链接: https://zhuanlan.zhihu.com/p/1922228114404143784 点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 预训练 智能交通和自动驾驶中的 LLM:https://github.com/ge25nab/Awesome-VLM-AD-ITS AIGC 和 LLM:https://github.com/coderonion/awesome-llm-and-aigc 视觉语言模型综述:https://github.com/jingyi0000/VLM_survey 用于 CLIP 等视觉语言模型的出色提示 / 适配器学习方法:https://github.com/zhengli97/Awesome-Prompt- Adapter-Learning-for-VLMs LLM/VLM 推理论文列表,并附有代码:https://github.com/D ...