Workflow
专家混合(MoE)技术
icon
Search documents
端到端再进化!用扩散模型和MoE打造会思考的自动驾驶Policy(同济大学)
自动驾驶之心· 2025-09-14 23:33
最近,大模型在自动驾驶领域也逐渐崭露头角,像视觉-语言模型(VLM)和视觉-语言-动作模型(VLA)已经在理解场景、语义关联和泛化能力上有了不错的表现。不 过,这类模型在实际连续控制场景中还受一些限制,比如推理速度慢、动作不够连贯,以及安全性保障难度大。 与此同时,扩散模型(Diffusion Models)正在改变视觉、音频和控制领域的生成式建模方式。和传统的回归或分类方法不同,扩散策略(Diffusion Policy, DP)把动作生 成看作一个"逐步去噪"的过程,不仅能更好地表达多种可能的驾驶选择,还能保持轨迹的时序一致性和训练的稳定性。不过,这类方法在自动驾驶中还没被系统化研究 过。扩散策略通过直接建模输出动作空间,为生成平滑可靠的驾驶轨迹提供了一种更强大、更灵活的思路,非常适合解决驾驶决策中的多样性和长期稳定性问题。 另一方面,专家混合(MoE, Mixture of Experts)技术也逐渐成为大模型的重要架构。它通过按需激活少量专家,让模型在保持计算效率的同时具备更强的扩展性和模块化 能力。MoE 在自动驾驶中也被尝试应用,比如做多任务策略和模块化预测,但大多数设计还是面向具体任务,限制了专 ...
三星最新MoSE:专为自驾Corner Case设计的MoE,直接SOTA!
自动驾驶之心· 2025-07-13 13:18
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 今天自动驾驶之心为大家分享 三星中国研究院&DS AI中心 最新的工作! MoSE: 面向自动驾驶的 Skill-by-Skill 混合专家学习框架!难例场景新SOTA。 如果您有 相关工作需要分享,请在文末联系我们! 自动驾驶课程学习与技术交流群事宜,也欢迎添加小助理微信AIDriver004做进一 步咨询 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 论文作者 | LU XU等 编辑 | 自动驾驶之心 写在前面 & 笔者的个人理解 近期研究表明,使用网络规模数据训练的大型语言模型(LLMs)和视觉语言模型(VLMs)能够增强端到端自 动驾驶系统的泛化能力和解释能力。具体而言,通过动态地将输入路由到参数的专业子集,专家混合(MoE)技 术使得通用的LLM或VLM在保持计算效率的同时实现了显著的性能提升。 然而,一般的MoE模型通常需要大量的训练数据和复杂的优化过程。在这项工作中,受人类驾驶员学习过程的启 发,我们提出了一种面向技能的MoE方法,称为MoSE,它模拟了人类驾驶员的学习和推理过程,逐技能、 ...