Workflow
MoSE
icon
Search documents
三星最新MoSE:专为自驾Corner Case设计的MoE,直接SOTA!
自动驾驶之心· 2025-07-13 13:18
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 今天自动驾驶之心为大家分享 三星中国研究院&DS AI中心 最新的工作! MoSE: 面向自动驾驶的 Skill-by-Skill 混合专家学习框架!难例场景新SOTA。 如果您有 相关工作需要分享,请在文末联系我们! 自动驾驶课程学习与技术交流群事宜,也欢迎添加小助理微信AIDriver004做进一 步咨询 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 论文作者 | LU XU等 编辑 | 自动驾驶之心 写在前面 & 笔者的个人理解 近期研究表明,使用网络规模数据训练的大型语言模型(LLMs)和视觉语言模型(VLMs)能够增强端到端自 动驾驶系统的泛化能力和解释能力。具体而言,通过动态地将输入路由到参数的专业子集,专家混合(MoE)技 术使得通用的LLM或VLM在保持计算效率的同时实现了显著的性能提升。 然而,一般的MoE模型通常需要大量的训练数据和复杂的优化过程。在这项工作中,受人类驾驶员学习过程的启 发,我们提出了一种面向技能的MoE方法,称为MoSE,它模拟了人类驾驶员的学习和推理过程,逐技能、 ...