教育视频生成

Search documents
Code2Video:代码驱动、智能体协同、精准可控的教学视频生成
机器之心· 2025-10-10 06:36
本研究由新加坡国立大学 ShowLab 团队主导完成。 共一作者 Yanzhe Chen 陈彦哲(博士生)与 Kevin Qinghong Lin 林庆泓(博士生)均来自 ShowLab@NUS, 分别聚焦于多模态理解以及智能体(Agent)研究。 项目负责人为新加坡国立大学校长青年助理教授 Mike Zheng Shou 寿政。 随着视频生成模型的发展,基于像素空间(Pixel-based)的文生视频方法(如 Sora2、Veo3 等扩散模型)在自然场景生成上表现出色,但在教育场景中仍存在以下 不足: 图 1 : Pixel-based Video Generation 对比我们的 Code-driven Video Generataion 文本模糊、公式失真、动画逻辑不连贯; 缺乏对知识点的精准把控和结构化呈现; 难以复现、难以编辑,无法满足教学需求。 视频 1 : 扩散模型与 Code2Video 生成视频对比 相比之下,教育视频强调的是清晰的知识传递、逻辑的演进、可控的时序与空间结构。为此,本文提出了 Code2Video——一种基于代码驱动的视频生成新范式。 标题:Code2Video: A Cod ...