Workflow
Self-Forcing++:让自回归视频生成模型突破 4 分钟时长极限
机器之心·2025-10-18 08:30

本工作由加州大学洛杉矶分校与字节 Seed 等团队联合完成。 在扩散模型持续引领视觉生成浪潮的今天,图像生成早已臻于极致,但视频生成仍被一个关键瓶颈困住—— 时长限制 。目前多数模型还停留在数秒短视频的生 成, Self-Forcing++ 让视频生成首次跨入 4 分钟高质量长视频时代 ,且无需任何长视频数据再训练。先展示一段 100 秒的生成视频: 论文标题: Self-Forcing++: Towards Minute-Scale High-Quality Video Generation 论文地址: https://arxiv.org/abs/2510.02283 研究背景: 项目主页: https://self-forcing-plus-plus.github.io 代码: https://github.com/justincui03/Self-Forcing-Plus-Plus 为什么长视频生成如此困难? 在扩散模型驱动的视觉生成领域,从 Sora、Wan、Hunyuan-Video 到 Veo,视频模型正不断逼近真实世界。然而几乎所有主流模型都有一个共同限制:只能生成数 秒的短片段。 这背后的原因 ...