TurboDiffusion
Search documents
单卡2秒生成一个视频,清华联手生数开源TurboDiffusion,视频DeepSeek时刻来了
3 6 Ke· 2025-12-25 12:12
包括Meta研究员和伯克利教授也站台打call: 现在生成一个视频,比你刷视频还要快。 因为一个开源新框架,竟能让视频生成在保证质量的情况下,最高提速200多倍! 而且还是单张显卡就能hold住的那种,来感受一下这个feel: 没错,原先1.3B-480P在单张RTX 5090生成一个5秒的视频,需要的时间大概是184秒。 而现在,只需要1.9秒,速度足足提升97倍! 这背后,便是清华大学TSAIL实验室和生数科技联合开源的视频生成加速新框架——TurboDiffusion。 | 新框架一出,网友们也是不淡定了,直呼: | | --- | | 我们已经进入到了生成的视频比看的视频还多的时代。 | 2秒就能生成一个视频 过去,视频生成虽然惊艳,但慢,一直是个老大难的痛点问题。 想生成一段几秒的高质量视频,模型往往需要在大显存高端显卡上吭哧吭哧跑上几分钟到几十分钟。这种延迟,极大限制了创作者的灵感爆发和实时交互 的可能性。 TurboDiffusion的出现,就是为了解决这个问题。 咱们直接看一组数据。 在单张RTX 5090上,针对1.3B大小的文生视频模型: 1. 原始生成:生成一段480P视频需要约184秒 ...
单卡2秒生成一个视频!清华联手生数开源TurboDiffusion,视频DeepSeek时刻来了
量子位· 2025-12-25 11:51
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 现在生成一个视频,比你刷视频还要快。 因为一个 开源新框架 ,竟能让视频生成在保证质量的情况下,最高 提速200多倍! 而且还是 单张显卡 就能hold住的那种,来感受一下这个feel: 没错,原先1.3B-480P在单张RTX 5090生成一个5秒的视频,需要的时间大概是184秒。 而现在,只需要 1.9秒 ,速度足足提升97倍! 这背后,便是清华大学TSAIL实验室和生数科技联合开源的视频生成加速新框架—— TurboDiffusion 。 新框架一出,网友们也是不淡定了,直呼: 我们已经进入到了生成的视频比看的视频还多的时代。 | 包括Meta研究员和伯克利教授也站台打call: | | --- | 2秒就能生成一个视频 在单张RTX 5090上,针对1.3B大小的文生视频模型: 算下来,相对于原始模型,TurboDiffusion实现了约 97倍 的加速! 若是模型再大一些,例如14B的图生视频模型,清晰度为720P,效果也是立竿见影,仅需38秒就能搞定: 同样是720P的文生视频模型,所需要的时间也仅仅24秒: 原始生成:生成一段480P视频需要 ...
清华系DeepSeek时刻来了,硅谷沸腾,单卡200倍加速,视频进入秒级时代
3 6 Ke· 2025-12-23 10:46
【导读】视频生成领域的「DeepSeek时刻」来了!清华开源TurboDiffusion,将AI视频生成从「分钟级」硬生生拉进「秒级」实时时代,单卡200倍加速 让普通显卡也能跑出大片! 就在刚刚,AI圈的DeepSeek Moment又来了! 清华大学TSAIL实验室携手生数科技,重磅发布并开源了视频生成加速框架TurboDiffusion。 这个框架一出,立刻在全球AI社区引发热议。OpenAI、Meta、vLLM等多个机构和开源社区的研究者、工程师纷纷点赞、转发。 为何TurboDiffusion会引起这么大的反响? 用一句话总结:在几乎不影响生成质量的前提下,它让视频生成的速度直接飙升了100–200倍! | Himanshu Kumar 2 @codewithimanshu · Dec 16 | | | | | | --- | --- | --- | --- | --- | | I've observed faster video generation; quality remains high. | | | | | | 01 | 5 | 01 | 111 508 | 1 | | Astrid Wi ...