Workflow
DiT(Diffusion Transformer)
icon
Search documents
VAE时代终结?谢赛宁团队「RAE」登场,表征自编码器或成DiT训练新基石
机器之心· 2025-10-14 08:24
| 机器之心报道 | | --- | | 机器之心编辑部 | | 存在 10 多年后,VAE(变分自编码器)时代终于要淘汰了吗? | | 就在今天,纽约大学助理教授谢赛宁团队放出了新作 ——VAE 的替代解决方案 —— RAE(Representation Autoencoders,表征自编码器) 。 | | 他表示,三年前,DiT(Diffusion Transformer) 用基于 Transformer 的去噪骨干网络取代了传统的 U-Net。那时候就知道,笨重的 VAE 迟早也会被淘汰。如今,时 | | 机终于到了。 | 谢赛宁进一步做出了解释,DiT 虽然取得了长足的进步,但大多数模型仍然依赖于 2021 年的旧版 SD-VAE 作为其潜空间基础。这就带来了以下几个主要问题: 当然,RAE 的模型和 PyTorch 代码全部开源。这项工作的一作为一年级博士生 Boyang Zheng,其本科毕业于上海交通大学 ACM 班。 因此,谢赛宁团队将预训练的表征编码器(如 DINO、SigLIP、MAE)与训练好的解码器相结合,以取代传统的 VAE,形成了一种新的结构 —— 表征自编码器 (RAE)。 这种 ...