全局信息
Search documents
谢赛宁REPA得到大幅改进,只需不到4行代码
机器之心· 2025-12-13 04:59
编辑:Panda 而对于 REPA,也有一个类似的问题: 全局信息 与 空间结构 ,哪个对表征对齐更重要? 机器之心报道 邹忌曾经有一个问题:吾与徐公孰美? 论文标题:What matters for Representation Alignment: Global Information or Spatial Structure? 论文地址:https://arxiv.org/abs/2512.10794v1 表征对齐(REPA)可通过将强大的预训练视觉编码器的表征蒸馏为中间扩散特征,来指导生成式训练。该方法于去年十月份问世,一直以来都备受关注,已成为 加速扩散 Transformer(Diffusion Transformers)训练的一项有力技术。参阅报道《 扩散模型训练方法一直错了!谢赛宁:Representation matters 》。 但是,其还有一个很基本的问题悬而未决:对生成而言,目标表征的哪个方面更重要?是其「全局」语义信息(例如,以 ImageNet-1K 准确率衡量),还是其空 间结构(即,图像块 token 之间的成对余弦相似度)? 此前,普遍观点认为,如果使用更强的全局语义性能作为 ...