Workflow
Diffusion Model Interpretability
icon
Search documents
让扩散模型「可解释」不再降质,开启图片编辑新思路
机器之心· 2025-12-16 02:31
然而,与 LLM 可解释性研究的蓬勃发展相对,扩散模型内部的语义结构、时间规律以及因果路径仍然像被深深封住的「黑箱」。研究者可以凭直觉优化架 构,但外界无法真正理解扩散模型在生成过程中的「思考方式」。 更棘手的是,已有的可解释性尝试往往伴随着明显的性能下降:特征分解、激活分析、插值扰动……无论采用哪种方法,只要试图将扩散模型拆开来看,生 成质量就会显著劣化。这让「可解释扩散模型」在很长一段时间里被视为不切实际的小众方向。 在这样的背景下,香港中文大学 MMLab 与上海人工智能实验室的研究团队提出了一个不同的观点: 扩散模型作为当今视觉世界最重要的生成器,其内部 机制不应永远处于不可见状态;可解释性也不应该以牺牲生成质量为代价。 过去三年,扩散模型席卷图像生成领域。以 DiT (Diffusion Transformer) 为代表的新一代架构不断刷新图像质量的极限,让模型愈发接近真实世界的视觉 规律。 基于这一理念,他们提出了被 AAAI 2026 接收的 TIDE (Temporal-Aware Sparse Autoencoders) —— 首个真正意义上面向扩散 Transformer 的时序 稀疏自编 ...