Diffusers 文档
SDXL Turbo
加入 Hugging Face 社区
并获取增强的文档体验
开始使用
SDXL Turbo
Stable Diffusion XL (SDXL) Turbo 由 Axel Sauer、Dominik Lorenz、Andreas Blattmann 和 Robin Rombach 在 Adversarial Diffusion Distillation 中提出。
该论文的摘要如下:
我们介绍了对抗扩散蒸馏 (ADD),这是一种新颖的训练方法,可以在仅 1-4 步中高效地采样大型基础图像扩散模型,同时保持高图像质量。我们使用分数蒸馏来利用大规模现成的图像扩散模型作为教师信号,并结合对抗性损失,以确保即使在一步或两步采样的低步长方案中也具有高图像保真度。我们的分析表明,我们的模型在单步中明显优于现有的少步方法(GAN、Latent Consistency Models),并且仅需四步即可达到最先进的扩散模型 (SDXL) 的性能。ADD 是第一个通过基础模型解锁单步实时图像合成的方法。
提示
- SDXL Turbo 使用与 SDXL 完全相同的架构,这意味着它也具有相同的 API。 有关更多详细信息,请参阅 SDXL API 参考。
- SDXL Turbo 应该通过设置
guidance_scale=0.0
来禁用 guidance scale。 - SDXL Turbo 应该为 scheduler 使用
timestep_spacing='trailing'
,并在 1 到 4 步之间使用。 - SDXL Turbo 已经过训练,可以生成 512x512 尺寸的图像。
- SDXL Turbo 是开放访问的,但不是开源的,这意味着人们可能需要购买模型许可证才能将其用于商业应用。请务必阅读 官方模型卡 以了解更多信息。
要了解如何将 SDXL Turbo 用于各种任务、如何优化性能以及其他使用示例,请查看 SDXL Turbo 指南。
查看 Stability AI Hub 组织,获取官方基础模型和精炼模型检查点!