SDXL Turbo
稳定扩散 XL (SDXL) Turbo 在 Axel Sauer、Dominik Lorenz、Andreas Blattmann 和 Robin Rombach 的 对抗性扩散蒸馏 中被提出。
论文摘要如下:
我们引入了对抗性扩散蒸馏 (ADD),这是一种新颖的训练方法,可以高效地在仅 1-4 步内对大型基础图像扩散模型进行采样,同时保持高图像质量。我们使用分数蒸馏利用大型现成的图像扩散模型作为教师信号,并结合对抗性损失来确保即使在 1 或 2 步采样这样的低步数情况下也能获得高图像保真度。我们的分析表明,我们的模型在单步情况下明显优于现有的少量步数方法(GAN、潜在一致性模型),并且在仅 4 步内即可达到最先进的扩散模型(SDXL)的性能。ADD 是第一个能够使用基础模型实现单步实时图像合成的技术。
提示
- SDXL Turbo 使用与 SDXL 完全相同的架构,这意味着它也具有相同的 API。请参阅 SDXL API 参考以了解更多详细信息。
- SDXL Turbo 应通过设置
guidance_scale=0.0
来禁用引导比例。 - SDXL Turbo 应为调度器使用
timestep_spacing='trailing'
,并使用 1 到 4 步。 - SDXL Turbo 已接受训练以生成 512x512 大小的图像。
- SDXL Turbo 是开放访问的,但不是开源的,这意味着可能需要购买模型许可证才能将其用于商业应用。请务必阅读 官方模型卡 以了解更多信息。
要了解如何将 SDXL Turbo 用于各种任务,如何优化性能以及其他使用示例,请查看 SDXL Turbo 指南。
查看 Stability AI Hub 组织以获取官方的基础和细化模型检查点!