Diffusers 文档
DDIMScheduler
并获得增强的文档体验
开始使用
DDIMScheduler
去噪扩散隐式模型 (DDIM),作者:Jiaming Song, Chenlin Meng 和 Stefano Ermon。
论文摘要如下:
去噪扩散概率模型(DDPM)在无对抗训练的情况下实现了高质量图像生成,但它们需要模拟马尔可夫链多步才能生成样本。为了加速采样,我们提出了去噪扩散隐式模型(DDIM),一种更高效的迭代隐式概率模型,其训练过程与DDPM相同。在DDPM中,生成过程被定义为马尔可夫扩散过程的逆过程。我们构建了一类非马尔可夫扩散过程,它们具有相同的训练目标,但其逆过程可以更快地采样。我们通过实验证明,DDIM在实际时间上比DDPM快10倍到50倍,并且允许我们在计算和样本质量之间进行权衡,可以直接在潜在空间中执行语义上有意义的图像插值。
该论文的原始代码库可在ermongroup/ddim找到,您可以通过tsong.me联系作者。
提示
论文《常见扩散噪声调度和采样步骤存在缺陷》声称,训练和推理设置之间的不匹配导致 Stable Diffusion 的推理生成结果不理想。为了解决这个问题,作者提出了:
🧪 这是一个实验性功能!
- 重新调整噪声调度以强制零终端信噪比 (SNR)
pipe.scheduler = DDIMScheduler.from_config(pipe.scheduler.config, rescale_betas_zero_snr=True)
- 使用
v_prediction
训练模型(将以下参数添加到 train_text_to_image.py 或 train_text_to_image_lora.py 脚本中)
--prediction_type="v_prediction"
- 更改采样器,使其始终从最后一个时间步开始
pipe.scheduler = DDIMScheduler.from_config(pipe.scheduler.config, timestep_spacing="trailing")
- 重新调整分类器自由指导以防止过曝
image = pipe(prompt, guidance_rescale=0.7).images[0]
例如:
from diffusers import DiffusionPipeline, DDIMScheduler
import torch
pipe = DiffusionPipeline.from_pretrained("ptx0/pseudo-journey-v2", torch_dtype=torch.float16)
pipe.scheduler = DDIMScheduler.from_config(
pipe.scheduler.config, rescale_betas_zero_snr=True, timestep_spacing="trailing"
)
pipe.to("cuda")
prompt = "A lion in galaxies, spirals, nebulae, stars, smoke, iridescent, intricate detail, octane render, 8k"
image = pipe(prompt, guidance_rescale=0.7).images[0]
image
DDIMScheduler
class diffusers.DDIMScheduler
< 源 >( num_train_timesteps: int = 1000 beta_start: float = 0.0001 beta_end: float = 0.02 beta_schedule: str = 'linear' trained_betas: typing.Union[numpy.ndarray, typing.List[float], NoneType] = None clip_sample: bool = True set_alpha_to_one: bool = True steps_offset: int = 0 prediction_type: str = 'epsilon' thresholding: bool = False dynamic_thresholding_ratio: float = 0.995 clip_sample_range: float = 1.0 sample_max_value: float = 1.0 timestep_spacing: str = 'leading' rescale_betas_zero_snr: bool = False )
参数
- num_train_timesteps (
int
, 默认为 1000) — 用于训练模型的扩散步数。 - beta_start (
float
, 默认为 0.0001) — 推理的起始beta
值。 - beta_end (
float
, 默认为 0.02) — 最终的beta
值。 - beta_schedule (
str
, 默认为"linear"
) — beta 调度,一个将 beta 范围映射到用于模型步进的 beta 序列。可选择linear
、scaled_linear
或squaredcos_cap_v2
。 - trained_betas (
np.ndarray
, 可选) — 直接向构造函数传递一个 beta 数组,以绕过beta_start
和beta_end
。 - clip_sample (
bool
, 默认为True
) — 裁剪预测样本以保持数值稳定性。 - clip_sample_range (
float
, 默认为 1.0) — 样本裁剪的最大幅度。仅当clip_sample=True
时有效。 - set_alpha_to_one (
bool
, 默认为True
) — 每个扩散步骤都使用该步骤和前一步骤的 alpha 乘积值。对于最后一步,没有前一个 alpha。当此选项为True
时,前一个 alpha 乘积固定为1
,否则它使用步骤 0 的 alpha 值。 - steps_offset (
int
, 默认为 0) — 某些模型系列所需的推理步骤偏移量。 - prediction_type (
str
, 默认为epsilon
, 可选) — 调度器函数的预测类型;可以是epsilon
(预测扩散过程的噪声)、sample
(直接预测带噪声的样本)或v_prediction
(参见 Imagen Video 论文的 2.4 节)。 - thresholding (
bool
, 默认为False
) — 是否使用“动态阈值”方法。这不适用于 Stable Diffusion 等潜在空间扩散模型。 - dynamic_thresholding_ratio (
float
, 默认为 0.995) — 动态阈值方法的比率。仅当thresholding=True
时有效。 - sample_max_value (
float
, 默认为 1.0) — 动态阈值的阈值。仅当thresholding=True
时有效。 - timestep_spacing (
str
, 默认为"leading"
) — 时间步的缩放方式。更多信息请参阅《常见扩散噪声调度和采样步骤存在缺陷》的表 2。 - rescale_betas_zero_snr (
bool
, 默认为False
) — 是否重新缩放 beta 值以使其终端信噪比为零。这使得模型能够生成非常亮和非常暗的样本,而不是将其限制在亮度适中的样本。与--offset_noise
松散相关。
DDIMScheduler
扩展了去噪扩散概率模型(DDPM)中引入的去噪过程,并加入了非马尔可夫引导。
该模型继承自SchedulerMixin和ConfigMixin。查看超类文档以了解库为所有调度器实现的通用方法,例如加载和保存。
scale_model_input
< 源 >( sample: Tensor timestep: typing.Optional[int] = None ) → torch.Tensor
确保与需要根据当前时间步缩放去噪模型输入的调度器互换使用。
set_timesteps
< 源 >( num_inference_steps: int device: typing.Union[str, torch.device] = None )
设置用于扩散链的离散时间步(在推理之前运行)。
步骤
< 源 >( model_output: Tensor timestep: int sample: Tensor eta: float = 0.0 use_clipped_model_output: bool = False generator = None variance_noise: typing.Optional[torch.Tensor] = None return_dict: bool = True ) → DDIMSchedulerOutput or tuple
参数
- model_output (
torch.Tensor
) — 从学习到的扩散模型直接输出。 - timestep (
float
) — 扩散链中的当前离散时间步。 - sample (
torch.Tensor
) — 扩散过程创建的样本的当前实例。 - eta (
float
) — 扩散步骤中添加噪声的噪声权重。 - use_clipped_model_output (
bool
, 默认为False
) — 如果为True
,则从裁剪后的预测原始样本计算“校正”的model_output
。这是必要的,因为当self.config.clip_sample
为True
时,预测的原始样本会被裁剪到 [-1, 1]。如果没有发生裁剪,“校正”的model_output
将与作为输入提供的model_output
一致,并且use_clipped_model_output
不会产生任何影响。 - generator (
torch.Generator
, 可选) — 随机数生成器。 - variance_noise (
torch.Tensor
) — 通过直接提供方差本身的噪声来替代使用generator
生成噪声。适用于CycleDiffusion
等方法。 - return_dict (
bool
, 可选, 默认为True
) — 是否返回 DDIMSchedulerOutput 或tuple
。
返回
DDIMSchedulerOutput 或 tuple
如果 return_dict 为 True
,则返回 DDIMSchedulerOutput,否则返回一个元组,其中第一个元素是样本张量。
通过逆转 SDE 预测前一个时间步的样本。此函数从学习到的模型输出(通常是预测的噪声)传播扩散过程。
DDIMSchedulerOutput
class diffusers.schedulers.scheduling_ddim.DDIMSchedulerOutput
< source >( prev_sample: Tensor pred_original_sample: typing.Optional[torch.Tensor] = None )
调度器 step
函数输出的输出类。