Diffusers 文档

DDIMInverseScheduler

Hugging Face's logo
加入 Hugging Face 社区

并获取增强文档体验

以开始

DDIMInverseScheduler

DDIMInverseScheduler 是来自 去噪扩散隐式模型 (DDIM) 的反向调度器,由 Jiaming Song、Chenlin Meng 和 Stefano Ermon 提出。该实现主要基于来自 使用引导扩散模型编辑真实图像的空文本反转 的 DDIM 反转定义。

DDIMInverseScheduler

class diffusers.DDIMInverseScheduler

< >

( num_train_timesteps: int = 1000 beta_start: float = 0.0001 beta_end: float = 0.02 beta_schedule: str = 'linear' trained_betas: Union = None clip_sample: bool = True set_alpha_to_one: bool = True steps_offset: int = 0 prediction_type: str = 'epsilon' clip_sample_range: float = 1.0 timestep_spacing: str = 'leading' rescale_betas_zero_snr: bool = False **kwargs )

参数

  • num_train_timesteps (int, 默认为 1000) — 训练模型的扩散步数。
  • beta_start (float, 默认为 0.0001) — 推理的起始 beta 值。
  • beta_end (float, 默认为 0.02) — 最终的 beta 值。
  • beta_schedule (str, 默认为 "linear") — beta 调度,将 beta 范围映射到一系列用于模型步进的 beta。选择 linear, scaled_linear, 或 squaredcos_cap_v2.
  • trained_betas (np.ndarray, 可选) — 直接将 beta 数组传递给构造函数以绕过 beta_startbeta_end
  • clip_sample (bool, 默认为 True) — 剪裁预测样本以确保数值稳定性。
  • clip_sample_range (float, 默认为 1.0) — 样本剪裁的最大幅度。仅在 clip_sample=True 时有效。
  • set_alpha_to_one (bool, 默认为 True) — 每个扩散步使用该步和上一步的 alpha 乘积值。对于最后一步,没有上一步的 alpha。当此选项为 True 时,上一步的 alpha 乘积固定为 0,否则它使用步骤 num_train_timesteps - 1 处的 alpha 值。
  • steps_offset (int, 默认为 0) — 添加到推理步的偏移量,一些模型系列需要它。
  • prediction_type (str, 默认值为 epsilon, 可选) — 调度器函数的预测类型;可以是 epsilon(预测扩散过程的噪声)、sample(直接预测有噪声的样本)或 v_prediction`(参见 Imagen 视频 论文的第 2.4 节)。
  • timestep_spacing (str, 默认值为 "leading") — 时间步长的缩放方式。有关更多信息,请参考 常见的扩散噪声调度和样本步骤有缺陷 的表 2。
  • rescale_betas_zero_snr (bool, 默认值为 False) — 是否将 betas 重新缩放以具有零终端 SNR。这使模型能够生成非常明亮和黑暗的样本,而不是将其限制在中等亮度的样本。与 --offset_noise 相关。

DDIMInverseSchedulerDDIMScheduler 的反向调度器。

此模型继承自 SchedulerMixinConfigMixin。查看超类文档以了解库为所有调度器实现的通用方法,例如加载和保存。

scale_model_input

< >

( sample: 张量 timestep: 可选 = None ) torch.Tensor

参数

  • sample (torch.Tensor) — 输入样本。
  • timestep (int, 可选) — 扩散链中的当前时间步长。

返回值

torch.Tensor

一个经过缩放的输入样本。

确保与需要根据当前时间步长缩放降噪模型输入的调度器互换。

set_timesteps

< >

( num_inference_steps: int device: 联合 = None )

参数

  • num_inference_steps (int) — 使用预训练模型生成样本时使用的扩散步骤数。

设置用于扩散链的离散时间步长(在推理之前运行)。

step

< >

( model_output: 张量 timestep: int sample: 张量 return_dict: bool = True

参数

  • model_output (torch.Tensor) — 学习扩散模型的直接输出。
  • timestep (float) — 扩散链中的当前离散时间步。
  • sample (torch.Tensor) — 扩散过程创建的样本的当前实例。
  • eta (float) — 扩散步骤中添加噪声的噪声权重。
  • use_clipped_model_output (bool, defaults to False) — 如果为 True,则从裁剪的预测原始样本计算“校正”的 model_output。 这是必要的,因为当 self.config.clip_sampleTrue 时,预测的原始样本将被裁剪到 [-1, 1]。 如果没有发生裁剪,则“校正”的 model_output 将与作为输入提供的 model_output 一致,并且 use_clipped_model_output 将不起作用。
  • variance_noise (torch.Tensor) — 通过直接提供方差本身的噪声,替代使用 generator 生成噪声。 对于 CycleDiffusion 等方法很有用。
  • return_dict (bool, 可选, defaults to True) — 是否返回 ~schedulers.scheduling_ddim_inverse.DDIMInverseSchedulerOutputtuple

返回值

~schedulers.scheduling_ddim_inverse.DDIMInverseSchedulerOutputtuple

如果 return_dict 为 True,则返回 ~schedulers.scheduling_ddim_inverse.DDIMInverseSchedulerOutput,否则返回一个元组,其中第一个元素是样本张量。

通过反转 SDE 预测来自先前时间步的样本。 此函数将扩散过程从学习的模型输出(通常是预测的噪声)传播出去。

< > 在 GitHub 上更新