Diffusers 文档

PNDMScheduler

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

PNDMScheduler

PNDMScheduler,或扩散模型的伪数值方法,使用更高级的 ODE 积分技术,如 Runge-Kutta 和线性多步方法。原始实现可在 crowsonkb/k-diffusion 中找到。

PNDMScheduler

class diffusers.PNDMScheduler

< >

( num_train_timesteps: int = 1000 beta_start: float = 0.0001 beta_end: float = 0.02 beta_schedule: str = 'linear' trained_betas: typing.Union[numpy.ndarray, typing.List[float], NoneType] = None skip_prk_steps: bool = False set_alpha_to_one: bool = False prediction_type: str = 'epsilon' timestep_spacing: str = 'leading' steps_offset: int = 0 )

参数

  • num_train_timesteps (int, 默认为 1000) — 用于训练模型的扩散步骤数。
  • beta_start (float, 默认为 0.0001) — 推理的起始 beta 值。
  • beta_end (float, 默认为 0.02) — 最终的 beta 值。
  • beta_schedule (str, 默认为 "linear") — beta 计划,从 beta 范围到用于步进模型的 beta 序列的映射。从 linearscaled_linearsquaredcos_cap_v2 中选择。
  • trained_betas (np.ndarray, 可选) — 直接将 beta 数组传递给构造函数以绕过 beta_startbeta_end
  • skip_prk_steps (bool, 默认为 False) — 允许调度器跳过原始论文中定义的在 PLMS 步骤之前需要的 Runge-Kutta 步骤。
  • set_alpha_to_one (bool, 默认为 False) — 每个扩散步骤使用该步骤和前一步骤的 alphas 乘积值。 对于最后一步,没有前一个 alpha 值。 当此选项为 True 时,前一个 alpha 乘积固定为 1,否则它使用步骤 0 的 alpha 值。
  • prediction_type (str, 默认为 epsilon, 可选) — 调度器函数的预测类型;可以是 epsilon (预测扩散过程的噪声) 或 v_prediction (参见 Imagen Video 论文的 2.4 节)。
  • timestep_spacing (str, 默认为 "leading") — 应该如何缩放时间步长。 有关更多信息,请参阅 Common Diffusion Noise Schedules and Sample Steps are Flawed 的表 2。
  • steps_offset (int, 默认为 0) — 添加到推理步骤的偏移量,某些模型系列需要此偏移量。

PNDMScheduler 使用伪数值方法进行扩散模型,例如 Runge-Kutta 和线性多步方法。

此模型继承自 SchedulerMixinConfigMixin。 查看超类文档以获取库为所有调度器实现的通用方法,例如加载和保存。

scale_model_input

< >

( sample: Tensor *args **kwargs ) torch.Tensor

参数

  • sample (torch.Tensor) — 输入样本。

返回

torch.Tensor

缩放后的输入样本。

确保与需要根据当前时间步长缩放去噪模型输入的调度器的互换性。

set_timesteps

< >

( num_inference_steps: int device: typing.Union[str, torch.device] = None )

参数

  • num_inference_steps (int) — 使用预训练模型生成样本时使用的扩散步骤数。
  • device (strtorch.device, 可选) — 时间步长应移动到的设备。 如果为 None,则时间步长不会移动。

设置扩散链中使用的离散时间步长(在推理之前运行)。

step

< >

( model_output: Tensor timestep: int sample: Tensor return_dict: bool = True ) SchedulerOutputtuple

参数

  • model_output (torch.Tensor) — 来自学习扩散模型的直接输出。
  • timestep (int) — 扩散链中当前的离散时间步长。
  • sample (torch.Tensor) — 由扩散过程创建的样本的当前实例。
  • return_dict (bool) — 是否返回 SchedulerOutputtuple

返回

SchedulerOutputtuple

如果 return_dict 为 True,则返回 SchedulerOutput,否则返回一个元组,其中第一个元素是样本张量。

通过反转 SDE,从上一个时间步长预测样本。 此函数从学习的模型输出(通常是预测的噪声)传播扩散过程,并根据内部变量 counter 调用 step_prk()step_plms()

step_plms

< >

( model_output: Tensor timestep: int sample: Tensor return_dict: bool = True ) SchedulerOutputtuple

参数

  • model_output (torch.Tensor) — 来自学习扩散模型的直接输出。
  • timestep (int) — 扩散链中当前的离散时间步长。
  • sample (torch.Tensor) — 由扩散过程创建的样本的当前实例。
  • return_dict (bool) — 是否返回 SchedulerOutput 或 tuple。

返回

SchedulerOutputtuple

如果 return_dict 为 True,则返回 SchedulerOutput,否则返回一个元组,其中第一个元素是样本张量。

通过反转 SDE,从上一个时间步长预测样本。 此函数使用线性多步方法传播样本。 它多次执行一次前向传递以近似解。

step_prk

< >

( model_output: Tensor timestep: int sample: Tensor return_dict: bool = True ) SchedulerOutputtuple

参数

  • model_output (torch.Tensor) — 来自学习扩散模型的直接输出。
  • timestep (int) — 扩散链中当前的离散时间步长。
  • sample (torch.Tensor) — 由扩散过程创建的样本的当前实例。
  • return_dict (bool) — 是否返回 SchedulerOutput 或 tuple。

返回

SchedulerOutputtuple

如果 return_dict 为 True,则返回 SchedulerOutput,否则返回一个元组,其中第一个元素是样本张量。

通过反转 SDE,从上一个时间步长预测样本。 此函数使用 Runge-Kutta 方法传播样本。 它执行四次前向传递以近似微分方程的解。

SchedulerOutput

class diffusers.schedulers.scheduling_utils.SchedulerOutput

< >

( prev_sample: Tensor )

参数

  • prev_sample (torch.Tensor,形状为 (batch_size, num_channels, height, width),用于图像) — 前一个时间步长计算的样本 (x_{t-1})prev_sample 应用作去噪循环中的下一个模型输入。

调度器的 step 函数输出的基类。

< > 在 GitHub 上更新