Diffusers 文档

KDPM2AncestralDiscreteScheduler

Hugging Face's logo
加入Hugging Face社区

并获得增强文档体验

开始使用

KDPM2AncestralDiscreteScheduler

KDPM2DiscreteScheduler 结合祖先采样,灵感来源于 阐明基于扩散的生成模型的设计空间 论文,调度器由 Katherine Crowson 移植和创建。

原始代码库可以在 crowsonkb/k-diffusion 中找到。

KDPM2AncestralDiscreteScheduler

diffusers.KDPM2AncestralDiscreteScheduler

< >

( num_train_timesteps: int = 1000 beta_start: float = 0.00085 beta_end: float = 0.012 beta_schedule: str = 'linear' trained_betas: Union = None use_karras_sigmas: Optional = False prediction_type: str = 'epsilon' timestep_spacing: str = 'linspace' steps_offset: int = 0 )

参数

  • num_train_timesteps (int,默认为 1000) — 模型训练的扩散步数。
  • beta_start (float,默认为 0.00085) — 推理的起始 beta 值。
  • beta_end (float,默认为 0.012) — 最终的 beta 值。
  • beta_schedule (str,默认为 "linear") — beta 调度,将 beta 范围映射到一系列用于逐步调整模型的 beta 值。选择 linearscaled_linear
  • trained_betas (np.ndarray可选) — 将一系列 beta 值直接传递给构造函数,以绕过 beta_startbeta_end
  • use_karras_sigmas (bool可选,默认为 False) — 是否在采样过程中使用 Karras sigma 作为噪声调度中的步长。如果为 True,则根据一系列噪声级别 {σi} 确定 sigma。
  • prediction_type (str,默认为 epsilon可选) — 调度函数的预测类型;可以是 epsilon(预测扩散过程的噪声)、sample(直接预测噪声样本)或 v_prediction(参见 Imagen Video 论文的第 2.4 节)。
  • timestep_spacing (str,默认为 "linspace") — 时间步长的缩放方式。有关更多信息,请参阅 Common Diffusion Noise Schedules and Sample Steps are Flawed 的表 2。
  • steps_offset (int,默认为 0) — 添加到推理步数的偏移量,某些模型系列需要此偏移量。

具有祖先采样的 KDPM2DiscreteScheduler 受 Elucidating the Design Space of Diffusion-Based Generative Models 论文中的 DPMSolver2 和算法 2 的启发。

此模型继承自 SchedulerMixinConfigMixin。请查看超类文档,了解库为所有调度程序实现的通用方法,例如加载和保存。

scale_model_input

< >

( sample: 张量 timestep: 联合类型 ) <

参数

  • 样本 (torch.Tensor) — 输入样本。
  • 时间步长 (int, 可选) — 扩散链中的当前时间步长。

返回

torch.Tensor

缩放后的输入样本。

确保与需要根据当前时间步长缩放去噪模型输入的调度器具有互换性。

set_begin_index

< >

( begin_index: int = 0 )

参数

  • begin_index (int) — 调度器的起始索引。

设置调度器的起始索引。此函数应在推理之前由管道运行。

set_timesteps

< >

( num_inference_steps: int device: Union = None num_train_timesteps: Optional = None )

参数

  • num_inference_steps (int) — 使用预训练模型生成样本时使用的扩散步数。
  • device (strtorch.device, 可选) — 时间步长应移动到的设备。如果为 None,则时间步长不会移动。

设置用于扩散链的离散时间步长(在推理之前运行)。

step

< >

( model_output: Union timestep: Union sample: Union generator: Optional = None return_dict: bool = True ) SchedulerOutputtuple

参数

  • model_output (torch.Tensor) — 来自学习扩散模型的直接输出。
  • timestep (float) — 扩散链中的当前离散时间步。
  • sample (torch.Tensor) — 由扩散过程创建的样本的当前实例。
  • generator (torch.Generator, 可选) — 随机数生成器。
  • return_dict (bool) — 是否返回 SchedulerOutput 或元组。

返回

SchedulerOutputtuple

如果 return_dict 为 True,则返回 ~schedulers.scheduling_ddim.SchedulerOutput,否则返回一个元组,其中第一个元素是样本张量。

通过反转 SDE 预测前一时间步的样本。此函数从学习的模型输出(通常是预测的噪声)传播扩散过程。

SchedulerOutput

diffusers.schedulers.scheduling_utils.SchedulerOutput

< >

( prev_sample: Tensor )

参数

  • prev_sample (torch.Tensor 形状为 (batch_size, num_channels, height, width) 用于图像) — 计算的前一时间步的样本 (x_{t-1})prev_sample 应在去噪循环中用作下一个模型输入。

调度程序的 step 函数输出的基类。

< > 在 GitHub 上更新