Diffusers 文档

CogVideoXDPMScheduler

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

CogVideoXDPMScheduler

CogVideoXDPMScheduler 基于 DPM-Solver: A Fast ODE Solver for Diffusion Probabilistic Model Sampling in Around 10 StepsDPM-Solver++: Fast Solver for Guided Sampling of Diffusion Probabilistic Models,专门用于 CogVideoX 模型。

CogVideoXDPMScheduler

class diffusers.CogVideoXDPMScheduler

< >

( num_train_timesteps: int = 1000 beta_start: float = 0.00085 beta_end: float = 0.012 beta_schedule: str = 'scaled_linear' trained_betas: typing.Union[numpy.ndarray, typing.List[float], NoneType] = None clip_sample: bool = True set_alpha_to_one: bool = True steps_offset: int = 0 prediction_type: str = 'epsilon' clip_sample_range: float = 1.0 sample_max_value: float = 1.0 timestep_spacing: str = 'leading' rescale_betas_zero_snr: bool = False snr_shift_scale: float = 3.0 )

参数

  • num_train_timesteps (int, 默认为 1000) — 训练模型的扩散步数。
  • beta_start (float, 默认为 0.0001) — 推理的起始 beta 值。
  • beta_end (float, 默认为 0.02) — 最终 beta 值。
  • beta_schedule (str, 默认为 "linear") — Beta 调度器,将 beta 范围映射到模型步进的一系列 beta 值。可选:linearscaled_linearsquaredcos_cap_v2
  • trained_betas (np.ndarray, 可选) — 直接向构造函数传递 beta 数组,以绕过 beta_startbeta_end
  • clip_sample (bool, 默认为 True) — 裁剪预测样本以提高数值稳定性。
  • clip_sample_range (float, 默认为 1.0) — 样本裁剪的最大幅度。仅在 clip_sample=True 时有效。
  • set_alpha_to_one (bool, 默认为 True) — 每个扩散步骤使用该步骤和前一步的 alpha 乘积值。最后一步没有前一个 alpha。当此选项为 True 时,前一个 alpha 乘积固定为 1,否则它使用步骤 0 的 alpha 值。
  • steps_offset (int, 默认为 0) — 添加到推理步骤的偏移量,某些模型系列需要。
  • prediction_type (str, 默认为 epsilon, 可选) — 调度器函数的预测类型;可以是 epsilon(预测扩散过程的噪声)、sample(直接预测噪声样本)或 v_prediction(参见 Imagen Video 论文的 2.4 节)。
  • thresholding (bool, 默认为 False) — 是否使用“动态阈值”方法。这不适用于潜在空间扩散模型,如 Stable Diffusion。
  • dynamic_thresholding_ratio (float, 默认为 0.995) — 动态阈值方法的比率。仅在 thresholding=True 时有效。
  • sample_max_value (float, 默认为 1.0) — 动态阈值的阈值。仅在 thresholding=True 时有效。
  • timestep_spacing (str, 默认为 "leading") — 时间步长的缩放方式。更多信息请参阅 Common Diffusion Noise Schedules and Sample Steps are Flawed 的表 2。
  • rescale_betas_zero_snr (bool, 默认为 False) — 是否重新缩放 beta 以使终端信噪比为零。这使得模型能够生成非常亮和非常暗的样本,而不是将其限制在中等亮度的样本。与 --offset_noise 有松散关系。

DDIMScheduler 扩展了去噪扩散概率模型(DDPM)中引入的去噪过程,并加入了非马尔可夫引导。

此模型继承自 SchedulerMixinConfigMixin。有关库为所有调度器实现的通用方法(例如加载和保存)的详细信息,请查阅超类文档。

scale_model_input

< >

( sample: Tensor timestep: typing.Optional[int] = None ) torch.Tensor

参数

  • sample (torch.Tensor) — 输入样本。
  • timestep (int, 可选) — 扩散链中的当前时间步。

返回

torch.Tensor

一个缩放后的输入样本。

确保与需要根据当前时间步缩放去噪模型输入的调度器互换使用。

set_timesteps

< >

( num_inference_steps: int device: typing.Union[str, torch.device] = None )

参数

  • num_inference_steps (int) — 使用预训练模型生成样本时使用的扩散步数。

设置用于扩散链的离散时间步(在推理之前运行)。

步骤

< >

( model_output: Tensor old_pred_original_sample: Tensor timestep: int timestep_back: int sample: Tensor eta: float = 0.0 use_clipped_model_output: bool = False generator = None variance_noise: typing.Optional[torch.Tensor] = None return_dict: bool = False ) DDIMSchedulerOutputtuple

参数

  • model_output (torch.Tensor) — 从学习扩散模型直接输出。
  • timestep (float) — 扩散链中的当前离散时间步。
  • sample (torch.Tensor) — 扩散过程创建的当前样本实例。
  • eta (float) — 扩散步骤中添加噪声的权重。
  • use_clipped_model_output (bool, 默认为 False) — 如果为 True,则从裁剪后的预测原始样本计算“校正”后的 model_output。这是必需的,因为当 self.config.clip_sampleTrue 时,预测的原始样本会被裁剪到 [-1, 1]。如果没有发生裁剪,“校正”后的 model_output 将与作为输入提供的模型输出一致,并且 use_clipped_model_output 不会产生任何影响。
  • generator (torch.Generator, 可选) — 随机数生成器。
  • variance_noise (torch.Tensor) — 通过直接提供方差本身的噪声来替代使用 generator 生成噪声。适用于 CycleDiffusion 等方法。
  • return_dict (bool, 可选, 默认为 True) — 是否返回 DDIMSchedulerOutputtuple

返回

DDIMSchedulerOutputtuple

如果 return_dict 为 True,则返回 DDIMSchedulerOutput,否则返回一个元组,其中第一个元素是样本张量。

通过逆转 SDE 预测前一个时间步的样本。此函数从学习到的模型输出(通常是预测的噪声)传播扩散过程。

< > 在 GitHub 上更新