Diffusers 文档

加载调度器和模型

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

加载调度器和模型

扩散 pipelines 是一系列可互换的调度器和模型的集合,可以混合和匹配,以根据特定用例定制 pipeline。调度器封装了整个去噪过程,例如去噪步骤的数量和查找去噪样本的算法。调度器不是参数化的或经过训练的,因此它们不占用太多内存。模型通常只关注从噪声输入到噪声较小的样本的正向传递。

本指南将向您展示如何加载调度器和模型以自定义 pipeline。在本指南中,您将始终使用 stable-diffusion-v1-5/stable-diffusion-v1-5 检查点,因此我们首先加载它。

import torch
from diffusers import DiffusionPipeline

pipeline = DiffusionPipeline.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5", torch_dtype=torch.float16, use_safetensors=True
).to("cuda")

您可以使用 pipeline.scheduler 属性查看此 pipeline 使用的调度器。

pipeline.scheduler
PNDMScheduler {
  "_class_name": "PNDMScheduler",
  "_diffusers_version": "0.21.4",
  "beta_end": 0.012,
  "beta_schedule": "scaled_linear",
  "beta_start": 0.00085,
  "clip_sample": false,
  "num_train_timesteps": 1000,
  "set_alpha_to_one": false,
  "skip_prk_steps": true,
  "steps_offset": 1,
  "timestep_spacing": "leading",
  "trained_betas": null
}

加载调度器

调度器由配置文件定义,该文件可供各种调度器使用。使用 SchedulerMixin.from_pretrained() 方法加载调度器,并指定 subfolder 参数以将配置文件加载到 pipeline 存储库的正确子文件夹中。

例如,加载 DDIMScheduler

from diffusers import DDIMScheduler, DiffusionPipeline

ddim = DDIMScheduler.from_pretrained("stable-diffusion-v1-5/stable-diffusion-v1-5", subfolder="scheduler")

然后您可以将新加载的调度器传递给 pipeline。

pipeline = DiffusionPipeline.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5", scheduler=ddim, torch_dtype=torch.float16, use_safetensors=True
).to("cuda")

比较调度器

调度器有其独特的优点和缺点,因此很难定量比较哪个调度器最适合 pipeline。您通常必须在去噪速度和去噪质量之间做出权衡。我们建议尝试不同的调度器,以找到最适合您用例的调度器。调用 pipeline.scheduler.compatibles 属性以查看哪些调度器与 pipeline 兼容。

让我们比较以下 prompt 和 seed 上的 LMSDiscreteSchedulerEulerDiscreteSchedulerEulerAncestralDiscreteSchedulerDPMSolverMultistepScheduler

import torch
from diffusers import DiffusionPipeline

pipeline = DiffusionPipeline.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5", torch_dtype=torch.float16, use_safetensors=True
).to("cuda")

prompt = "A photograph of an astronaut riding a horse on Mars, high resolution, high definition."
generator = torch.Generator(device="cuda").manual_seed(8)

要更改 pipelines 调度器,请使用 from_config() 方法将不同调度器的 pipeline.scheduler.config 加载到 pipeline 中。

LMSDiscreteScheduler
EulerDiscreteScheduler
EulerAncestralDiscreteScheduler
DPMSolverMultistepScheduler

LMSDiscreteScheduler 通常生成比默认调度器质量更高的图像。

from diffusers import LMSDiscreteScheduler

pipeline.scheduler = LMSDiscreteScheduler.from_config(pipeline.scheduler.config)
image = pipeline(prompt, generator=generator).images[0]
image
LMSDiscreteScheduler
EulerDiscreteScheduler
EulerAncestralDiscreteScheduler
DPMSolverMultistepScheduler

大多数图像看起来非常相似,并且质量相当。同样,这通常取决于您的具体用例,因此一个好的方法是运行多个不同的调度器并比较结果。

Flax 调度器

要比较 Flax 调度器,您还需要将调度器状态加载到模型参数中。例如,让我们更改 FlaxStableDiffusionPipeline 中的默认调度器以使用超快的 FlaxDPMSolverMultistepScheduler

FlaxLMSDiscreteSchedulerFlaxDDPMScheduler 尚不兼容 FlaxStableDiffusionPipeline

import jax
import numpy as np
from flax.jax_utils import replicate
from flax.training.common_utils import shard
from diffusers import FlaxStableDiffusionPipeline, FlaxDPMSolverMultistepScheduler

scheduler, scheduler_state = FlaxDPMSolverMultistepScheduler.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5",
    subfolder="scheduler"
)
pipeline, params = FlaxStableDiffusionPipeline.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5",
    scheduler=scheduler,
    variant="bf16",
    dtype=jax.numpy.bfloat16,
)
params["scheduler"] = scheduler_state

然后,您可以利用 Flax 与 TPU 的兼容性并行生成大量图像。您需要为每个可用设备复制模型参数,然后将输入拆分到这些设备上以生成所需的图像数量。

# Generate 1 image per parallel device (8 on TPUv2-8 or TPUv3-8)
prompt = "A photograph of an astronaut riding a horse on Mars, high resolution, high definition."
num_samples = jax.device_count()
prompt_ids = pipeline.prepare_inputs([prompt] * num_samples)

prng_seed = jax.random.PRNGKey(0)
num_inference_steps = 25

# shard inputs and rng
params = replicate(params)
prng_seed = jax.random.split(prng_seed, jax.device_count())
prompt_ids = shard(prompt_ids)

images = pipeline(prompt_ids, params, prng_seed, num_inference_steps, jit=True).images
images = pipeline.numpy_to_pil(np.asarray(images.reshape((num_samples,) + images.shape[-3:])))

模型

模型从 ModelMixin.from_pretrained() 方法加载,该方法下载并缓存最新版本的模型权重和配置。如果本地缓存中提供了最新文件,from_pretrained() 将重用缓存中的文件,而不是重新下载它们。

可以使用 subfolder 参数从子文件夹加载模型。例如,stable-diffusion-v1-5/stable-diffusion-v1-5 的模型权重存储在 unet 子文件夹中。

from diffusers import UNet2DConditionModel

unet = UNet2DConditionModel.from_pretrained("stable-diffusion-v1-5/stable-diffusion-v1-5", subfolder="unet", use_safetensors=True)

它们也可以直接从 repository 加载。

from diffusers import UNet2DModel

unet = UNet2DModel.from_pretrained("google/ddpm-cifar10-32", use_safetensors=True)

要加载和保存模型变体,请在 ModelMixin.from_pretrained()ModelMixin.save_pretrained() 中指定 variant 参数。

from diffusers import UNet2DConditionModel

unet = UNet2DConditionModel.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5", subfolder="unet", variant="non_ema", use_safetensors=True
)
unet.save_pretrained("./local-unet", variant="non_ema")
< > 在 GitHub 上更新