Diffusers 文档

加载调度器和模型

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

加载调度器和模型

扩散流水线是可互换的调度器和模型的集合,可以混合搭配以针对特定用例定制流水线。调度器封装了整个去噪过程,例如去噪步数和查找去噪样本的算法。调度器不进行参数化或训练,因此它们不占用太多内存。模型通常只关注从噪声输入到较少噪声样本的前向传递。

本指南将向您展示如何加载调度器和模型以定制流水线。您将在本指南中始终使用 stable-diffusion-v1-5/stable-diffusion-v1-5 检查点,所以我们先加载它。

import torch
from diffusers import DiffusionPipeline

pipeline = DiffusionPipeline.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5", torch_dtype=torch.float16, use_safetensors=True
).to("cuda")

您可以使用 `pipeline.scheduler` 属性查看此流水线使用的调度器。

pipeline.scheduler
PNDMScheduler {
  "_class_name": "PNDMScheduler",
  "_diffusers_version": "0.21.4",
  "beta_end": 0.012,
  "beta_schedule": "scaled_linear",
  "beta_start": 0.00085,
  "clip_sample": false,
  "num_train_timesteps": 1000,
  "set_alpha_to_one": false,
  "skip_prk_steps": true,
  "steps_offset": 1,
  "timestep_spacing": "leading",
  "trained_betas": null
}

加载调度器

调度器由一个配置文件定义,该文件可以由各种调度器使用。使用 SchedulerMixin.from_pretrained() 方法加载调度器,并指定 `subfolder` 参数将配置文件加载到流水线仓库的正确子文件夹中。

例如,要加载 DDIMScheduler

from diffusers import DDIMScheduler, DiffusionPipeline

ddim = DDIMScheduler.from_pretrained("stable-diffusion-v1-5/stable-diffusion-v1-5", subfolder="scheduler")

然后您可以将新加载的调度器传递给流水线。

pipeline = DiffusionPipeline.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5", scheduler=ddim, torch_dtype=torch.float16, use_safetensors=True
).to("cuda")

比较调度器

调度器有其独特的优缺点,这使得很难定量比较哪个调度器对流水线最有效。您通常不得不在去噪速度和去噪质量之间进行权衡。我们建议尝试不同的调度器以找到最适合您用例的调度器。调用 `pipeline.scheduler.compatibles` 属性以查看哪些调度器与流水线兼容。

让我们在以下提示和种子下比较 LMSDiscreteSchedulerEulerDiscreteSchedulerEulerAncestralDiscreteSchedulerDPMSolverMultistepScheduler

import torch
from diffusers import DiffusionPipeline

pipeline = DiffusionPipeline.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5", torch_dtype=torch.float16, use_safetensors=True
).to("cuda")

prompt = "A photograph of an astronaut riding a horse on Mars, high resolution, high definition."
generator = torch.Generator(device="cuda").manual_seed(8)

要更改流水线调度器,请使用 from_config() 方法将不同调度器的 `pipeline.scheduler.config` 加载到流水线中。

LMSDiscreteScheduler
EulerDiscreteScheduler
EulerAncestralDiscreteScheduler
DPMSolverMultistepScheduler

LMSDiscreteScheduler 通常比默认调度器生成更高质量的图像。

from diffusers import LMSDiscreteScheduler

pipeline.scheduler = LMSDiscreteScheduler.from_config(pipeline.scheduler.config)
image = pipeline(prompt, generator=generator).images[0]
image
LMSDiscreteScheduler
EulerDiscreteScheduler
EulerAncestralDiscreteScheduler
DPMSolverMultistepScheduler

大多数图像看起来非常相似,并且质量相当。同样,这通常取决于您的特定用例,因此一个好的方法是运行多种不同的调度器并比较结果。

Flax 调度器

要比较 Flax 调度器,您需要额外将调度器状态加载到模型参数中。例如,让我们更改 FlaxStableDiffusionPipeline 中的默认调度器,以使用超快的 `FlaxDPMSolverMultistepScheduler`。

`FlaxLMSDiscreteScheduler` 和 `FlaxDDPMScheduler` 尚未与 FlaxStableDiffusionPipeline 兼容。

import jax
import numpy as np
from flax.jax_utils import replicate
from flax.training.common_utils import shard
from diffusers import FlaxStableDiffusionPipeline, FlaxDPMSolverMultistepScheduler

scheduler, scheduler_state = FlaxDPMSolverMultistepScheduler.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5",
    subfolder="scheduler"
)
pipeline, params = FlaxStableDiffusionPipeline.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5",
    scheduler=scheduler,
    variant="bf16",
    dtype=jax.numpy.bfloat16,
)
params["scheduler"] = scheduler_state

然后您可以利用 Flax 与 TPU 的兼容性来并行生成多个图像。您需要为每个可用设备复制模型参数,然后将输入拆分到它们之间以生成所需数量的图像。

# Generate 1 image per parallel device (8 on TPUv2-8 or TPUv3-8)
prompt = "A photograph of an astronaut riding a horse on Mars, high resolution, high definition."
num_samples = jax.device_count()
prompt_ids = pipeline.prepare_inputs([prompt] * num_samples)

prng_seed = jax.random.PRNGKey(0)
num_inference_steps = 25

# shard inputs and rng
params = replicate(params)
prng_seed = jax.random.split(prng_seed, jax.device_count())
prompt_ids = shard(prompt_ids)

images = pipeline(prompt_ids, params, prng_seed, num_inference_steps, jit=True).images
images = pipeline.numpy_to_pil(np.asarray(images.reshape((num_samples,) + images.shape[-3:])))

模型

模型从 ModelMixin.from_pretrained() 方法加载,该方法下载并缓存最新版本的模型权重和配置。如果最新文件在本地缓存中可用,from_pretrained() 会重用缓存中的文件,而不是重新下载它们。

模型可以从子文件夹加载,使用 `subfolder` 参数。例如,stable-diffusion-v1-5/stable-diffusion-v1-5 的模型权重存储在 unet 子文件夹中。

from diffusers import UNet2DConditionModel

unet = UNet2DConditionModel.from_pretrained("stable-diffusion-v1-5/stable-diffusion-v1-5", subfolder="unet", use_safetensors=True)

它们也可以直接从 仓库 加载。

from diffusers import UNet2DModel

unet = UNet2DModel.from_pretrained("google/ddpm-cifar10-32", use_safetensors=True)

要加载和保存模型变体,请在 ModelMixin.from_pretrained()ModelMixin.save_pretrained() 中指定 `variant` 参数。

from diffusers import UNet2DConditionModel

unet = UNet2DConditionModel.from_pretrained(
    "stable-diffusion-v1-5/stable-diffusion-v1-5", subfolder="unet", variant="non_ema", use_safetensors=True
)
unet.save_pretrained("./local-unet", variant="non_ema")
< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.