Diffusers 文档
单个文件
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
单个文件
from_single_file() 方法允许您加载
- 存储在单个文件中的模型,如果您正在使用来自扩散生态系统(如 Automatic1111)的模型,并且通常依赖于单文件布局来存储和共享模型,这将非常有用
- 以其原始分布式布局存储的模型,如果您正在使用使用其他服务微调的模型,并希望将其直接加载到 Diffusers 模型对象和 pipelines 中,这将非常有用
阅读模型文件和布局指南,以了解有关 Diffusers 多文件夹布局与单文件布局的更多信息,以及如何加载存储在这些不同布局中的模型。
支持的 pipelines
- StableDiffusionPipeline
- StableDiffusionImg2ImgPipeline
- StableDiffusionInpaintPipeline
- StableDiffusionControlNetPipeline
- StableDiffusionControlNetImg2ImgPipeline
- StableDiffusionControlNetInpaintPipeline
- StableDiffusionUpscalePipeline
- StableDiffusionXLPipeline
- StableDiffusionXLImg2ImgPipeline
- StableDiffusionXLInpaintPipeline
- StableDiffusionXLInstructPix2PixPipeline
- StableDiffusionXLControlNetPipeline
- StableDiffusionXLKDiffusionPipeline
- StableDiffusion3Pipeline
- LatentConsistencyModelPipeline
- LatentConsistencyModelImg2ImgPipeline
- StableDiffusionControlNetXSPipeline
- StableDiffusionXLControlNetXSPipeline
- LEditsPPPipelineStableDiffusion
- LEditsPPPipelineStableDiffusionXL
- PIAPipeline
支持的模型
- UNet2DConditionModel
StableCascadeUNet
- AutoencoderKL
- ControlNetModel
- SD3Transformer2DModel
- FluxTransformer2DModel
FromSingleFileMixin
将以 .ckpt
格式保存的模型权重加载到 DiffusionPipeline 中。
from_single_file
< source >( pretrained_model_link_or_path **kwargs )
参数
- pretrained_model_link_or_path (
str
或os.PathLike
, 可选) — 可以是:- Hub 上
.ckpt
文件的链接(例如"https://huggingface.co/<repo_id>/blob/main/<path_to_file>.ckpt"
)。 - 包含所有 pipeline 权重的文件的路径。
- Hub 上
- torch_dtype (
str
或torch.dtype
, 可选) — 覆盖默认的torch.dtype
并使用另一种 dtype 加载模型。 - force_download (
bool
, 可选, 默认为False
) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 - cache_dir (
Union[str, os.PathLike]
, 可选) — 下载的预训练模型配置的缓存目录路径(如果未使用标准缓存)。 - proxies (
Dict[str, str]
, 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}
。 代理用于每个请求。 - local_files_only (
bool
, 可选, 默认为False
) — 是否仅加载本地模型权重和配置文件。 如果设置为True
,则不会从 Hub 下载模型。 - token (
str
或 bool, 可选) — 用作远程文件的 HTTP 承载授权的令牌。 如果为True
,则使用从diffusers-cli login
生成的令牌(存储在~/.huggingface
中)。 - revision (
str
, 可选, 默认为"main"
) — 要使用的特定模型版本。 它可以是分支名称、标签名称、提交 ID 或 Git 允许的任何标识符。 - original_config_file (
str
, 可选) — 用于训练模型的原始配置文件的路径。如果未提供,配置文件将从检查点文件中推断得出。 - config (
str
, 可选) — 可以是:- 字符串,Hub 上托管的预训练管线的仓库 ID(例如
CompVis/ldm-text2im-large-256
)。 - 目录的路径(例如
./my_pipeline_directory/
),其中包含 Diffusers 格式的管线组件配置。
- 字符串,Hub 上托管的预训练管线的仓库 ID(例如
- kwargs (剩余的关键字参数字典, 可选) — 可用于覆盖可加载和可保存的变量(特定管线类的管线组件)。被覆盖的组件会直接传递给管线的
__init__
方法。有关更多信息,请参见下面的示例。
从以 .ckpt
或 .safetensors
格式保存的预训练管线权重实例化一个 DiffusionPipeline。默认情况下,管线设置为评估模式 (model.eval()
)。
示例
>>> from diffusers import StableDiffusionPipeline
>>> # Download pipeline from huggingface.co and cache.
>>> pipeline = StableDiffusionPipeline.from_single_file(
... "https://huggingface.co/WarriorMama777/OrangeMixs/blob/main/Models/AbyssOrangeMix/AbyssOrangeMix.safetensors"
... )
>>> # Download pipeline from local file
>>> # file is downloaded under ./v1-5-pruned-emaonly.ckpt
>>> pipeline = StableDiffusionPipeline.from_single_file("./v1-5-pruned-emaonly.ckpt")
>>> # Enable float16 and move to GPU
>>> pipeline = StableDiffusionPipeline.from_single_file(
... "https://huggingface.co/runwayml/stable-diffusion-v1-5/blob/main/v1-5-pruned-emaonly.ckpt",
... torch_dtype=torch.float16,
... )
>>> pipeline.to("cuda")
FromOriginalModelMixin
将以 .ckpt
或 .safetensors
格式保存的预训练权重加载到模型中。
from_single_file
< source >( pretrained_model_link_or_path_or_dict: typing.Optional[str] = None **kwargs )
参数
- pretrained_model_link_or_path_or_dict (
str
, 可选) — 可以是:- Hub 上
.safetensors
或.ckpt
文件的链接(例如"https://huggingface.co/<repo_id>/blob/main/<path_to_file>.safetensors"
)。 - 包含组件模型权重的本地文件的路径。
- 包含组件模型权重的状态字典。
- Hub 上
- config (
str
, 可选) —- 字符串,Hub 上托管的预训练管线的仓库 ID(例如
CompVis/ldm-text2im-large-256
)。 - 目录的路径(例如
./my_pipeline_directory/
),其中包含 Diffusers 格式的管线组件配置。
- 字符串,Hub 上托管的预训练管线的仓库 ID(例如
- subfolder (
str
, 可选, 默认为""
) — Hub 上或本地的较大模型仓库中模型文件的子文件夹位置。 - original_config (
str
, 可选) — 字典或 yaml 文件的路径,其中包含模型原始格式的配置。如果提供了字典,它将用于初始化模型配置。 - torch_dtype (
str
或torch.dtype
, 可选) — 覆盖默认的torch.dtype
并使用另一种数据类型加载模型。如果传递"auto"
,则数据类型将自动从模型的权重中派生。 - force_download (
bool
, 可选, 默认为False
) — 是否强制(重新)下载模型权重和配置文件,覆盖已存在的缓存版本。 - cache_dir (
Union[str, os.PathLike]
, 可选) — 如果不使用标准缓存,则下载的预训练模型配置缓存到的目录路径。 - proxies (
Dict[str, str]
, 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}
。代理用于每个请求。 - local_files_only (
bool
, 可选, 默认为False
) — 是否仅加载本地模型权重和配置文件。如果设置为 True,则不会从 Hub 下载模型。 - token (
str
或 bool, 可选) — 用作远程文件的 HTTP Bearer 授权的令牌。如果为True
,则使用从diffusers-cli login
生成的令牌(存储在~/.huggingface
中)。 - revision (
str
, 可选, 默认为"main"
) — 要使用的特定模型版本。它可以是分支名称、标签名称、提交 ID 或 Git 允许的任何标识符。 - kwargs (剩余的关键字参数字典, 可选) — 可用于覆盖可加载和可保存的变量(例如特定管线类的管线组件)。被覆盖的组件会直接传递给管线的
__init__
方法。有关更多信息,请参见下面的示例。
从以原始 .ckpt
或 .safetensors
格式保存的预训练权重实例化模型。默认情况下,模型设置为评估模式 (model.eval()
)。