Hub 文档
在 🤗 Hugging Face 上使用 🧨 Diffusers
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
在 Hugging Face 上使用 🧨 diffusers
Diffusers 是最先进的预训练扩散模型的首选库,用于生成图像、音频,甚至分子的 3D 结构。无论您是在寻找简单的推理解决方案,还是想训练自己的扩散模型,Diffusers 都是一个模块化工具箱,两者都支持。该库的设计侧重于可用性而非性能,简单而非容易,以及可定制性而非抽象性。
探索 Hub 中的 Diffusers
Hub 上有超过 10,000 个 diffusers
兼容的 pipelines,您可以通过在模型页面左侧进行筛选来找到它们。扩散系统通常由多个组件组成,例如文本编码器、UNet、VAE 和调度器。即使它们不是独立的模型,pipeline 抽象也使得可以轻松地将它们用于推理或训练。
您可以找到用于许多不同任务的扩散 pipelines
- 从自然语言文本提示生成图像(text-to-image)。
- 使用自然语言文本提示转换图像(image-to-image)。
- 从自然语言描述生成视频(text-to-video)。
如果您想在不下载模型的情况下进行测试,可以直接在浏览器中试用这些模型,这要归功于浏览器内小部件!

使用现有的 pipelines
所有 diffusers
pipelines 都只需一行代码即可使用!为了运行生成,我们建议始终从 DiffusionPipeline
开始
from diffusers import DiffusionPipeline
pipeline = DiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-xl-base-1.0")
如果您想加载特定的 pipeline 组件(例如 UNet),您可以这样做:
from diffusers import UNet2DConditionModel
unet = UNet2DConditionModel.from_pretrained("stabilityai/stable-diffusion-xl-base-1.0", subfolder="unet")
分享您的 pipelines 和模型
所有 pipeline 类、模型类 和 调度器类 都与 Hub 完全兼容。更具体地说,它们可以使用 from_pretrained()
方法轻松地从 Hub 加载,并且可以使用 push_to_hub()
方法与他人共享。
有关更多详细信息,请查看文档。