Diffusers 文档

创建用于训练的数据集

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

创建用于训练的数据集

Hub 上有许多数据集可用于训练模型,但如果您找不到感兴趣的数据集或想使用自己的数据集,可以使用 🤗 Datasets 库创建一个数据集。数据集结构取决于您想要训练模型的任务。最基本的数据集结构是一个图像目录,用于执行无条件图像生成等任务。另一种数据集结构可能是一个图像目录和一个包含其对应文本描述的文本文件,用于执行文本到图像生成等任务。

本指南将向您展示创建数据集以进行微调的两种方法

  • 提供一个图像文件夹给 --train_data_dir 参数
  • 将数据集上传到 Hub 并将数据集仓库 ID 传递给 --dataset_name 参数

💡 在 创建图像数据集 指南中了解更多关于如何创建用于训练的图像数据集的信息。

以文件夹形式提供数据集

对于无条件生成,您可以将自己的数据集以图像文件夹的形式提供。训练脚本使用 🤗 Datasets 中的 ImageFolder 构建器从文件夹自动构建数据集。您的目录结构应如下所示

data_dir/xxx.png
data_dir/xxy.png
data_dir/[...]/xxz.png

将数据集目录的路径传递给 --train_data_dir 参数,然后即可开始训练

accelerate launch train_unconditional.py \
    --train_data_dir <path-to-train-directory> \
    <other-arguments>

将您的数据上传到 Hub

💡 有关创建数据集并将其上传到 Hub 的更多详细信息和上下文,请查看 使用 🤗 Datasets 进行图像搜索 这篇文章。

首先使用 ImageFolder 功能创建一个数据集,这将创建一个包含 PIL 编码图像的 image 列。

您可以使用 data_dirdata_files 参数来指定数据集的位置。data_files 参数支持将特定文件映射到数据集拆分,例如 traintest

from datasets import load_dataset

# example 1: local folder
dataset = load_dataset("imagefolder", data_dir="path_to_your_folder")

# example 2: local files (supported formats are tar, gzip, zip, xz, rar, zstd)
dataset = load_dataset("imagefolder", data_files="path_to_zip_file")

# example 3: remote files (supported formats are tar, gzip, zip, xz, rar, zstd)
dataset = load_dataset(
    "imagefolder",
    data_files="https://download.microsoft.com/download/3/E/1/3E1C3F21-ECDB-4869-8368-6DEBA77B919F/kagglecatsanddogs_3367a.zip",
)

# example 4: providing several splits
dataset = load_dataset(
    "imagefolder", data_files={"train": ["path/to/file1", "path/to/file2"], "test": ["path/to/file3", "path/to/file4"]}
)

然后使用 push_to_hub 方法将数据集上传到 Hub

# assuming you have ran the huggingface-cli login command in a terminal
dataset.push_to_hub("name_of_your_dataset")

# if you want to push to a private repo, simply pass private=True:
dataset.push_to_hub("name_of_your_dataset", private=True)

现在,通过将数据集名称传递给 --dataset_name 参数,该数据集可用于训练

accelerate launch --mixed_precision="fp16"  train_text_to_image.py \
  --pretrained_model_name_or_path="stable-diffusion-v1-5/stable-diffusion-v1-5" \
  --dataset_name="name_of_your_dataset" \
  <other-arguments>

下一步

现在您已经创建了一个数据集,您可以将其插入到训练脚本的 train_data_dir(如果您的数据集是本地的)或 dataset_name(如果您的数据集在 Hub 上)参数中。

对于您的下一步,请随意尝试使用您的数据集来训练用于无条件生成文本到图像生成的模型!

< > 在 GitHub 上更新