PEFT 文档
PEFT 集成
并获得增强的文档体验
开始使用
PEFT 集成
PEFT 的实际好处也延伸到了其他 Hugging Face 库,例如 Diffusers 和 Transformers。PEFT 的主要优势之一是,由 PEFT 方法生成的适配器文件比原始模型小得多,这使得管理和使用多个适配器变得非常容易。您可以通过简单地加载一个为特定任务微调的新适配器,来使用同一个预训练的基础模型完成多个任务。或者,您可以将多个适配器与文本到图像的扩散模型结合起来,创造出新的效果。
本教程将向您展示 PEFT 如何帮助您在 Diffusers 和 Transformers 中管理适配器。
Diffusers
Diffusers 是一个生成式 AI 库,用于通过扩散模型从文本或图像创建图像和视频。LoRA 是扩散模型中一种特别受欢迎的训练方法,因为您可以非常快速地训练和分享扩散模型,以生成新风格的图像。为了更方便地使用和尝试多个 LoRA 模型,Diffusers 使用 PEFT 库来帮助管理用于推理的不同适配器。
例如,加载一个基础模型,然后使用 load_lora_weights
方法加载 artificialguybr/3DRedmond-V1 适配器进行推理。加载方法中的 adapter_name
参数由 PEFT 启用,允许您为适配器设置一个名称,以便更容易引用。
import torch
from diffusers import DiffusionPipeline
pipeline = DiffusionPipeline.from_pretrained(
"stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16
).to("cuda")
pipeline.load_lora_weights(
"peft-internal-testing/artificialguybr__3DRedmond-V1",
weight_name="3DRedmond-3DRenderStyle-3DRenderAF.safetensors",
adapter_name="3d"
)
image = pipeline("sushi rolls shaped like kawaii cat faces").images[0]
image

现在让我们试试另一个很酷的 LoRA 模型,ostris/super-cereal-sdxl-lora。您需要做的就是使用 adapter_name
加载并命名这个新适配器,然后使用 set_adapters
方法将其设置为当前活动的适配器。
pipeline.load_lora_weights(
"ostris/super-cereal-sdxl-lora",
weight_name="cereal_box_sdxl_v1.safetensors",
adapter_name="cereal"
)
pipeline.set_adapters("cereal")
image = pipeline("sushi rolls shaped like kawaii cat faces").images[0]
image

最后,您可以调用 disable_lora
方法来恢复基础模型。
pipeline.disable_lora()
要了解更多关于 PEFT 如何支持 Diffusers 的信息,请参阅使用 PEFT 进行推理教程。
Transformers
🤗 Transformers 是一个包含用于各种模态、各种任务的预训练模型的集合。您可以加载这些模型用于训练或推理。其中许多模型是大型语言模型(LLM),因此将 PEFT 与 Transformers 集成以管理和训练适配器非常有意义。
加载一个预训练的基础模型进行训练。
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("facebook/opt-350m")
接下来,添加一个适配器配置以指定如何调整模型参数。调用 add_adapter() 方法将配置添加到基础模型中。
from peft import LoraConfig
peft_config = LoraConfig(
lora_alpha=16,
lora_dropout=0.1,
r=64,
bias="none",
task_type="CAUSAL_LM"
)
model.add_adapter(peft_config)
现在您可以使用 Transformer 的 Trainer
类或您喜欢的任何训练框架来训练模型了。
要使用新训练的模型进行推理,AutoModel
类在后端使用 PEFT 将适配器权重和配置文件加载到预训练的基础模型中。
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("peft-internal-testing/opt-350m-lora")
另外,您可以使用 transformers Pipelines 来加载模型,以便方便地进行推理。
from transformers import pipeline
model = pipeline("text-generation", "peft-internal-testing/opt-350m-lora")
print(model("Hello World"))
如果您有兴趣比较或使用多个适配器,可以调用 add_adapter() 方法将适配器配置添加到基础模型中。唯一的要求是适配器类型必须相同(您不能混合使用 LoRA 和 LoHa 适配器)。
from transformers import AutoModelForCausalLM
from peft import LoraConfig
model = AutoModelForCausalLM.from_pretrained("facebook/opt-350m")
model.add_adapter(lora_config_1, adapter_name="adapter_1")
再次调用 add_adapter() 将新的适配器附加到基础模型上。
model.add_adapter(lora_config_2, adapter_name="adapter_2")
然后您可以使用 set_adapter() 来设置当前活动的适配器。
model.set_adapter("adapter_1")
output = model.generate(**inputs)
print(tokenizer.decode(output_disabled[0], skip_special_tokens=True))
要禁用适配器,请调用 disable_adapters 方法。
model.disable_adapters()
可以使用 enable_adapters 方法再次启用适配器。
如果您好奇,可以查看使用 PEFT 加载和训练适配器教程以了解更多信息。
< > 在 GitHub 上更新