PEFT 文档
辅助方法
加入 Hugging Face 社区
并获得增强的文档体验
开始
辅助方法
PEFT 的辅助函数集合。
检查模型是否为 PEFT 模型
peft.helpers.check_if_peft_model
< 源代码 >( model_name_or_path: str ) → bool
检查模型是否为 PEFT 模型。
临时重新调整 LoraLayer 模块中的适配器比例
peft.helpers.rescale_adapter_scale
< 源代码 >( model multiplier )
上下文管理器,用于临时重新调整模型中 LoRA 适配器的比例。
当上下文管理器退出时,原始比例值将被恢复。此上下文管理器适用于已直接加载 LoRA 适配器的 transformers 和 diffusers 模型。
对于 LoRA,应用此上下文管理器且乘数在 [0, 1] 范围内,与应用 wise-ft 完全等效(详见 #1940)。如果微调使用的训练数据与推理时使用的测试数据之间存在分布偏移,则可以提高模型的性能。
警告:据报告,当使用 Apple 的 MPS 后端进行 PyTorch 时,有必要在退出上下文后添加短暂的睡眠时间,然后才能完全恢复比例。
上下文管理器,用于禁用 LoRA 层前向方法中的输入 dtype 转换
peft.helpers.disable_input_dtype_casting
< 源代码 >( model: Module active: bool = True )
上下文管理器禁用输入 dtype 转换为权重的 dtype。
目前专门用于 LoRA。