PEFT 文档

配置

Hugging Face's logo
加入 Hugging Face 社区

并获得增强文档体验

开始使用

配置

PeftConfigMixin 是用于存储 PeftModel 的适配器配置的基本配置类,而 PromptLearningConfig 是用于软提示方法(p-tuning、前缀调优和提示调优)的基本配置类。这些基类包含用于从 Hub 保存和加载模型配置、指定要使用的 PEFT 方法、要执行的任务类型以及模型配置(如层数和注意力头数)的方法。

PeftConfigMixin

peft.config.PeftConfigMixin

< >

( peft_type: Optional = None auto_mapping: Optional = None )

参数

  • peft_type (Union[~peft.utils.config.PeftType, str]) — 要使用的 Peft 方法的类型。

这是 PEFT 适配器模型的基本配置类。它包含所有 PEFT 适配器模型共有的方法。此类继承自 PushToHubMixin,其中包含将模型推送到 Hub 的方法。save_pretrained 方法会将适配器模型的配置保存到目录中。from_pretrained 方法会从目录中加载适配器模型的配置。

from_json_file

< >

( path_json_file: str **kwargs )

参数

  • path_json_file (str) — json 文件的路径。

从 json 文件加载配置文件。

from_peft_type

< >

( **kwargs )

参数

  • kwargs (配置关键字参数) — 传递给配置初始化的关键字参数。

此方法从一组 kwargs 中加载适配器模型的配置。

合适的配置类型由 peft_type 参数确定。如果未提供 peft_type,则实例化调用类的类型。

from_pretrained

< >

( pretrained_model_name_or_path: str subfolder: Optional = None **kwargs )

参数

  • pretrained_model_name_or_path (str) — 保存配置的目录或 Hub 存储库 ID。
  • kwargs (其他关键字参数,可选) — 传递给子类初始化的其他关键字参数。

此方法从目录中加载适配器模型的配置。

save_pretrained

  • save_directory (str) — 配置文件将保存到的目录。
  • kwargs (其他关键字参数,可选) — 传递给 push_to_hub 方法的其他关键字参数。

此方法将适配器模型的配置保存到目录中。

to_dict

< >

( )

将适配器模型的配置作为字典返回。

PeftConfig

peft.PeftConfig

< >

( peft_type: Union = None auto_mapping: Optional = None base_model_name_or_path: Optional = None revision: Optional = None task_type: Union = None inference_mode: bool = False )

参数

  • peft_type (Union[~peft.utils.config.PeftType, str]) — 要使用的 Peft 方法的类型。
  • task_type (Union[~peft.utils.config.TaskType, str]) — 要执行的任务类型。
  • inference_mode (bool,默认为 False) — 是否以推理模式使用 Peft 模型。

这是用于存储 PeftModel 配置的基本配置类。

PromptLearningConfig

peft.PromptLearningConfig

  • num_virtual_tokens (int) — 虚拟标记的数量。
  • token_dim (int) — 基础Transformer模型的隐藏嵌入维度。
  • num_transformer_submodules (int) — 基础Transformer模型中Transformer子模块的数量。
  • num_attention_heads (int) — 基础Transformer模型中注意力头的数量。
  • num_layers (int) — 基础Transformer模型中层的数量。

这是一个基本配置类,用于存储PrefixTuningPromptEncoderPromptTuning的配置。

< > 在GitHub上更新