RyzenAIModel
类 optimum.amd.ryzenai.RyzenAIModel
< 源代码 >( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )
实现使用 ONNX 运行时的模型的基类。
RyzenAIModel 实现与 Hugging Face Hub 交互的通用方法,以及使用optimum.exporters.onnx
工具链将普通转换器模型导出到 ONNX。
类属性
- model_type(
str
,默认为"onnx_model"
)— 在注册 RyzenAIModel 类时使用的模型类型的名称。 - auto_model_class(
Type
,默认为AutoModel
)— 当前 RyzenAIModel 类所代表的“AutoModel”类。
常用属性
- model(
ort.InferenceSession
)— 正在运行模型的 ONNX 运行时 InferenceSession。 - config(PretrainedConfig — 模型的配置。
- model_save_dir(
Path
)— 导出到 ONNX 的模型保存的目录。默认情况下,如果加载的模型是本地的,则使用原始模型所在的目录。否则,使用缓存目录。 - providers(`List[str]) — ONNX 运行时可用的执行提供程序列表。
from_pretrained
< 源代码 >( model_id: Union vaip_config: str = None export: bool = False force_download: bool = False use_auth_token: Optional = None cache_dir: Optional = None subfolder: str = '' config: Optional = None local_files_only: bool = False provider: str = 'VitisAIExecutionProvider' session_options: Optional = None provider_options: Optional = None trust_remote_code: bool = False revision: Optional = None library_name: Optional = None **kwargs ) → RyzenAIModel
参数
- model_id (
Union[str, Path]
) — 可以是:- 一个字符串,表示托管在 huggingface.co 上的模型仓库中的预训练模型的模型 ID。有效的模型 ID 可以位于根级别,例如
bert-base-uncased
,或者位于用户或组织名称下的命名空间中,例如dbmdz/bert-base-german-cased
。 - 使用
~OptimizedModel.save_pretrained
保存的模型所在的目录的路径,例如./my_model_directory/
。
- 一个字符串,表示托管在 huggingface.co 上的模型仓库中的预训练模型的模型 ID。有效的模型 ID 可以位于根级别,例如
- export (
bool
,默认为False
) — 定义是否需要将提供的model_id
导出为目标格式。 - force_download (
bool
,默认为True
) — 是否强制(重新)下载模型权重和配置文件,覆盖现有的缓存版本。 - use_auth_token (
Optional[Union[bool,str]]
,默认为None
) — 已弃用。请改用token
参数。 - token (
Optional[Union[bool,str]]
,默认为None
) — 用作远程文件 HTTP 授权标头的令牌。如果为True
,则使用运行huggingface-cli login
时生成的令牌(存储在huggingface_hub.constants.HF_TOKEN_PATH
中)。 - cache_dir (
Optional[str]
,默认为None
) — 下载的预训练模型配置应缓存到的目录的路径,如果不想使用标准缓存。 - subfolder (
str
,默认为""
) — 如果相关文件位于模型仓库的子文件夹中(本地或在 huggingface.co 上),则可以在这里指定文件夹名称。 - config (
Optional[transformers.PretrainedConfig]
,默认为None
) — 模型配置。 - local_files_only (
Optional[bool]
,默认为False
) — 是否只查看本地文件(即不尝试下载模型)。 - trust_remote_code (
bool
,默认为False
) — 是否允许 Hub 中定义的自定义代码在其自己的模型中使用。此选项仅应在您信任的存储库中且已阅读代码的情况下设置为True
,因为它将在您的本地机器上执行 Hub 上存在的代码。 - session_options (
Optional[onnxruntime.SessionOptions]
,默认为None
) — 用于加载模型的 ONNX Runtime 会话选项。 - provider_options (
Optional[Dict[str, Any]]
,默认为None
) — 与所用提供程序相对应的提供程序选项字典。请参阅每个提供程序的可用选项: https://onnxruntime.ai/docs/api/c/group___global.html。 - kwargs (
Dict[str, Any]
) — 将传递给底层模型加载方法。
解码器模型的参数 (RyzenAIForSpeechSeq2Seq)
返回值
RyzenAIModel
加载的 RyzenAIModel 模型。
从预训练的模型配置中实例化一个预训练的模型。
save_pretrained
< 源代码 > ( save_directory: Union push_to_hub: bool = False **kwargs )
将模型及其配置文件保存到目录中,以便可以使用 from_pretrained
类方法重新加载它。
reshape
< 源代码 > ( model_path: Union input_shape_dict: Dict output_shape_dict: Dict ) → Union[str, Path]
在模型的层上传播给定的输入形状,修复模型的输入形状。
计算机视觉
类 optimum.amd.ryzenai.RyzenAIModelForImageClassification
< 源代码 >( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )
类 optimum.amd.ryzenai.RyzenAIModelForImageToImage
< 源代码 >( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )
类 optimum.amd.ryzenai.RyzenAIModelForObjectDetection
< 源代码 >( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )
类 optimum.amd.ryzenai.RyzenAIModelForSemanticSegmentation
< 源代码 >( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )
自定义任务
类 optimum.amd.ryzenai.RyzenAIModelForCustomTasks
< 源代码 >( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )