Optimum 文档

RyzenAIModel

您正在查看 主分支 版本,需要从源代码安装。如果您希望使用常规 pip 安装,请查看最新稳定版本(v1.23.1)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强型文档体验

开始使用

RyzenAIModel

optimum.amd.ryzenai.RyzenAIModel

< >

( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )

实现使用 ONNX 运行时的模型的基类。

RyzenAIModel 实现与 Hugging Face Hub 交互的通用方法,以及使用optimum.exporters.onnx 工具链将普通转换器模型导出到 ONNX。

类属性

  • model_type(str,默认为"onnx_model")— 在注册 RyzenAIModel 类时使用的模型类型的名称。
  • auto_model_class(Type,默认为AutoModel)— 当前 RyzenAIModel 类所代表的“AutoModel”类。

常用属性

  • model(ort.InferenceSession)— 正在运行模型的 ONNX 运行时 InferenceSession。
  • config(PretrainedConfig — 模型的配置。
  • model_save_dir(Path)— 导出到 ONNX 的模型保存的目录。默认情况下,如果加载的模型是本地的,则使用原始模型所在的目录。否则,使用缓存目录。
  • providers(`List[str]) — ONNX 运行时可用的执行提供程序列表。

from_pretrained

< >

( model_id: Union vaip_config: str = None export: bool = False force_download: bool = False use_auth_token: Optional = None cache_dir: Optional = None subfolder: str = '' config: Optional = None local_files_only: bool = False provider: str = 'VitisAIExecutionProvider' session_options: Optional = None provider_options: Optional = None trust_remote_code: bool = False revision: Optional = None library_name: Optional = None **kwargs ) RyzenAIModel

参数

  • model_id (Union[str, Path]) — 可以是:

    • 一个字符串,表示托管在 huggingface.co 上的模型仓库中的预训练模型的模型 ID。有效的模型 ID 可以位于根级别,例如 bert-base-uncased,或者位于用户或组织名称下的命名空间中,例如 dbmdz/bert-base-german-cased
    • 使用 ~OptimizedModel.save_pretrained 保存的模型所在的目录的路径,例如 ./my_model_directory/
  • export (bool,默认为 False) — 定义是否需要将提供的 model_id 导出为目标格式。
  • force_download (bool,默认为 True) — 是否强制(重新)下载模型权重和配置文件,覆盖现有的缓存版本。
  • use_auth_token (Optional[Union[bool,str]],默认为 None) — 已弃用。请改用 token 参数。
  • token (Optional[Union[bool,str]],默认为 None) — 用作远程文件 HTTP 授权标头的令牌。如果为 True,则使用运行 huggingface-cli login 时生成的令牌(存储在 huggingface_hub.constants.HF_TOKEN_PATH 中)。
  • cache_dir (Optional[str],默认为 None) — 下载的预训练模型配置应缓存到的目录的路径,如果不想使用标准缓存。
  • subfolder (str,默认为 "") — 如果相关文件位于模型仓库的子文件夹中(本地或在 huggingface.co 上),则可以在这里指定文件夹名称。
  • config (Optional[transformers.PretrainedConfig],默认为 None) — 模型配置。
  • local_files_only (Optional[bool],默认为 False) — 是否只查看本地文件(即不尝试下载模型)。
  • trust_remote_code (bool,默认为 False) — 是否允许 Hub 中定义的自定义代码在其自己的模型中使用。此选项仅应在您信任的存储库中且已阅读代码的情况下设置为 True,因为它将在您的本地机器上执行 Hub 上存在的代码。
  • provider (str,默认为 "VitisAIExecutionProvider") — 用于加载模型的 ONNX Runtime 提供程序。有关可能的提供程序,请参阅 https://onnxruntime.ai/docs/execution-providers/
  • session_options (Optional[onnxruntime.SessionOptions],默认为 None) — 用于加载模型的 ONNX Runtime 会话选项。
  • provider_options (Optional[Dict[str, Any]],默认为 None) — 与所用提供程序相对应的提供程序选项字典。请参阅每个提供程序的可用选项: https://onnxruntime.ai/docs/api/c/group___global.html
  • kwargs (Dict[str, Any]) — 将传递给底层模型加载方法。

解码器模型的参数 (RyzenAIForSpeechSeq2Seq)

  • use_cache (Optional[bool],默认为 True) — 是否应使用过去的键/值缓存。默认为 True

返回值

RyzenAIModel

加载的 RyzenAIModel 模型。

从预训练的模型配置中实例化一个预训练的模型。

save_pretrained

< >

( save_directory: Union push_to_hub: bool = False **kwargs )

参数

  • save_directory (Union[str, os.PathLike]) — 要保存到的目录。如果不存在,则会创建它。
  • push_to_hub (bool可选,默认为 False) — 保存模型后是否将其推送到 Hugging Face 模型中心。

    使用 push_to_hub=True 将同步您正在推送到 save_directory 的存储库,这需要 save_directory 是您正在推送到存储库的本地克隆(如果它是一个现有文件夹)。传递 temp_dir=True 以使用临时目录。

将模型及其配置文件保存到目录中,以便可以使用 from_pretrained 类方法重新加载它。

reshape

< >

( model_path: Union input_shape_dict: Dict output_shape_dict: Dict ) Union[str, Path]

参数

  • input_shape_dict (Dict[str, Tuple[int]]) — 模型的输入形状。
  • output_shape_dict (Dict[str, Tuple[int]]) — 模型的输出形状。

返回值

Union[str, Path]

更新输入形状后模型的路径。

引发

ValueError

  • ValueError — 如果提供的模型在输入/输出中具有动态轴,并且未提供输入/输出形状。

在模型的层上传播给定的输入形状,修复模型的输入形状。

计算机视觉

optimum.amd.ryzenai.RyzenAIModelForImageClassification

< >

( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )

optimum.amd.ryzenai.RyzenAIModelForImageToImage

< >

( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )

optimum.amd.ryzenai.RyzenAIModelForObjectDetection

< >

( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )

optimum.amd.ryzenai.RyzenAIModelForSemanticSegmentation

< >

( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )

自定义任务

optimum.amd.ryzenai.RyzenAIModelForCustomTasks

< >

( model: InferenceSession config: PretrainedConfig vaip_config: Union = None model_save_dir: Union = None preprocessors: Optional = None **kwargs )

< > 在 GitHub 上更新