Optimum 文档

RyzenAIModel

您正在查看 main 版本,需要从源代码安装. 如果您想使用常规 pip 安装,请查看最新的稳定版本 (v1.23.1).
Hugging Face's logo
加入 Hugging Face 社区

并获得增强型文档体验

开始使用

RyzenAIModel

optimum.amd.ryzenai.pipeline

< >

( task model: Optional = None vaip_config: Optional = None model_type: Optional = None feature_extractor: Union = None image_processor: Union = None use_fast: bool = True token: Union = None revision: Optional = None **kwargs ) Pipeline

参数

  • task (str) — 定义将返回哪个管道的任务。可用的任务包括:
    • “image-classification”
    • “object-detection”
  • model (Optional[Any], defaults to None) — 管道将用来进行预测的模型。这可以是一个模型标识符,也可以是一个实际的预训练模型实例。如果未提供,则将加载指定任务的默认模型。
  • vaip_config (Optional[str], defaults to None) — 使用 Ryzen IPU 进行推理的运行时配置文件。在安装过程中提取的 Ryzen AI VOE 包中可以找到默认配置文件,其名称为 vaip_config.json
  • model_type (Optional[str], defaults to None) — 模型的模型类型
  • feature_extractor (Union[str, "PreTrainedFeatureExtractor"], 默认值为 None) — 流水线将用来对模型数据进行编码的特征提取器。可以是模型标识符或实际的预训练特征提取器。
  • image_processor (Union[str, BaseImageProcessor], 默认值为 None) — 流水线将用来执行图像相关任务的图像处理器。
  • use_fast (bool, 默认值为 True) — 是否在可能的情况下使用 Fast 分词器。
  • token (Union[str, bool], 默认值为 None) — 用作远程文件 HTTP 身份验证的令牌。如果为 True,将使用运行 huggingface-cli login 时生成的令牌(存储在 ~/.huggingface 中)。
  • revision (str, 默认值为 None) — 要使用的特定模型版本,指定为分支名称、标签名称或提交 ID。 **kwargs — 传递给底层流水线类的其他关键字参数。

返回

流水线

指定任务和模型的指定流水线的实例。

用于构建各种 RyzenAI 任务的流水线的实用程序方法。

此函数为指定的任务创建一个流水线,利用给定的模型或加载任务的默认模型。流水线包括图像处理器和模型等组件。

计算机视觉

class optimum.amd.ryzenai.pipelines.TimmImageClassificationPipeline

< >

( model: Union tokenizer: Optional = None feature_extractor: Optional = None image_processor: Optional = None modelcard: Optional = None framework: Optional = None task: str = '' args_parser: ArgumentHandler = None device: Union = None torch_dtype: Union = None binary_output: bool = False **kwargs )

示例用法

import requests
from PIL import Image

from optimum.amd.ryzenai import pipeline

url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)

model_id = "mohitsha/timm-resnet18-onnx-quantized-ryzen"

pipe = pipeline("image-classification", model=model_id, vaip_config="vaip_config.json")
print(pipe(image))

class optimum.amd.ryzenai.pipelines.YoloObjectDetectionPipeline

< >

( model: Union tokenizer: Optional = None feature_extractor: Optional = None image_processor: Optional = None modelcard: Optional = None framework: Optional = None task: str = '' args_parser: ArgumentHandler = None device: Union = None torch_dtype: Union = None binary_output: bool = False **kwargs )

支持的模型类型

  • yolox
  • yolov3
  • yolov5
  • yolov8

示例用法

import requests
from PIL import Image

from optimum.amd.ryzenai import pipeline

img = ".\\image.jpg"
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
img = ".\\image2.jpg"

image = Image.open(img)

model_id = "amd/yolox-s"

detector = pipeline("object-detection", model=model_id, vaip_config="vaip_config.json", model_type="yolox")
detector = pipe(image)
< > 在 GitHub 上更新