RyzenAIModel
optimum.amd.ryzenai.pipeline
< 源代码 >( task model: Optional = None vaip_config: Optional = None model_type: Optional = None feature_extractor: Union = None image_processor: Union = None use_fast: bool = True token: Union = None revision: Optional = None **kwargs ) → Pipeline
参数
- task (
str
) — 定义将返回哪个管道的任务。可用的任务包括:- “image-classification”
- “object-detection”
- model (
Optional[Any]
, defaults toNone
) — 管道将用来进行预测的模型。这可以是一个模型标识符,也可以是一个实际的预训练模型实例。如果未提供,则将加载指定任务的默认模型。 - vaip_config (
Optional[str]
, defaults toNone
) — 使用 Ryzen IPU 进行推理的运行时配置文件。在安装过程中提取的 Ryzen AI VOE 包中可以找到默认配置文件,其名称为vaip_config.json
。 - model_type (
Optional[str]
, defaults toNone
) — 模型的模型类型 - feature_extractor (
Union[str, "PreTrainedFeatureExtractor"]
, 默认值为None
) — 流水线将用来对模型数据进行编码的特征提取器。可以是模型标识符或实际的预训练特征提取器。 - image_processor (
Union[str, BaseImageProcessor]
, 默认值为None
) — 流水线将用来执行图像相关任务的图像处理器。 - use_fast (
bool
, 默认值为True
) — 是否在可能的情况下使用 Fast 分词器。 - token (
Union[str, bool
], 默认值为None
) — 用作远程文件 HTTP 身份验证的令牌。如果为 True,将使用运行huggingface-cli login
时生成的令牌(存储在~/.huggingface
中)。 - revision (
str
, 默认值为None
) — 要使用的特定模型版本,指定为分支名称、标签名称或提交 ID。 **kwargs — 传递给底层流水线类的其他关键字参数。
返回
流水线
指定任务和模型的指定流水线的实例。
用于构建各种 RyzenAI 任务的流水线的实用程序方法。
此函数为指定的任务创建一个流水线,利用给定的模型或加载任务的默认模型。流水线包括图像处理器和模型等组件。
计算机视觉
class optimum.amd.ryzenai.pipelines.TimmImageClassificationPipeline
< source >( model: Union tokenizer: Optional = None feature_extractor: Optional = None image_processor: Optional = None modelcard: Optional = None framework: Optional = None task: str = '' args_parser: ArgumentHandler = None device: Union = None torch_dtype: Union = None binary_output: bool = False **kwargs )
示例用法
import requests
from PIL import Image
from optimum.amd.ryzenai import pipeline
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
model_id = "mohitsha/timm-resnet18-onnx-quantized-ryzen"
pipe = pipeline("image-classification", model=model_id, vaip_config="vaip_config.json")
print(pipe(image))
class optimum.amd.ryzenai.pipelines.YoloObjectDetectionPipeline
< source >( model: Union tokenizer: Optional = None feature_extractor: Optional = None image_processor: Optional = None modelcard: Optional = None framework: Optional = None task: str = '' args_parser: ArgumentHandler = None device: Union = None torch_dtype: Union = None binary_output: bool = False **kwargs )
支持的模型类型
- yolox
- yolov3
- yolov5
- yolov8
示例用法
import requests
from PIL import Image
from optimum.amd.ryzenai import pipeline
img = ".\\image.jpg"
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
img = ".\\image2.jpg"
image = Image.open(img)
model_id = "amd/yolox-s"
detector = pipeline("object-detection", model=model_id, vaip_config="vaip_config.json", model_type="yolox")
detector = pipe(image)