Transformers 文档

将 🤗 Transformers 模型导出至 ONNX

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

将 🤗 Transformers 模型导出至 ONNX

🤗 Transformers 提供了一个 transformers.onnx 包,您可以通过利用配置对象将模型检查点转换为 ONNX 图。

更多详情请参见有关导出 🤗 Transformers 模型的指南

ONNX 配置

我们提供了三个抽象类,您应根据希望导出的模型架构类型继承这些类

OnnxConfig

class transformers.onnx.OnnxConfig

< >

( config: PretrainedConfig task: str = 'default' patching_specs: typing.Optional[list[transformers.onnx.config.PatchingSpec]] = None )

ONNX 可导出模型的基类,描述了如何通过 ONNX 格式导出模型的元数据。

flatten_output_collection_property

< >

( name: str field: Iterable ) (dict[str, Any])

参数

  • name — 嵌套结构的名称
  • field — 可能需要扁平化的结构

返回

(dict[str, Any])

输出具有扁平化的结构和映射此新结构的键。

将任何潜在的嵌套结构扁平化,通过结构内元素的索引来扩展字段名称。

from_model_config

< >

( config: PretrainedConfig task: str = 'default' )

参数

  • config — 导出到 ONNX 时要使用的模型配置

为特定模型实例化一个 OnnxConfig

生成虚拟输入

< >

( preprocessor: typing.Union[ForwardRef('PreTrainedTokenizerBase'), ForwardRef('FeatureExtractionMixin'), ForwardRef('ImageProcessingMixin')] batch_size: int = -1 seq_length: int = -1 num_choices: int = -1 is_pair: bool = False framework: typing.Optional[transformers.utils.generic.TensorType] = None num_channels: int = 3 image_width: int = 40 image_height: int = 40 sampling_rate: int = 22050 time_duration: float = 5.0 frequency: int = 220 tokenizer: typing.Optional[ForwardRef('PreTrainedTokenizerBase')] = None )

参数

  • preprocessor — (PreTrainedTokenizerBase, FeatureExtractionMixinImageProcessingMixin): 与此模型配置关联的预处理器。
  • batch_size (int, 可选, 默认为 -1) — 导出模型的批大小(-1 表示动态轴)。
  • num_choices (int, 可选, 默认为 -1) — 为多项选择任务提供的候选答案数量(-1 表示动态轴)。
  • seq_length (int, 可选, 默认为 -1) — 导出模型的序列长度(-1 表示动态轴)。
  • is_pair (bool, 可选, 默认为 False) — 指示输入是否为文本对(句子 1, 句子 2)
  • framework (TensorType, 可选, 默认为 None) — 分词器将为其生成张量的框架(PyTorch 或 TensorFlow)。
  • num_channels (int, 可选, 默认为 3) — 生成图像的通道数。
  • image_width (int, 可选, 默认为 40) — 生成图像的宽度。
  • image_height (int, 可选, 默认为 40) — 生成图像的高度。
  • sampling_rate (int, 可选,默认为 22050) — 用于音频数据生成的采样率。
  • time_duration (float, 可选,默认为 5.0) — 用于音频数据生成的总采样秒数。
  • frequency (int, 可选,默认为 220) — 生成音频所需的自然频率。

为特定框架生成提供给 ONNX 导出器的输入

generate_dummy_inputs_onnxruntime

< >

( reference_model_inputs: Mapping ) Mapping[str, Tensor]

参数

  • reference_model_inputs ([Mapping[str, Tensor]) — 模型的参考输入。

返回

Mapping[str, Tensor]

提供给模型 forward 函数的 kwargs 的映射

使用参考模型输入为 ONNX Runtime 生成输入。对于编码器和解码器作为独立 ONNX 文件导出的 seq2seq 模型,可以重写此方法以运行推理。

use_external_data_format

< >

( num_parameters: int )

参数

  • num_parameters — 模型中的参数数量

指示模型是否需要使用外部数据格式的标志

OnnxConfigWithPast

class transformers.onnx.OnnxConfigWithPast

< >

( config: PretrainedConfig task: str = 'default' patching_specs: typing.Optional[list[transformers.onnx.config.PatchingSpec]] = None use_past: bool = False )

fill_with_past_key_values_

< >

( inputs_or_outputs: Mapping direction: str inverted_values_shape: bool = False )

参数

  • inputs_or_outputs — 要填充的映射。
  • direction — “inputs” 或 “outputs”,它指定 input_or_outputs 是输入映射还是输出映射,这对轴的命名很重要。
  • inverted_values_shape — 如果为 True,则将值存储在动态轴 1 上,否则在轴 2 上。

用 past_key_values 填充 input_or_outputs 映射,并考虑动态轴。

with_past

< >

( config: PretrainedConfig task: str = 'default' )

参数

  • config — 导出到 ONNX 时要使用的底层模型的配置

实例化一个 OnnxConfig,其 `use_past` 属性设置为 True

OnnxSeq2SeqConfigWithPast

class transformers.onnx.OnnxSeq2SeqConfigWithPast

< >

( config: PretrainedConfig task: str = 'default' patching_specs: typing.Optional[list[transformers.onnx.config.PatchingSpec]] = None use_past: bool = False )

ONNX 特性

每个 ONNX 配置都与一组 *特性* 相关联,使您能够为不同类型的拓扑或任务导出模型。

FeaturesManager

class transformers.onnx.FeaturesManager

< >

( )

check_supported_model_or_raise

< >

( model: typing.Union[ForwardRef('PreTrainedModel'), ForwardRef('TFPreTrainedModel')] feature: str = 'default' )

参数

  • model — 要导出的模型。
  • feature — 要检查是否可用的特性名称。

检查模型是否具有请求的特性。

determine_framework

< >

( model: str framework: typing.Optional[str] = None )

参数

  • model (str) — 要导出的模型名称。
  • framework (str, 可选, 默认为 None) — 用于导出的框架。如果未提供,则参见上述优先级。

确定用于导出的框架。

优先级顺序如下

  1. 通过 `framework` 的用户输入。
  2. 如果提供了本地检查点,则使用与检查点相同的框架。
  3. 环境中的可用框架,优先使用 PyTorch

get_config

< >

( model_type: str feature: str ) OnnxConfig

参数

  • model_type (str) — 要检索配置的模型类型。
  • feature (str) — 要检索配置的特性。

返回

OnnxConfig

组合的配置

获取 model_type 和 feature 组合的 OnnxConfig。

get_model_class_for_feature

< >

( feature: str framework: str = 'pt' )

参数

  • feature (str) — 所需的特性。
  • framework (str, optional, 默认为 "pt") — 用于导出的框架。

尝试从特性名称中检索 AutoModel 类。

get_model_from_feature

< >

( feature: str model: str framework: typing.Optional[str] = None cache_dir: typing.Optional[str] = None )

参数

  • feature (str) — 所需的特性。
  • model (str) — 要导出的模型名称。
  • framework (str, optional, 默认为 None) — 用于导出的框架。如果未提供,请参阅 FeaturesManager.determine_framework 以了解优先级。

尝试从模型名称和要启用的特性中检索模型。

get_supported_features_for_model_type

< >

( model_type: str model_name: typing.Optional[str] = None )

参数

  • model_type (str) — 要检索其支持特性的模型类型。
  • model_name (str, optional) — 模型对象的名称属性,仅用于异常消息。

尝试从模型类型中检索 特性 -> OnnxConfig 构造函数的映射。

< > 在 GitHub 上更新