Optimum 文档

导出函数

您正在查看 主分支 版本,需要从源代码安装。如果您希望使用常规 pip 安装,请查看最新稳定版本(v1.23.1)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强型文档体验

开始使用

导出函数

主要函数

optimum.exporters.tflite.export

< >

( model: TFPreTrainedModel config: TFLiteConfig output: Path task: typing.Optional[str] = None preprocessor: typing.Union[transformers.tokenization_utils_base.PreTrainedTokenizerBase, transformers.image_processing_utils.BaseImageProcessor, NoneType] = None quantization_config: typing.Optional[ForwardRef('TFLiteQuantizationConfig')] = None ) Tuple[List[str], List[str]]

参数

  • model (TFPreTrainedModel) — 要导出的模型。
  • config (TFLiteConfig) — 与导出模型关联的 TFLite 配置。
  • output (Path) — 存储导出 TFLite 模型的目录。
  • task (Optional[str],默认为 None) — 模型的任务。如果未指定,则将自动推断任务。仅在静态量化时需要。
  • 预处理器 (Optional[Preprocessor],默认为 None) — 与模型关联的预处理器。这用于在校准期间将数据馈送到模型之前预处理数据集。
  • 量化配置 (Optional[TFLiteQuantizationConfig],默认为 None) — 包含执行量化所需的所有信息的dataclass。

返回值

Tuple[List[str], List[str]]

一个元组,包含模型输入的有序列表和来自 TFLite 配置的命名输入。

将 TensorFlow 模型导出到 TensorFlow Lite 模型。

实用程序函数

optimum.exporters.tflite.validate_model_outputs

< >

( config: TFLiteConfig reference_model: TFPreTrainedModel tflite_model_path: Path tflite_named_outputs: typing.List[str] atol: typing.Optional[float] = None )

参数

  • config (TFLiteConfig — 用于导出模型的配置。
  • 参考模型 (~TFPreTrainedModel) — 用于导出的模型。
  • TFLite 模型路径 (Path) — 导出模型的路径。
  • TFLite 命名输出 (List[str]) — 要检查的输出名称。
  • 绝对容差 (Optional[float],默认为 None) — 参考模型和导出模型之间输出差异的绝对容差。

引发异常

ValueError

  • ValueError — 如果参考模型和导出模型之间的输出形状或值不匹配。

通过检查参考模型和导出模型的输出是否匹配来验证导出。

< > 在 GitHub 上更新