Optimum 文档

导出函数

您正在查看的是需要从源码安装。如果你想通过常规的 pip 安装,请查看最新的稳定版本 (v1.27.0)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

导出函数

主要函数

optimum.exporters.tflite.export

< >

( model: TFPreTrainedModel config: TFLiteConfig output: Path task: typing.Optional[str] = None preprocessor: typing.Union[transformers.tokenization_utils_base.PreTrainedTokenizerBase, transformers.image_processing_utils.BaseImageProcessor, NoneType] = None quantization_config: typing.Optional[ForwardRef('TFLiteQuantizationConfig')] = None ) Tuple[List[str], List[str]]

参数

  • model (TFPreTrainedModel) — 要导出的模型。
  • config (TFLiteConfig) — 与导出模型关联的 TFLite 配置。
  • output (Path) — 存储导出的 TFLite 模型的目录。
  • task (Optional[str], 默认为 None) — 模型的任务。如果未指定,将自动推断任务。仅静态量化需要。
  • preprocessor (Optional[Preprocessor], 默认为 None) — 与模型关联的预处理器。用于在校准期间将数据馈送给模型之前对数据集进行预处理。
  • quantization_config (Optional[TFLiteQuantizationConfig], 默认为 None) — 包含执行量化所需所有信息的数据类。

返回

Tuple[List[str], List[str]]

一个元组,包含模型输入有序列表,以及 TFLite 配置中的命名输入。

将 TensorFlow 模型导出为 TensorFlow Lite 模型。

实用函数

optimum.exporters.tflite.validate_model_outputs

< >

( config: TFLiteConfig reference_model: TFPreTrainedModel tflite_model_path: Path tflite_named_outputs: typing.List[str] atol: typing.Optional[float] = None )

参数

  • config (TFLiteConfig — 用于导出模型的配置。
  • reference_model (~TFPreTrainedModel) — 用于导出的模型。
  • tflite_model_path (Path) — 导出模型的路径。
  • tflite_named_outputs (List[str]) — 要检查的输出名称。
  • atol (Optional[float], 默认为 None) — 参考模型和导出模型之间输出差异的绝对容差。

引发

ValueError

  • ValueError — 如果参考模型和导出模型之间的输出形状或值不匹配。

通过检查参考模型和导出模型的输出是否匹配来验证导出。

< > 在 GitHub 上更新