Optimum 文档

导出函数

您正在查看 main 版本,该版本需要从源代码安装。如果您想要常规 pip 安装,请查看最新的稳定版本 (v1.24.0)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

导出函数

主要函数

optimum.exporters.tflite.export

< >

( model: TFPreTrainedModel config: TFLiteConfig output: Path task: typing.Optional[str] = None preprocessor: typing.Union[transformers.tokenization_utils_base.PreTrainedTokenizerBase, transformers.image_processing_utils.BaseImageProcessor, NoneType] = None quantization_config: typing.Optional[ForwardRef('TFLiteQuantizationConfig')] = None ) Tuple[List[str], List[str]]

参数

  • model (TFPreTrainedModel) — 要导出的模型。
  • config (TFLiteConfig) — 与导出的模型关联的 TFLite 配置。
  • output (Path) — 存储导出的 TFLite 模型的目录。
  • task (Optional[str], 默认为 None) — 模型的任务。如果未指定,将自动推断任务。仅当进行静态量化时才需要。
  • preprocessor (Optional[Preprocessor], 默认为 None) — 与模型关联的预处理器。这用于在校准期间将数据馈送到模型之前预处理数据集。
  • quantization_config (Optional[TFLiteQuantizationConfig], 默认为 None) — 包含执行量化所需的所有信息的 dataclass。

返回

Tuple[List[str], List[str]]

一个元组,其中包含模型输入的有序列表以及来自 TFLite 配置的命名输入。

将 TensorFlow 模型导出为 TensorFlow Lite 模型。

实用函数

optimum.exporters.tflite.validate_model_outputs

< >

( config: TFLiteConfig reference_model: TFPreTrainedModel tflite_model_path: Path tflite_named_outputs: typing.List[str] atol: typing.Optional[float] = None )

参数

  • config (TFLiteConfig — 用于导出模型的配置。
  • reference_model (~TFPreTrainedModel) — 用于导出的模型。
  • tflite_model_path (Path) — 导出模型的路径。
  • tflite_named_outputs (List[str]) — 要检查的输出的名称。
  • atol (Optional[float], 默认为 None) — 参考模型和导出模型之间输出差异的绝对容差。

引发

ValueError

  • ValueError — 如果参考模型和导出模型之间的输出形状或值不匹配。

通过检查参考模型和导出模型的输出是否匹配来验证导出。

< > 在 GitHub 上更新