Optimum 文档
导出函数
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
导出函数
主要函数
optimum.exporters.tflite.export
< 来源 >( model: TFPreTrainedModel config: TFLiteConfig output: Path task: typing.Optional[str] = None preprocessor: typing.Union[transformers.tokenization_utils_base.PreTrainedTokenizerBase, transformers.image_processing_utils.BaseImageProcessor, NoneType] = None quantization_config: typing.Optional[ForwardRef('TFLiteQuantizationConfig')] = None ) → Tuple[List[str], List[str]]
参数
- model (
TFPreTrainedModel
) — 要导出的模型。 - config (TFLiteConfig) — 与导出模型关联的 TFLite 配置。
- output (
Path
) — 存储导出的 TFLite 模型的目录。 - task (
Optional[str]
, 默认为None
) — 模型的任务。如果未指定,将自动推断任务。仅静态量化需要。 - preprocessor (
Optional[Preprocessor]
, 默认为None
) — 与模型关联的预处理器。用于在校准期间将数据馈送给模型之前对数据集进行预处理。 - quantization_config (
Optional[TFLiteQuantizationConfig]
, 默认为None
) — 包含执行量化所需所有信息的数据类。
返回
Tuple[List[str], List[str]]
一个元组,包含模型输入有序列表,以及 TFLite 配置中的命名输入。
将 TensorFlow 模型导出为 TensorFlow Lite 模型。
实用函数
optimum.exporters.tflite.validate_model_outputs
< 源代码 >( config: TFLiteConfig reference_model: TFPreTrainedModel tflite_model_path: Path tflite_named_outputs: typing.List[str] atol: typing.Optional[float] = None )
参数
- config (TFLiteConfig — 用于导出模型的配置。
- reference_model (
~TFPreTrainedModel
) — 用于导出的模型。 - tflite_model_path (
Path
) — 导出模型的路径。 - tflite_named_outputs (
List[str]
) — 要检查的输出名称。 - atol (
Optional[float]
, 默认为None
) — 参考模型和导出模型之间输出差异的绝对容差。
引发
ValueError
ValueError
— 如果参考模型和导出模型之间的输出形状或值不匹配。
通过检查参考模型和导出模型的输出是否匹配来验证导出。