导出函数
主要函数
optimum.exporters.tflite.export
< 源代码 >( model: TFPreTrainedModel config: TFLiteConfig output: Path task: typing.Optional[str] = None preprocessor: typing.Union[transformers.tokenization_utils_base.PreTrainedTokenizerBase, transformers.image_processing_utils.BaseImageProcessor, NoneType] = None quantization_config: typing.Optional[ForwardRef('TFLiteQuantizationConfig')] = None ) → Tuple[List[str], List[str]]
参数
- model (
TFPreTrainedModel
) — 要导出的模型。 - config (TFLiteConfig) — 与导出模型关联的 TFLite 配置。
- output (
Path
) — 存储导出 TFLite 模型的目录。 - task (
Optional[str]
,默认为None
) — 模型的任务。如果未指定,则将自动推断任务。仅在静态量化时需要。 - 预处理器 (
Optional[Preprocessor]
,默认为None
) — 与模型关联的预处理器。这用于在校准期间将数据馈送到模型之前预处理数据集。 - 量化配置 (
Optional[TFLiteQuantizationConfig]
,默认为None
) — 包含执行量化所需的所有信息的dataclass。
返回值
Tuple[List[str], List[str]]
一个元组,包含模型输入的有序列表和来自 TFLite 配置的命名输入。
将 TensorFlow 模型导出到 TensorFlow Lite 模型。
实用程序函数
optimum.exporters.tflite.validate_model_outputs
< 源代码 >( config: TFLiteConfig reference_model: TFPreTrainedModel tflite_model_path: Path tflite_named_outputs: typing.List[str] atol: typing.Optional[float] = None )
参数
- config (TFLiteConfig — 用于导出模型的配置。
- 参考模型 (
~TFPreTrainedModel
) — 用于导出的模型。 - TFLite 模型路径 (
Path
) — 导出模型的路径。 - TFLite 命名输出 (
List[str]
) — 要检查的输出名称。 - 绝对容差 (
Optional[float]
,默认为None
) — 参考模型和导出模型之间输出差异的绝对容差。
引发异常
ValueError
ValueError
— 如果参考模型和导出模型之间的输出形状或值不匹配。
通过检查参考模型和导出模型的输出是否匹配来验证导出。