Optimum 文档

量化

您正在查看 main 版本,该版本需要从源代码安装。如果您想要常规 pip 安装,请查看最新的稳定版本 (v1.24.0)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

量化

Intel® Gaudi® 提供了几种加速推理的可能性。有关 FP8 和 UINT4 推理的示例,请参阅 text-generation 示例。

本指南提供了在使用 Intel® Neural Compressor (INC) 软件包在您的 Intel® Gaudi® AI 加速器上启用 FP8 和 UINT4 精度所需的步骤。

使用 FP8 运行推理

当在大型语言模型 (LLMs) 上运行推理时,高内存使用率通常是瓶颈。因此,在大型语言模型上使用 FP8 数据类型进行推理可以将所需的内存带宽减半。此外,FP8 计算速度是 BF16 计算速度的两倍,因此即使是计算密集型工作负载,例如大批量离线推理也能从中受益。

参考 Intel® Gaudi® AI 加速器文档中“使用 FP8 运行推理”部分。

使用 UINT4 运行推理

当在大型语言模型 (LLMs) 上运行推理时,高内存使用率通常是瓶颈。因此,与在 FP8 中运行推理相比,在大型语言模型上使用 UINT4 数据类型进行推理可以将所需的内存带宽减半。

参考 Intel® Gaudi® AI 加速器文档中“使用 UINT4 运行推理”部分。

< > 在 GitHub 上更新