Transformers 文档
概述
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
概述
量化通过以较低精度存储权重,从而降低加载和使用模型的内存需求,同时尝试尽可能保留准确性。权重通常以全精度 (fp32) 浮点表示形式存储,但鉴于当今模型的大尺寸,半精度 (fp16 或 bf16) 越来越受欢迎的数据类型。一些量化方法可以将精度进一步降低到整数表示形式,例如 int8 或 int4。
Transformers 支持多种量化方法,每种方法都有其优点和缺点,因此您可以为您的特定用例选择最佳方法。某些方法需要校准以获得更高的精度和极端的压缩(1-2 位),而其他方法可以通过即时量化开箱即用。
使用下面的 Space 帮助您根据硬件和要量化的位数选择量化方法。
资源
如果您是量化新手,我们建议您查看这些与 DeepLearning.AI 合作的初学者友好的量化课程。
用户友好的量化工具
如果您正在寻找用户友好的量化体验,您可以使用以下社区 Spaces 和 Notebooks
< > 在 GitHub 上更新