Optimum 文档

🤗 Optimum 笔记本

您正在查看 main 版本,该版本需要从源代码安装。如果您想进行常规 pip 安装,请查看最新的稳定版本 (v1.24.0)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

以开始使用

🤗 Optimum 笔记本

您可以在这里找到与 🤗 Optimum 中每个加速器相关的笔记本列表。

Optimum Habana

笔记本 描述 Colab Studio Lab
如何在 Habana Gaudi 上使用 DeepSpeed 训练具有数十亿参数的模型 展示如何在 Habana Gaudi 上使用 DeepSpeed 预训练/微调用于因果语言建模的 16 亿参数 GPT2-XL。 Open in Colab Open in AWS Studio

Optimum Intel

OpenVINO

笔记本 描述 Colab Studio Lab
如何使用 OpenVINO 运行推理 解释如何将您的模型导出到 OpenVINO,并在各种任务上使用 OpenVINO Runtime 运行推理 Open in Colab Open in AWS Studio
如何使用 NNCF 量化问答模型 展示如何使用 NNCF 对问答模型应用后训练量化,并使用 OpenVINO 加速推理 Open in Colab Open in AWS Studio

Neural Compressor

笔记本 描述 Colab Studio Lab
如何使用 Intel Neural Compressor 量化用于文本分类的模型 展示如何在训练模型时,针对任何 GLUE 任务,使用 Intel Neural Compressor 应用量化。 Open in Colab Open in AWS Studio

Optimum ONNX Runtime

笔记本 描述 Colab Studio Lab
如何使用 ONNX Runtime 量化用于文本分类的模型 展示如何使用 ONNX Runtime 对任何 GLUE 任务的模型应用静态和动态量化。 Open in Colab Open in AWS Studio
如何使用 ONNX Runtime 微调用于文本分类的模型 展示如何使用 ONNX Runtime 在 GLUE 任务上微调 DistilBERT 模型。 Open in Colab Open in AWS Studio
如何使用 ONNX Runtime 微调用于摘要的模型 展示如何微调 BBC 新闻语料库上的 T5 模型。 Open in Colab Open in AWS Studio
如何使用 ONNX Runtime 微调 DeBERTa 用于问答 展示如何微调 squad 上的 DeBERTa 模型。 Open in Colab Open in AWS Studio
< > 在 GitHub 上更新