Optimum 文档

🤗 Optimum Notebook

您正在查看的是需要从源码安装。如果您想通过常规的 pip install 安装,请查看最新的稳定版本 (v1.27.0)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

🤗 Optimum Notebook

您可以在这里找到与 🤗 Optimum 中每个加速器相关的 Notebook 列表。

Optimum Habana

笔记本 描述 Colab Studio Lab
如何使用 DeepSpeed 在 Habana Gaudi 上训练数十亿参数的模型 展示如何使用 DeepSpeed 在 Habana Gaudi 上对 16 亿参数的 GPT2-XL 模型进行因果语言建模的预训练/微调。 Open in Colab Open in AWS Studio

Optimum Intel

OpenVINO

笔记本 描述 Colab Studio Lab
如何使用 OpenVINO 运行推理 解释如何将模型导出到 OpenVINO 并使用 OpenVINO Runtime 在各种任务上运行推理 Open in Colab Open in AWS Studio
如何使用 NNCF 量化问答模型 展示如何使用 NNCF 对问答模型应用训练后量化,并使用 OpenVINO 加速推理 Open in Colab Open in AWS Studio

Neural Compressor

笔记本 描述 Colab Studio Lab
如何使用 Intel Neural Compressor 量化文本分类模型 展示如何在训练模型时,使用 Intel Neural Compressor 对任何 GLUE 任务进行量化。 Open in Colab Open in AWS Studio

Optimum ONNX Runtime

笔记本 描述 Colab Studio Lab
如何使用 ONNX Runtime 量化文本分类模型 展示如何使用 ONNX Runtime 对任何 GLUE 任务的模型应用静态和动态量化。 Open in Colab Open in AWS Studio
如何使用 ONNX Runtime 微调文本分类模型 展示如何使用 ONNX Runtime 在 GLUE 任务上微调 DistilBERT 模型。 Open in Colab Open in AWS Studio
如何使用 ONNX Runtime 微调摘要模型 展示如何在 BBC 新闻语料库上微调 T5 模型。 Open in Colab Open in AWS Studio
如何使用 ONNX Runtime 微调 DeBERTa 进行问答 展示如何在 SQuAD 数据集上微调 DeBERTa 模型。 Open in Colab Open in AWS Studio
< > 在 GitHub 上更新