Optimum 文档
🤗 Optimum Notebook
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
🤗 Optimum Notebook
您可以在这里找到与 🤗 Optimum 中每个加速器相关的 Notebook 列表。
Optimum Habana
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 DeepSpeed 在 Habana Gaudi 上训练数十亿参数的模型 | 展示如何使用 DeepSpeed 在 Habana Gaudi 上对 16 亿参数的 GPT2-XL 模型进行因果语言建模的预训练/微调。 |
Optimum Intel
OpenVINO
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 OpenVINO 运行推理 | 解释如何将模型导出到 OpenVINO 并使用 OpenVINO Runtime 在各种任务上运行推理 | ||
如何使用 NNCF 量化问答模型 | 展示如何使用 NNCF 对问答模型应用训练后量化,并使用 OpenVINO 加速推理 |
Neural Compressor
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 Intel Neural Compressor 量化文本分类模型 | 展示如何在训练模型时,使用 Intel Neural Compressor 对任何 GLUE 任务进行量化。 |
Optimum ONNX Runtime
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 ONNX Runtime 量化文本分类模型 | 展示如何使用 ONNX Runtime 对任何 GLUE 任务的模型应用静态和动态量化。 | ||
如何使用 ONNX Runtime 微调文本分类模型 | 展示如何使用 ONNX Runtime 在 GLUE 任务上微调 DistilBERT 模型。 | ||
如何使用 ONNX Runtime 微调摘要模型 | 展示如何在 BBC 新闻语料库上微调 T5 模型。 | ||
如何使用 ONNX Runtime 微调 DeBERTa 进行问答 | 展示如何在 SQuAD 数据集上微调 DeBERTa 模型。 |