Optimum 文档

🤗 最佳笔记本

您正在查看 主分支 版本,需要从源代码安装。如果您想使用常规的 pip 安装,请查看最新的稳定版本(v1.23.1)。
Hugging Face's logo
加入 Hugging Face 社区

并获取增强型文档体验

开始使用

🤗 Optimum 笔记本

您可以在此处找到与 🤗 Optimum 中每个加速器关联的笔记本列表。

Optimum Habana

笔记本 描述 Colab Studio Lab
如何在 Habana Gaudi 上使用 DeepSpeed 训练具有数十亿参数的模型 展示如何在 Habana Gaudi 上使用 DeepSpeed 对具有 16 亿参数的 GPT2-XL 进行预训练/微调,以进行因果语言建模。 Open in Colab Open in AWS Studio

Optimum 英特尔

OpenVINO

笔记本 描述 Colab Studio Lab
如何使用 OpenVINO 运行推理 解释如何将您的模型导出到 OpenVINO,并在各种任务上使用 OpenVINO 运行时运行推理 Open in Colab Open in AWS Studio
如何使用 NNCF 量化问答模型 展示如何使用 NNCF 对问答模型应用训练后量化,并使用 OpenVINO 加速推理 Open in Colab Open in AWS Studio
比较量化后的 Stable Diffusion 模型与其全精度模型的输出 展示如何加载和比较具有不同精度的两个 Stable Diffusion 模型的输出 Open in Colab Open in AWS Studio

神经压缩器

笔记本 描述 Colab Studio Lab
如何使用 Intel 神经压缩器对文本分类模型进行量化 展示如何使用 Intel 神经压缩器 对任何 GLUE 任务在训练期间应用量化。 Open in Colab Open in AWS Studio

Optimum ONNX 运行时

笔记本 描述 Colab Studio Lab
如何使用 ONNX 运行时对文本分类模型进行量化 展示如何使用 ONNX 运行时 对任何 GLUE 任务应用静态和动态量化。 Open in Colab Open in AWS Studio
如何使用 ONNX 运行时对文本分类模型进行微调 展示如何在 GLUE 任务上使用 ONNX 运行时 对 DistilBERT 模型进行微调。 Open in Colab Open in AWS Studio
如何使用 ONNX 运行时对摘要模型进行微调 展示如何在 BBC 新闻语料库上对 T5 模型进行微调。 Open in Colab Open in AWS Studio
如何使用 ONNX 运行时对 DeBERTa 进行问答微调 展示如何在 squad 上对 DeBERTa 模型进行微调。 Open in Colab Open in AWS Studio
< > 更新 在 GitHub 上