Optimum 文档
🤗 Optimum 笔记本
加入 Hugging Face 社区
并获得增强的文档体验
以开始使用
🤗 Optimum 笔记本
您可以在这里找到与 🤗 Optimum 中每个加速器相关的笔记本列表。
Optimum Habana
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何在 Habana Gaudi 上使用 DeepSpeed 训练具有数十亿参数的模型 | 展示如何在 Habana Gaudi 上使用 DeepSpeed 预训练/微调用于因果语言建模的 16 亿参数 GPT2-XL。 |
Optimum Intel
OpenVINO
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 OpenVINO 运行推理 | 解释如何将您的模型导出到 OpenVINO,并在各种任务上使用 OpenVINO Runtime 运行推理 | ||
如何使用 NNCF 量化问答模型 | 展示如何使用 NNCF 对问答模型应用后训练量化,并使用 OpenVINO 加速推理 |
Neural Compressor
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 Intel Neural Compressor 量化用于文本分类的模型 | 展示如何在训练模型时,针对任何 GLUE 任务,使用 Intel Neural Compressor 应用量化。 |
Optimum ONNX Runtime
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 ONNX Runtime 量化用于文本分类的模型 | 展示如何使用 ONNX Runtime 对任何 GLUE 任务的模型应用静态和动态量化。 | ||
如何使用 ONNX Runtime 微调用于文本分类的模型 | 展示如何使用 ONNX Runtime 在 GLUE 任务上微调 DistilBERT 模型。 | ||
如何使用 ONNX Runtime 微调用于摘要的模型 | 展示如何微调 BBC 新闻语料库上的 T5 模型。 | ||
如何使用 ONNX Runtime 微调 DeBERTa 用于问答 | 展示如何微调 squad 上的 DeBERTa 模型。 |