🤗 Optimum 笔记本
您可以在此处找到与 🤗 Optimum 中每个加速器关联的笔记本列表。
Optimum Habana
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何在 Habana Gaudi 上使用 DeepSpeed 训练具有数十亿参数的模型 | 展示如何在 Habana Gaudi 上使用 DeepSpeed 对具有 16 亿参数的 GPT2-XL 进行预训练/微调,以进行因果语言建模。 |
Optimum 英特尔
OpenVINO
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 OpenVINO 运行推理 | 解释如何将您的模型导出到 OpenVINO,并在各种任务上使用 OpenVINO 运行时运行推理 | ||
如何使用 NNCF 量化问答模型 | 展示如何使用 NNCF 对问答模型应用训练后量化,并使用 OpenVINO 加速推理 | ||
比较量化后的 Stable Diffusion 模型与其全精度模型的输出 | 展示如何加载和比较具有不同精度的两个 Stable Diffusion 模型的输出 |
神经压缩器
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 Intel 神经压缩器对文本分类模型进行量化 | 展示如何使用 Intel 神经压缩器 对任何 GLUE 任务在训练期间应用量化。 |
Optimum ONNX 运行时
笔记本 | 描述 | Colab | Studio Lab |
---|---|---|---|
如何使用 ONNX 运行时对文本分类模型进行量化 | 展示如何使用 ONNX 运行时 对任何 GLUE 任务应用静态和动态量化。 | ||
如何使用 ONNX 运行时对文本分类模型进行微调 | 展示如何在 GLUE 任务上使用 ONNX 运行时 对 DistilBERT 模型进行微调。 | ||
如何使用 ONNX 运行时对摘要模型进行微调 | 展示如何在 BBC 新闻语料库上对 T5 模型进行微调。 | ||
如何使用 ONNX 运行时对 DeBERTa 进行问答微调 | 展示如何在 squad 上对 DeBERTa 模型进行微调。 |