Transformers 文档
🤗 Transformers 笔记本
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
🤗 Transformers 笔记本
您可以在这里找到 Hugging Face 提供的官方笔记本列表。
此外,我们还希望在这里列出社区创建的有趣内容。如果您编写了一些利用 🤗 Transformers 的笔记本,并希望在这里列出,请提交一个 Pull Request,以便将其包含在社区笔记本中。
Hugging Face 的笔记本 🤗
文档笔记本
您可以将文档的任何页面作为 Colab 中的笔记本打开(这些页面上直接有一个按钮),但如果需要,它们也在这里列出
笔记本 | 描述 | ||
---|---|---|---|
库快速入门 | Transformers 中各种 API 的介绍 | ||
任务摘要 | 如何逐个任务运行 Transformers 库中的模型 | ||
数据预处理 | 如何使用分词器预处理数据 | ||
微调预训练模型 | 如何使用 Trainer 微调预训练模型 | ||
分词器摘要 | 分词器算法之间的差异 | ||
多语言模型 | 如何使用库中的多语言模型 |
PyTorch 示例
自然语言处理
笔记本 | 描述 | ||
---|---|---|---|
训练您的分词器 | 如何训练和使用您自己的分词器 | ||
训练您的语言模型 | 如何轻松开始使用 transformers | ||
如何微调文本分类模型 | 演示如何预处理数据并在任何 GLUE 任务上微调预训练模型。 | ||
如何微调语言模型 | 演示如何预处理数据并在因果或掩码 LM 任务上微调预训练模型。 | ||
如何微调标记分类模型 | 演示如何预处理数据并在标记分类任务(NER、PoS)上微调预训练模型。 | ||
如何微调问答模型 | 演示如何预处理数据并在 SQUAD 上微调预训练模型。 | ||
如何微调多项选择模型 | 演示如何预处理数据并在 SWAG 上微调预训练模型。 | ||
如何微调翻译模型 | 演示如何预处理数据并在 WMT 上微调预训练模型。 | ||
如何微调摘要模型 | 演示如何预处理数据并在 XSUM 上微调预训练模型。 | ||
如何从头开始训练语言模型 | 突出显示有效训练 Transformer 模型自定义数据的所有步骤 | ||
如何生成文本 | 如何使用不同的解码方法通过 transformers 生成语言 | ||
如何生成文本(带约束) | 如何通过用户提供的约束引导语言生成 | ||
Reformer | Reformer 如何突破语言建模的极限 |
计算机视觉
笔记本 | 描述 | ||
---|---|---|---|
如何微调图像分类模型 (Torchvision) | 演示如何使用 Torchvision 预处理数据,并微调任何预训练的视觉模型进行图像分类 | ||
如何微调图像分类模型 (Albumentations) | 演示如何使用 Albumentations 预处理数据,并微调任何预训练的视觉模型进行图像分类 | ||
如何微调图像分类模型 (Kornia) | 演示如何使用 Kornia 预处理数据,并微调任何预训练的视觉模型进行图像分类 | ||
如何使用 OWL-ViT 执行零样本目标检测 | 演示如何对带有文本查询的图像执行零样本目标检测 | ||
如何微调图像字幕模型 | 演示如何使用自定义数据集微调 BLIP 进行图像字幕 | ||
如何使用 Transformers 构建图像相似性系统 | 演示如何构建图像相似性系统 | ||
如何微调 SegFormer 模型进行语义分割 | 演示如何预处理数据并微调预训练的 SegFormer 模型进行语义分割 | ||
如何微调 VideoMAE 模型进行视频分类 | 演示如何预处理数据并微调预训练的 VideoMAE 模型进行视频分类 |
音频
笔记本 | 描述 | ||
---|---|---|---|
如何微调英语语音识别模型 | 演示如何预处理数据并在 TIMIT 上微调预训练的语音模型 | ||
如何微调任何语言的语音识别模型 | 演示如何预处理数据并在 Common Voice 上微调多语言预训练语音模型 | ||
如何微调音频分类模型 | 演示如何预处理数据并在关键字识别上微调预训练的语音模型 |
生物序列
笔记本 | 描述 | ||
---|---|---|---|
如何微调预训练蛋白质模型 | 了解如何对蛋白质进行分词并微调大型预训练蛋白质“语言”模型 | ||
如何生成蛋白质折叠 | 了解如何从蛋白质序列生成完整的蛋白质模型和 PDB 文件 | ||
如何微调核苷酸 Transformer 模型 | 了解如何对 DNA 进行分词并微调大型预训练 DNA“语言”模型 | ||
使用 LoRA 微调核苷酸 Transformer 模型 | 以内存高效的方式训练更大的 DNA 模型 |
其他模态
笔记本 | 描述 | ||
---|---|---|---|
概率时间序列预测 | 了解如何使用自定义数据集训练时间序列 Transformer |
实用笔记本
笔记本 | 描述 | ||
---|---|---|---|
如何将模型导出到 ONNX | 突出显示如何通过 ONNX 导出和运行推理工作负载 |
TensorFlow 示例
自然语言处理
笔记本 | 描述 | ||
---|---|---|---|
训练您的分词器 | 如何训练和使用您自己的分词器 | ||
训练您的语言模型 | 如何轻松开始使用 transformers | ||
如何微调文本分类模型 | 演示如何预处理数据并在任何 GLUE 任务上微调预训练模型。 | ||
如何微调语言模型 | 演示如何预处理数据并在因果或掩码 LM 任务上微调预训练模型。 | ||
如何微调标记分类模型 | 演示如何预处理数据并在标记分类任务(NER、PoS)上微调预训练模型。 | ||
如何微调问答模型 | 演示如何预处理数据并在 SQUAD 上微调预训练模型。 | ||
如何微调多项选择模型 | 演示如何预处理数据并在 SWAG 上微调预训练模型。 | ||
如何微调翻译模型 | 演示如何预处理数据并在 WMT 上微调预训练模型。 | ||
如何微调摘要模型 | 演示如何预处理数据并在 XSUM 上微调预训练模型。 |
计算机视觉
笔记本 | 描述 | ||
---|---|---|---|
如何微调图像分类模型 | 演示如何预处理数据并微调任何预训练的视觉模型进行图像分类 | ||
如何微调 SegFormer 模型进行语义分割 | 演示如何预处理数据并微调预训练的 SegFormer 模型进行语义分割 |
生物序列
笔记本 | 描述 | ||
---|---|---|---|
如何微调预训练蛋白质模型 | 了解如何对蛋白质进行分词并微调大型预训练蛋白质“语言”模型 |
实用笔记本
笔记本 | 描述 | ||
---|---|---|---|
如何在 TPU 上训练 TF/Keras 模型 | 了解如何在 Google 的 TPU 硬件上高速训练 |
Optimum 笔记本
🤗 Optimum 是 🤗 Transformers 的扩展,提供了一套性能优化工具,可最大限度地提高在目标硬件上训练和运行模型的效率。
笔记本 | 描述 | ||
---|---|---|---|
如何使用 ONNX Runtime 对文本分类模型进行量化 | 演示如何使用 ONNX Runtime 对任何 GLUE 任务的模型应用静态和动态量化。 | ||
如何使用 ONNX Runtime 对文本分类模型进行微调 | 演示如何使用 ONNX Runtime 预处理数据并在任何 GLUE 任务上微调模型。 | ||
如何使用 ONNX Runtime 对摘要模型进行微调 | 演示如何使用 ONNX Runtime 预处理数据并在 XSUM 上微调模型。 |
社区笔记本:
更多社区开发的笔记本可在此处获取。
< > 在 GitHub 上更新