Transformers 文档

社区

Hugging Face's logo
加入 Hugging Face 社区

并获取增强版文档体验

开始使用

社区

此页面汇集了社区开发的 🤗 Transformers 相关资源。

社区资源:

资源 描述 作者
Hugging Face Transformers 术语表抽认卡 基于Transformers 文档术语表的一套抽认卡,已将其转换为易于使用 Anki(一个开源的跨平台应用程序,专门用于长期知识保留)学习/复习的格式。请观看此介绍视频,了解如何使用抽认卡 Darigov Research

社区笔记本:

笔记本 描述 作者
微调预训练的 Transformer 以生成歌词 如何通过微调 GPT-2 模型生成您最喜欢的艺术家的风格的歌词 Aleksey Korshuk Open In Colab
在 Tensorflow 2 中训练 T5

如何使用 Tensorflow 2 为任何任务训练 T5。此笔记本演示了使用 SQUAD 在 Tensorflow 2 中实现的问答任务。 Muhammad Harris Open In Colab
在 TPU 上训练 T5 如何使用 Transformers 和 NLP 在 SQUAD 上训练 T5 Suraj Patil Open In Colab
为分类和多选任务微调 T5 如何使用文本到文本格式和 PyTorch Lightning 为分类和多选任务微调 T5 Suraj Patil Open In Colab
在新的数据集和语言上微调 DialoGPT 如何在一个新的数据集上微调 DialoGPT 模型,用于开放式对话聊天机器人 Nathan Cooper Open In Colab
使用 Reformer 进行长序列建模 如何使用 Reformer 训练长达 500,000 个标记的序列 Patrick von Platen Open In Colab
为摘要微调 BART 如何使用 fastai 和 blurr 为摘要微调 BART Wayde Gilliam Open In Colab
在任何人的推文中微调预训练的 Transformer 如何通过微调 GPT-2 模型来生成你最喜欢的 Twitter 账户风格的推文 Boris Dayma Open In Colab
使用 Weights & Biases 优化 🤗 Hugging Face 模型 一个完整的教程,展示了 W&B 与 Hugging Face 的集成 Boris Dayma Open In Colab
预训练 Longformer 如何构建现有预训练模型的“长”版本 Iz Beltagy Open In Colab
为 QA 微调 Longformer 如何为 QA 任务微调 Longformer 模型 Suraj Patil Open In Colab
使用 🤗nlp 评估模型 如何使用 nlp 在 TriviaQA 上评估 Longformer Patrick von Platen Open In Colab
为情感跨度提取微调 T5 如何使用文本到文本格式和 PyTorch Lightning 为情感跨度提取微调 T5 Lorenzo Ampil Open In Colab
为多类分类微调 DistilBert 如何使用 PyTorch 为多类分类微调 DistilBert Abhishek Kumar Mishra Open In Colab
为多标签分类微调 BERT 如何使用 PyTorch 为多标签分类微调 BERT Abhishek Kumar Mishra Open In Colab
为摘要微调 T5 如何在 PyTorch 中为摘要微调 T5 并使用 WandB 跟踪实验 Abhishek Kumar Mishra Open In Colab
使用动态填充/分桶加速 Transformers 中的微调 如何使用动态填充/分桶将微调速度提高两倍 Michael Benesty Open In Colab
为掩码语言建模预训练 Reformer 如何训练具有双向自注意力层的 Reformer 模型 Patrick von Platen Open In Colab
扩展和微调 Sci-BERT 如何增加 AllenAI 在 CORD 数据集上预训练的 SciBERT 模型的词汇量并将其进行管道处理。 Tanmay Thakur Open In Colab
使用 Trainer API 为摘要微调 BlenderBotSmall 如何使用 Trainer API 在自定义数据集上为摘要微调 BlenderBotSmall。 Tanmay Thakur Open In Colab
微调 Electra 并使用集成梯度进行解释 如何为情感分析微调 Electra 并使用 Captum 集成梯度解释预测 Eliza Szczechla Open In Colab
使用 Trainer 类微调非英语 GPT-2 模型 如何使用 Trainer 类微调非英语 GPT-2 模型 Philipp Schmid Open In Colab
为多标签分类任务微调 DistilBERT 模型 如何为多标签分类任务微调 DistilBERT 模型 Dhaval Taunk Open In Colab
为句子对分类微调 ALBERT 如何为句子对分类任务微调 ALBERT 模型或其他基于 BERT 的模型 Nadir El Manouzi Open In Colab
为情感分析微调 Roberta 如何为情感分析微调 Roberta 模型 Dhaval Taunk Open In Colab
评估问题生成模型 你的 seq2seq transformer 模型生成的问题的答案有多准确? Pascal Zoleko Open In Colab
使用 DistilBERT 和 Tensorflow 对文本进行分类 如何在 TensorFlow 中为文本分类微调 DistilBERT Peter Bayerle Open In Colab
利用 BERT 在 CNN/Dailymail 上进行编码器-解码器摘要 如何使用 google-bert/bert-base-uncased 检查点为 CNN/Dailymail 上的摘要预热启动 EncoderDecoderModel Patrick von Platen Open In Colab
利用 RoBERTa 在 BBC XSum 上进行编码器-解码器摘要 如何使用 FacebookAI/roberta-base 检查点为 BBC/XSum 上的摘要预热启动共享的 EncoderDecoderModel Patrick von Platen Open In Colab
在顺序问答 (SQA) 上微调 TAPAS 如何在顺序问答 (SQA) 数据集上使用 tapas-base 检查点微调 TapasForQuestionAnswering Niels Rogge Open In Colab
在表格事实核查 (TabFact) 上评估 TAPAS 如何使用 🤗 数据集和 🤗 transformers 库的组合评估使用 tapas-base-finetuned-tabfact 检查点的微调 TapasForSequenceClassification Niels Rogge Open In Colab
微调 mBART 用于翻译 如何使用 Seq2SeqTrainer 为印地语到英语翻译微调 mBART Vasudev Gupta Open In Colab
在 FUNSD(表单理解数据集)上微调 LayoutLM 如何为从扫描文档中提取信息在 FUNSD 数据集上微调 LayoutLMForTokenClassification Niels Rogge Open In Colab
微调 DistilGPT2 并生成文本 如何微调 DistilGPT2 并生成文本 Aakash Tripathi Open In Colab
在最多 8K 个标记上微调 LED 如何在 pubmed 上为长范围摘要微调 LED Patrick von Platen Open In Colab
在 Arxiv 上评估 LED 如何在长范围摘要上有效评估 LED Patrick von Platen Open In Colab
在 RVL-CDIP(文档图像分类数据集)上微调 LayoutLM 如何在 RVL-CDIP 数据集上为扫描文档分类微调 LayoutLMForSequenceClassification Niels Rogge Open In Colab
使用 GPT2 调整进行 Wav2Vec2 CTC 解码 如何使用语言模型调整解码 CTC 序列 Eric Lam Open In Colab
使用 Trainer 类为两种语言的摘要微调 BART 如何使用 Trainer 类为两种语言的摘要微调 BART Eliza Szczechla Open In Colab
在 Trivia QA 上评估 Big Bird 如何在 Trivia QA 上评估 BigBird 对长文档问答 Patrick von Platen Open In Colab
使用 Wav2Vec2 创建视频字幕 如何通过使用 Wav2Vec 转录音频从任何视频创建 YouTube 字幕 Niklas Muennighoff Open In Colab
使用 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer 如何使用 HuggingFace Transformers、Datasets 和 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer (ViT) Niels Rogge Open In Colab
使用 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer 如何使用 HuggingFace Transformers、Datasets 和 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer (ViT) Niels Rogge Open In Colab
在 Open Entity(实体类型数据集)上评估 LUKE 如何在 Open Entity 数据集上评估 LukeForEntityClassification Ikuya Yamada Open In Colab
在 TACRED(关系提取数据集)上评估 LUKE 如何在 TACRED 数据集上评估 LukeForEntityPairClassification Ikuya Yamada Open In Colab
在 CoNLL-2003(重要的 NER 基准)上评估 LUKE 如何在 CoNLL-2003 数据集上评估 LukeForEntitySpanClassification Ikuya Yamada Open In Colab
在 PubMed 数据集上评估 BigBird-Pegasus 如何在 PubMed 数据集上评估 BigBirdPegasusForConditionalGeneration Vasudev Gupta Open In Colab
使用 Wav2Vec2 进行语音情感分类 如何利用预训练的 Wav2Vec2 模型在 MEGA 数据集上进行情感分类 Mehrdad Farahani Open In Colab
使用 DETR 检测图像中的对象 如何使用训练好的 DetrForObjectDetection 模型检测图像中的对象并可视化注意力 Niels Rogge Open In Colab
在自定义对象检测数据集上微调 DETR 如何在自定义对象检测数据集上微调 DetrForObjectDetection Niels Rogge Open In Colab
微调 T5 用于命名实体识别 如何在一个命名实体识别任务上微调 T5 Ogundepo Odunayo Open In Colab
使用 QLoRA、MLflow 和 PEFT 微调开源 LLM 如何使用 QLoRAPEFT 以内存高效的方式微调 LLM,同时使用 MLflow 管理实验跟踪 Yuki Watanabe Open In Colab
< > 在 GitHub 上更新