微调预训练的 Transformer 以生成歌词 | 如何通过微调 GPT-2 模型生成您最喜欢的艺术家的风格的歌词 | Aleksey Korshuk | |
在 Tensorflow 2 中训练 T5
| 如何使用 Tensorflow 2 为任何任务训练 T5。此笔记本演示了使用 SQUAD 在 Tensorflow 2 中实现的问答任务。 | Muhammad Harris | |
在 TPU 上训练 T5 | 如何使用 Transformers 和 NLP 在 SQUAD 上训练 T5 | Suraj Patil | |
为分类和多选任务微调 T5 | 如何使用文本到文本格式和 PyTorch Lightning 为分类和多选任务微调 T5 | Suraj Patil | |
在新的数据集和语言上微调 DialoGPT | 如何在一个新的数据集上微调 DialoGPT 模型,用于开放式对话聊天机器人 | Nathan Cooper | |
使用 Reformer 进行长序列建模 | 如何使用 Reformer 训练长达 500,000 个标记的序列 | Patrick von Platen | |
为摘要微调 BART | 如何使用 fastai 和 blurr 为摘要微调 BART | Wayde Gilliam | |
在任何人的推文中微调预训练的 Transformer | 如何通过微调 GPT-2 模型来生成你最喜欢的 Twitter 账户风格的推文 | Boris Dayma | |
使用 Weights & Biases 优化 🤗 Hugging Face 模型 | 一个完整的教程,展示了 W&B 与 Hugging Face 的集成 | Boris Dayma | |
预训练 Longformer | 如何构建现有预训练模型的“长”版本 | Iz Beltagy | |
为 QA 微调 Longformer | 如何为 QA 任务微调 Longformer 模型 | Suraj Patil | |
使用 🤗nlp 评估模型 | 如何使用 nlp 在 TriviaQA 上评估 Longformer | Patrick von Platen | |
为情感跨度提取微调 T5 | 如何使用文本到文本格式和 PyTorch Lightning 为情感跨度提取微调 T5 | Lorenzo Ampil | |
为多类分类微调 DistilBert | 如何使用 PyTorch 为多类分类微调 DistilBert | Abhishek Kumar Mishra | |
为多标签分类微调 BERT | 如何使用 PyTorch 为多标签分类微调 BERT | Abhishek Kumar Mishra | |
为摘要微调 T5 | 如何在 PyTorch 中为摘要微调 T5 并使用 WandB 跟踪实验 | Abhishek Kumar Mishra | |
使用动态填充/分桶加速 Transformers 中的微调 | 如何使用动态填充/分桶将微调速度提高两倍 | Michael Benesty | |
为掩码语言建模预训练 Reformer | 如何训练具有双向自注意力层的 Reformer 模型 | Patrick von Platen | |
扩展和微调 Sci-BERT | 如何增加 AllenAI 在 CORD 数据集上预训练的 SciBERT 模型的词汇量并将其进行管道处理。 | Tanmay Thakur | |
使用 Trainer API 为摘要微调 BlenderBotSmall | 如何使用 Trainer API 在自定义数据集上为摘要微调 BlenderBotSmall。 | Tanmay Thakur | |
微调 Electra 并使用集成梯度进行解释 | 如何为情感分析微调 Electra 并使用 Captum 集成梯度解释预测 | Eliza Szczechla | |
使用 Trainer 类微调非英语 GPT-2 模型 | 如何使用 Trainer 类微调非英语 GPT-2 模型 | Philipp Schmid | |
为多标签分类任务微调 DistilBERT 模型 | 如何为多标签分类任务微调 DistilBERT 模型 | Dhaval Taunk | |
为句子对分类微调 ALBERT | 如何为句子对分类任务微调 ALBERT 模型或其他基于 BERT 的模型 | Nadir El Manouzi | |
为情感分析微调 Roberta | 如何为情感分析微调 Roberta 模型 | Dhaval Taunk | |
评估问题生成模型 | 你的 seq2seq transformer 模型生成的问题的答案有多准确? | Pascal Zoleko | |
使用 DistilBERT 和 Tensorflow 对文本进行分类 | 如何在 TensorFlow 中为文本分类微调 DistilBERT | Peter Bayerle | |
利用 BERT 在 CNN/Dailymail 上进行编码器-解码器摘要 | 如何使用 google-bert/bert-base-uncased 检查点为 CNN/Dailymail 上的摘要预热启动 EncoderDecoderModel | Patrick von Platen | |
利用 RoBERTa 在 BBC XSum 上进行编码器-解码器摘要 | 如何使用 FacebookAI/roberta-base 检查点为 BBC/XSum 上的摘要预热启动共享的 EncoderDecoderModel | Patrick von Platen | |
在顺序问答 (SQA) 上微调 TAPAS | 如何在顺序问答 (SQA) 数据集上使用 tapas-base 检查点微调 TapasForQuestionAnswering | Niels Rogge | |
在表格事实核查 (TabFact) 上评估 TAPAS | 如何使用 🤗 数据集和 🤗 transformers 库的组合评估使用 tapas-base-finetuned-tabfact 检查点的微调 TapasForSequenceClassification | Niels Rogge | |
微调 mBART 用于翻译 | 如何使用 Seq2SeqTrainer 为印地语到英语翻译微调 mBART | Vasudev Gupta | |
在 FUNSD(表单理解数据集)上微调 LayoutLM | 如何为从扫描文档中提取信息在 FUNSD 数据集上微调 LayoutLMForTokenClassification | Niels Rogge | |
微调 DistilGPT2 并生成文本 | 如何微调 DistilGPT2 并生成文本 | Aakash Tripathi | |
在最多 8K 个标记上微调 LED | 如何在 pubmed 上为长范围摘要微调 LED | Patrick von Platen | |
在 Arxiv 上评估 LED | 如何在长范围摘要上有效评估 LED | Patrick von Platen | |
在 RVL-CDIP(文档图像分类数据集)上微调 LayoutLM | 如何在 RVL-CDIP 数据集上为扫描文档分类微调 LayoutLMForSequenceClassification | Niels Rogge | |
使用 GPT2 调整进行 Wav2Vec2 CTC 解码 | 如何使用语言模型调整解码 CTC 序列 | Eric Lam | |
使用 Trainer 类为两种语言的摘要微调 BART | 如何使用 Trainer 类为两种语言的摘要微调 BART | Eliza Szczechla | |
在 Trivia QA 上评估 Big Bird | 如何在 Trivia QA 上评估 BigBird 对长文档问答 | Patrick von Platen | |
使用 Wav2Vec2 创建视频字幕 | 如何通过使用 Wav2Vec 转录音频从任何视频创建 YouTube 字幕 | Niklas Muennighoff | |
使用 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer | 如何使用 HuggingFace Transformers、Datasets 和 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer (ViT) | Niels Rogge | |
使用 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer | 如何使用 HuggingFace Transformers、Datasets 和 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer (ViT) | Niels Rogge | |
在 Open Entity(实体类型数据集)上评估 LUKE | 如何在 Open Entity 数据集上评估 LukeForEntityClassification | Ikuya Yamada | |
在 TACRED(关系提取数据集)上评估 LUKE | 如何在 TACRED 数据集上评估 LukeForEntityPairClassification | Ikuya Yamada | |
在 CoNLL-2003(重要的 NER 基准)上评估 LUKE | 如何在 CoNLL-2003 数据集上评估 LukeForEntitySpanClassification | Ikuya Yamada | |
在 PubMed 数据集上评估 BigBird-Pegasus | 如何在 PubMed 数据集上评估 BigBirdPegasusForConditionalGeneration | Vasudev Gupta | |
使用 Wav2Vec2 进行语音情感分类 | 如何利用预训练的 Wav2Vec2 模型在 MEGA 数据集上进行情感分类 | Mehrdad Farahani | |
使用 DETR 检测图像中的对象 | 如何使用训练好的 DetrForObjectDetection 模型检测图像中的对象并可视化注意力 | Niels Rogge | |
在自定义对象检测数据集上微调 DETR | 如何在自定义对象检测数据集上微调 DetrForObjectDetection | Niels Rogge | |
微调 T5 用于命名实体识别 | 如何在一个命名实体识别任务上微调 T5 | Ogundepo Odunayo | |
使用 QLoRA、MLflow 和 PEFT 微调开源 LLM | 如何使用 QLoRA 和 PEFT 以内存高效的方式微调 LLM,同时使用 MLflow 管理实验跟踪 | Yuki Watanabe | |