Transformers 文档
社区
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
社区
此页面汇集了社区开发的关于 🤗 Transformers 的资源。
社区资源:
资源 | 描述 | 作者 |
---|---|---|
Hugging Face Transformers 术语表 Flashcards | 一套基于 Transformers 文档术语表 的 Flashcards,已被整理成易于学习/复习的形式,可以使用 Anki,Anki 是一款开源、跨平台应用程序,专门为长期知识保留而设计。请观看此 关于如何使用 Flashcards 的介绍视频。 | Darigov Research |
社区 Notebooks:
Notebook | 描述 | 作者 | |
---|---|---|---|
微调预训练的 Transformer 以生成歌词 | 如何通过微调 GPT-2 模型,以您最喜欢的艺术家的风格生成歌词 | Aleksey Korshuk | |
在 Tensorflow 2 中训练 T5 | 如何使用 Tensorflow 2 训练 T5 以执行任何任务。此 Notebook 演示了使用 SQUAD 在 Tensorflow 2 中实现的问题与解答任务 | Muhammad Harris | |
在 TPU 上训练 T5 | 如何使用 Transformers 和 Nlp 在 SQUAD 上训练 T5 | Suraj Patil | |
微调 T5 以进行分类和多项选择 | 如何使用文本到文本格式和 PyTorch Lightning 微调 T5 以进行分类和多项选择任务 | Suraj Patil | |
在新数据集和语言上微调 DialoGPT | 如何在新的数据集上微调 DialoGPT 模型,以用于开放对话式聊天机器人 | Nathan Cooper | |
使用 Reformer 进行长序列建模 | 如何使用 Reformer 训练长达 500,000 个 tokens 的序列 | Patrick von Platen | |
微调 BART 以进行摘要 | 如何使用 blurr 通过 fastai 微调 BART 以进行摘要 | Wayde Gilliam | |
在任何人的推文上微调预训练的 Transformer | 如何通过微调 GPT-2 模型,以您最喜欢的 Twitter 帐户的风格生成推文 | Boris Dayma | |
使用 Weights & Biases 优化 🤗 Hugging Face 模型 | 一个完整的教程,展示了 W&B 与 Hugging Face 的集成 | Boris Dayma | |
预训练 Longformer | 如何构建现有预训练模型的“长”版本 | Iz Beltagy | |
微调 Longformer 以进行 QA | 如何微调 longformer 模型以进行 QA 任务 | Suraj Patil | |
使用 🤗nlp 评估模型 | 如何在 TriviaQA 上使用 nlp 评估 longformer | Patrick von Platen | |
微调 T5 以进行情感跨度提取 | 如何使用文本到文本格式和 PyTorch Lightning 微调 T5 以进行情感跨度提取 | Lorenzo Ampil | |
微调 DistilBert 以进行多类分类 | 如何使用 PyTorch 微调 DistilBert 以进行多类分类 | Abhishek Kumar Mishra | |
微调 BERT 以进行多标签分类 | 如何使用 PyTorch 微调 BERT 以进行多标签分类 | Abhishek Kumar Mishra | |
微调 T5 以进行摘要 | 如何在 PyTorch 中微调 T5 以进行摘要,并使用 WandB 跟踪实验 | Abhishek Kumar Mishra | |
使用动态填充/分桶加速 Transformers 中的微调 | 如何使用动态填充/分桶将微调速度提高 2 倍 | Michael Benesty | |
预训练 Reformer 以进行 Masked Language Modeling | 如何训练具有双向自注意力层的 Reformer 模型 | Patrick von Platen | |
扩展和微调 Sci-BERT | 如何在 CORD 数据集上增加 AllenAI 预训练的 SciBERT 模型的词汇量并进行流水线处理。 | Tanmay Thakur | |
使用 Trainer API 微调 BlenderBotSmall 以进行摘要 | 如何使用 Trainer API 在自定义数据集上微调 BlenderBotSmall 以进行摘要。 | Tanmay Thakur | |
微调 Electra 并使用 Integrated Gradients 进行解释 | 如何微调 Electra 以进行情感分析,并使用 Captum Integrated Gradients 解释预测 | Eliza Szczechla | |
使用 Trainer 类微调非英语 GPT-2 模型 | 如何使用 Trainer 类微调非英语 GPT-2 模型 | Philipp Schmid | |
微调 DistilBERT 模型以进行多标签分类任务 | 如何微调 DistilBERT 模型以进行多标签分类任务 | Dhaval Taunk | |
微调 ALBERT 以进行句子对分类 | 如何为句子对分类任务微调 ALBERT 模型或另一个基于 BERT 的模型 | Nadir El Manouzi | |
微调 Roberta 以进行情感分析 | 如何微调 Roberta 模型以进行情感分析 | Dhaval Taunk | |
评估问题生成模型 | 您的 seq2seq transformer 模型生成的问题的答案有多准确? | Pascal Zoleko | |
使用 DistilBERT 和 Tensorflow 对文本进行分类 | 如何在 TensorFlow 中微调 DistilBERT 以进行文本分类 | Peter Bayerle | |
利用 BERT 进行 CNN/Dailymail 上的 Encoder-Decoder 摘要 | 如何使用 google-bert/bert-base-uncased checkpoint 预热启动 EncoderDecoderModel 以在 CNN/Dailymail 上进行摘要 | Patrick von Platen | |
利用 RoBERTa 进行 BBC XSum 上的 Encoder-Decoder 摘要 | 如何使用 FacebookAI/roberta-base checkpoint 预热启动共享的 EncoderDecoderModel 以在 BBC/XSum 上进行摘要 | Patrick von Platen | |
微调 TAPAS 以进行顺序问题回答 (SQA) | 如何使用 tapas-base checkpoint 在顺序问题回答 (SQA) 数据集上微调 TapasForQuestionAnswering | Niels Rogge | |
在表格事实检查 (TabFact) 上评估 TAPAS | 如何使用 🤗 datasets 和 🤗 transformers 库的组合,使用 tapas-base-finetuned-tabfact checkpoint 评估微调的 TapasForSequenceClassification | Niels Rogge | |
微调 mBART 以进行翻译 | 如何使用 Seq2SeqTrainer 微调 mBART 以进行印地语到英语的翻译 | Vasudev Gupta | |
在 FUNSD(一种表单理解数据集)上微调 LayoutLM | 如何在 FUNSD 数据集上微调 LayoutLMForTokenClassification,以从扫描文档中提取信息 | Niels Rogge | |
微调 DistilGPT2 并生成文本 | 如何微调 DistilGPT2 并生成文本 | Aakash Tripathi | |
在最多 8K tokens 上微调 LED | 如何在 pubmed 上微调 LED 以进行长程摘要 | Patrick von Platen | |
在 Arxiv 上评估 LED | 如何有效地评估 LED 以进行长程摘要 | Patrick von Platen | |
在 RVL-CDIP(一个文档图像分类数据集)上微调 LayoutLM | 如何在 RVL-CDIP 数据集上微调 LayoutLMForSequenceClassification 以进行扫描文档分类 | Niels Rogge | |
Wav2Vec2 CTC 解码与 GPT2 调整 | 如何使用语言模型调整解码 CTC 序列 | Eric Lam | |
使用 Trainer 类微调 BART 以进行两种语言的摘要 | 如何使用 Trainer 类微调 BART 以进行两种语言的摘要 | Eliza Szczechla | |
在 Trivia QA 上评估 Big Bird | 如何在 Trivia QA 上评估 BigBird 以进行长文档问题回答 | Patrick von Platen | |
使用 Wav2Vec2 创建视频字幕 | 如何通过使用 Wav2Vec 转录音频,从任何视频创建 YouTube 字幕 | Niklas Muennighoff | |
使用 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer | 如何使用 HuggingFace Transformers、Datasets 和 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer (ViT) | Niels Rogge | |
使用 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer | 如何使用 HuggingFace Transformers、Datasets 和 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer (ViT) | Niels Rogge | |
在 Open Entity(一个实体类型数据集)上评估 LUKE | 如何在 Open Entity 数据集上评估 LukeForEntityClassification | Ikuya Yamada | |
在 TACRED(一个关系抽取数据集)上评估 LUKE | 如何在 TACRED 数据集上评估 LukeForEntityPairClassification | Ikuya Yamada | |
在 CoNLL-2003(一个重要的 NER 基准)上评估 LUKE | 如何在 CoNLL-2003 数据集上评估 LukeForEntitySpanClassification | Ikuya Yamada | |
在 PubMed 数据集上评估 BigBird-Pegasus | 如何在 PubMed 数据集上评估 BigBirdPegasusForConditionalGeneration | Vasudev Gupta | |
使用 Wav2Vec2 进行语音情感分类 | 如何在 MEGA 数据集上利用预训练的 Wav2Vec2 模型进行情感分类 | Mehrdad Farahani | |
使用 DETR 检测图像中的对象 | 如何使用训练好的 DetrForObjectDetection 模型检测图像中的对象并可视化注意力 | Niels Rogge | |
在自定义对象检测数据集上微调 DETR | 如何在自定义对象检测数据集上微调 DetrForObjectDetection | Niels Rogge | |
微调 T5 以进行命名实体识别 | 如何在命名实体识别任务上微调 T5 | Ogundepo Odunayo | |
使用 QLoRA 与 MLflow 和 PEFT 微调开源 LLM | 如何使用 QLoRA 和 PEFT 以内存高效的方式微调 LLM,同时使用 MLflow 管理实验跟踪 | Yuki Watanabe |