Transformers 文档
社区
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
社区
本页面汇总了由社区开发的 🤗 Transformers 相关资源。
社区资源:
资源 | 描述 | 作者 |
---|---|---|
Hugging Face Transformers 词汇表抽认卡 | 一套基于 Transformers 文档词汇表 的抽认卡,它被整理成可以使用 Anki (一个开源、跨平台的应用程序,专门用于长期知识记忆)轻松学习/复习的形式。请观看此 关于如何使用抽认卡的介绍视频。 | Darigov 研究 |
社区 Notebook:
笔记本 | 描述 | 作者 | |
---|---|---|---|
微调预训练 Transformer 以生成歌词 | 如何通过微调 GPT-2 模型来生成您喜爱的艺术家的风格歌词 | Aleksey Korshuk | |
在 Tensorflow 2 中训练 T5 | 如何使用 Tensorflow 2 训练 T5 进行任何任务。此 Notebook 演示了使用 SQUAD 在 Tensorflow 2 中实现的问答任务 | Muhammad Harris | |
在 TPU 上训练 T5 | 如何使用 Transformers 和 Nlp 在 SQUAD 上训练 T5 | Suraj Patil | |
微调 T5 进行分类和多项选择 | 如何使用 PyTorch Lightning 以文本到文本格式微调 T5 进行分类和多项选择任务 | Suraj Patil | |
在新数据集和语言上微调 DialoGPT | 如何在新的数据集上微调 DialoGPT 模型以用于开放式对话聊天机器人 | Nathan Cooper | |
使用 Reformer 进行长序列建模 | 如何使用 Reformer 训练长达 500,000 个标记的序列 | Patrick von Platen | |
微调 BART 进行摘要 | 如何使用 blurr 和 fastai 微调 BART 进行摘要 | Wayde Gilliam | |
微调预训练 Transformer 以生成任何人的推文 | 如何通过微调 GPT-2 模型来生成您喜爱的 Twitter 帐户风格的推文 | Boris Dayma | |
使用 Weights & Biases 优化 🤗 Hugging Face 模型 | 展示 W&B 与 Hugging Face 集成的完整教程 | Boris Dayma | |
预训练 Longformer | 如何构建现有预训练模型的“长”版本 | Iz Beltagy | |
微调 Longformer 进行问答 | 如何微调 Longformer 模型以用于问答任务 | Suraj Patil | |
使用 🤗nlp 评估模型 | 如何使用 nlp 在 TriviaQA 上评估 Longformer | Patrick von Platen | |
微调 T5 进行情感跨度提取 | 如何使用 PyTorch Lightning 以文本到文本格式微调 T5 进行情感跨度提取 | Lorenzo Ampil | |
微调 DistilBert 进行多分类 | 如何使用 PyTorch 微调 DistilBert 进行多分类 | Abhishek Kumar Mishra | |
微调 BERT 进行多标签分类 | 如何使用 PyTorch 微调 BERT 进行多标签分类 | Abhishek Kumar Mishra | |
微调 T5 进行摘要 | 如何在 PyTorch 中微调 T5 进行摘要并使用 WandB 跟踪实验 | Abhishek Kumar Mishra | |
使用动态填充/分桶加速 Transformer 中的微调 | 如何通过使用动态填充/分桶将微调速度提高 2 倍 | Michael Benesty | |
预训练 Reformer 进行掩码语言建模 | 如何训练一个带有双向自注意力层的 Reformer 模型 | Patrick von Platen | |
扩展和微调 Sci-BERT | 如何增加 AllenAI 预训练的 SciBERT 模型在 CORD 数据集上的词汇量并将其流水线化。 | Tanmay Thakur | |
使用 Trainer API 微调 BlenderBotSmall 进行摘要 | 如何使用 Trainer API 在自定义数据集上微调 BlenderBotSmall 进行摘要。 | Tanmay Thakur | |
微调 Electra 并使用 Integrated Gradients 进行解释 | 如何微调 Electra 进行情感分析并使用 Captum Integrated Gradients 解释预测 | Eliza Szczechla | |
使用 Trainer 类微调非英语 GPT-2 模型 | 如何使用 Trainer 类微调非英语 GPT-2 模型 | Philipp Schmid | |
微调 DistilBERT 模型进行多标签分类任务 | 如何微调 DistilBERT 模型进行多标签分类任务 | Dhaval Taunk | |
微调 ALBERT 进行句子对分类 | 如何微调 ALBERT 模型或另一个基于 BERT 的模型以进行句子对分类任务 | Nadir El Manouzi | |
微调 Roberta 进行情感分析 | 如何微调 Roberta 模型进行情感分析 | Dhaval Taunk | |
评估问题生成模型 | 您的 seq2seq Transformer 模型生成的问题答案有多准确? | Pascal Zoleko | |
使用 DistilBERT 和 Tensorflow 对文本进行分类 | 如何在 TensorFlow 中微调 DistilBERT 进行文本分类 | Peter Bayerle | |
利用 BERT 在 CNN/Dailymail 上进行编码器-解码器摘要 | 如何使用 google-bert/bert-base-uncased 检查点预热 EncoderDecoderModel,以在 CNN/Dailymail 上进行摘要 | Patrick von Platen | |
利用 RoBERTa 在 BBC XSum 上进行编码器-解码器摘要 | 如何使用 FacebookAI/roberta-base 检查点预热共享的 EncoderDecoderModel,以在 BBC/XSum 上进行摘要 | Patrick von Platen | |
在顺序问答 (SQA) 上微调 TAPAS | 如何在顺序问答 (SQA) 数据集上使用 tapas-base 检查点微调 TapasForQuestionAnswering | Niels Rogge | |
在表格事实核查 (TabFact) 上评估 TAPAS | 如何结合使用 🤗 数据集和 🤗 Transformer 库,评估使用 tapas-base-finetuned-tabfact 检查点微调的 TapasForSequenceClassification | Niels Rogge | |
微调 mBART 进行翻译 | 如何使用 Seq2SeqTrainer 微调 mBART 进行印地语到英语的翻译 | Vasudev Gupta | |
在 FUNSD(表单理解数据集)上微调 LayoutLM | 如何在 FUNSD 数据集上微调 LayoutLMForTokenClassification,以从扫描文档中提取信息 | Niels Rogge | |
微调 DistilGPT2 并生成文本 | 如何微调 DistilGPT2 并生成文本 | Aakash Tripathi | |
微调 LED,最多可处理 8K 标记 | 如何在 pubmed 上微调 LED 以进行长距离摘要 | Patrick von Platen | |
在 Arxiv 上评估 LED | 如何有效评估 LED 在长距离摘要方面的表现 | Patrick von Platen | |
在 RVL-CDIP(文档图像分类数据集)上微调 LayoutLM | 如何在 RVL-CDIP 数据集上微调 LayoutLMForSequenceClassification,以进行扫描文档分类 | Niels Rogge | |
Wav2Vec2 CTC 解码与 GPT2 调整 | 如何使用语言模型调整解码 CTC 序列 | Eric Lam | |
使用 Trainer 类微调 BART 以两种语言进行摘要 | 如何使用 Trainer 类微调 BART 以两种语言进行摘要 | Eliza Szczechla | |
在 Trivia QA 上评估 Big Bird | 如何在 Trivia QA 上评估 BigBird 在长文档问答方面的表现 | Patrick von Platen | |
使用 Wav2Vec2 创建视频字幕 | 如何通过 Wav2Vec 听写音频从任何视频创建 YouTube 字幕 | Niklas Muennighoff | |
使用 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer | 如何使用 HuggingFace Transformers、Datasets 和 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer (ViT) | Niels Rogge | |
使用 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer | 如何使用 HuggingFace Transformers、Datasets 和 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer (ViT) | Niels Rogge | |
在 Open Entity(一个实体类型数据集)上评估 LUKE | 如何在 Open Entity 数据集上评估 LukeForEntityClassification | Ikuya Yamada | |
在 TACRED(一个关系提取数据集)上评估 LUKE | 如何在 TACRED 数据集上评估 LukeForEntityPairClassification | Ikuya Yamada | |
在 CoNLL-2003(一个重要的 NER 基准测试)上评估 LUKE | 如何在 CoNLL-2003 数据集上评估 LukeForEntitySpanClassification | Ikuya Yamada | |
在 PubMed 数据集上评估 BigBird-Pegasus | 如何在 PubMed 数据集上评估 BigBirdPegasusForConditionalGeneration | Vasudev Gupta | |
使用 Wav2Vec2 进行语音情感分类 | 如何利用预训练的 Wav2Vec2 模型在 MEGA 数据集上进行情感分类 | Mehrdad Farahani | |
使用 DETR 检测图像中的物体 | 如何使用训练好的 DetrForObjectDetection 模型检测图像中的物体并可视化注意力 | Niels Rogge | |
在自定义物体检测数据集上微调 DETR | 如何在自定义物体检测数据集上微调 DetrForObjectDetection | Niels Rogge | |
微调 T5 进行命名实体识别 | 如何微调 T5 以进行命名实体识别任务 | Ogundepo Odunayo | |
使用 QLoRA 与 MLflow 和 PEFT 微调开源 LLM | 如何使用 QLoRA 和 PEFT 以内存高效的方式微调 LLM,同时使用 MLflow 管理实验跟踪 | Yuki Watanabe |