Transformers 文档

社区

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

社区

本页面汇总了由社区开发的 🤗 Transformers 相关资源。

社区资源:

资源 描述 作者
Hugging Face Transformers 词汇表抽认卡 一套基于 Transformers 文档词汇表 的抽认卡,它被整理成可以使用 Anki (一个开源、跨平台的应用程序,专门用于长期知识记忆)轻松学习/复习的形式。请观看此 关于如何使用抽认卡的介绍视频 Darigov 研究

社区 Notebook:

笔记本 描述 作者
微调预训练 Transformer 以生成歌词 如何通过微调 GPT-2 模型来生成您喜爱的艺术家的风格歌词 Aleksey Korshuk Open In Colab
在 Tensorflow 2 中训练 T5 如何使用 Tensorflow 2 训练 T5 进行任何任务。此 Notebook 演示了使用 SQUAD 在 Tensorflow 2 中实现的问答任务 Muhammad Harris Open In Colab
在 TPU 上训练 T5 如何使用 Transformers 和 Nlp 在 SQUAD 上训练 T5 Suraj Patil Open In Colab
微调 T5 进行分类和多项选择 如何使用 PyTorch Lightning 以文本到文本格式微调 T5 进行分类和多项选择任务 Suraj Patil Open In Colab
在新数据集和语言上微调 DialoGPT 如何在新的数据集上微调 DialoGPT 模型以用于开放式对话聊天机器人 Nathan Cooper Open In Colab
使用 Reformer 进行长序列建模 如何使用 Reformer 训练长达 500,000 个标记的序列 Patrick von Platen Open In Colab
微调 BART 进行摘要 如何使用 blurr 和 fastai 微调 BART 进行摘要 Wayde Gilliam Open In Colab
微调预训练 Transformer 以生成任何人的推文 如何通过微调 GPT-2 模型来生成您喜爱的 Twitter 帐户风格的推文 Boris Dayma Open In Colab
使用 Weights & Biases 优化 🤗 Hugging Face 模型 展示 W&B 与 Hugging Face 集成的完整教程 Boris Dayma Open In Colab
预训练 Longformer 如何构建现有预训练模型的“长”版本 Iz Beltagy Open In Colab
微调 Longformer 进行问答 如何微调 Longformer 模型以用于问答任务 Suraj Patil Open In Colab
使用 🤗nlp 评估模型 如何使用 nlp 在 TriviaQA 上评估 Longformer Patrick von Platen Open In Colab
微调 T5 进行情感跨度提取 如何使用 PyTorch Lightning 以文本到文本格式微调 T5 进行情感跨度提取 Lorenzo Ampil Open In Colab
微调 DistilBert 进行多分类 如何使用 PyTorch 微调 DistilBert 进行多分类 Abhishek Kumar Mishra Open In Colab
微调 BERT 进行多标签分类 如何使用 PyTorch 微调 BERT 进行多标签分类 Abhishek Kumar Mishra Open In Colab
微调 T5 进行摘要 如何在 PyTorch 中微调 T5 进行摘要并使用 WandB 跟踪实验 Abhishek Kumar Mishra Open In Colab
使用动态填充/分桶加速 Transformer 中的微调 如何通过使用动态填充/分桶将微调速度提高 2 倍 Michael Benesty Open In Colab
预训练 Reformer 进行掩码语言建模 如何训练一个带有双向自注意力层的 Reformer 模型 Patrick von Platen Open In Colab
扩展和微调 Sci-BERT 如何增加 AllenAI 预训练的 SciBERT 模型在 CORD 数据集上的词汇量并将其流水线化。 Tanmay Thakur Open In Colab
使用 Trainer API 微调 BlenderBotSmall 进行摘要 如何使用 Trainer API 在自定义数据集上微调 BlenderBotSmall 进行摘要。 Tanmay Thakur Open In Colab
微调 Electra 并使用 Integrated Gradients 进行解释 如何微调 Electra 进行情感分析并使用 Captum Integrated Gradients 解释预测 Eliza Szczechla Open In Colab
使用 Trainer 类微调非英语 GPT-2 模型 如何使用 Trainer 类微调非英语 GPT-2 模型 Philipp Schmid Open In Colab
微调 DistilBERT 模型进行多标签分类任务 如何微调 DistilBERT 模型进行多标签分类任务 Dhaval Taunk Open In Colab
微调 ALBERT 进行句子对分类 如何微调 ALBERT 模型或另一个基于 BERT 的模型以进行句子对分类任务 Nadir El Manouzi Open In Colab
微调 Roberta 进行情感分析 如何微调 Roberta 模型进行情感分析 Dhaval Taunk Open In Colab
评估问题生成模型 您的 seq2seq Transformer 模型生成的问题答案有多准确? Pascal Zoleko Open In Colab
使用 DistilBERT 和 Tensorflow 对文本进行分类 如何在 TensorFlow 中微调 DistilBERT 进行文本分类 Peter Bayerle Open In Colab
利用 BERT 在 CNN/Dailymail 上进行编码器-解码器摘要 如何使用 google-bert/bert-base-uncased 检查点预热 EncoderDecoderModel,以在 CNN/Dailymail 上进行摘要 Patrick von Platen Open In Colab
利用 RoBERTa 在 BBC XSum 上进行编码器-解码器摘要 如何使用 FacebookAI/roberta-base 检查点预热共享的 EncoderDecoderModel,以在 BBC/XSum 上进行摘要 Patrick von Platen Open In Colab
在顺序问答 (SQA) 上微调 TAPAS 如何在顺序问答 (SQA) 数据集上使用 tapas-base 检查点微调 TapasForQuestionAnswering Niels Rogge Open In Colab
在表格事实核查 (TabFact) 上评估 TAPAS 如何结合使用 🤗 数据集和 🤗 Transformer 库,评估使用 tapas-base-finetuned-tabfact 检查点微调的 TapasForSequenceClassification Niels Rogge Open In Colab
微调 mBART 进行翻译 如何使用 Seq2SeqTrainer 微调 mBART 进行印地语到英语的翻译 Vasudev Gupta Open In Colab
在 FUNSD(表单理解数据集)上微调 LayoutLM 如何在 FUNSD 数据集上微调 LayoutLMForTokenClassification,以从扫描文档中提取信息 Niels Rogge Open In Colab
微调 DistilGPT2 并生成文本 如何微调 DistilGPT2 并生成文本 Aakash Tripathi Open In Colab
微调 LED,最多可处理 8K 标记 如何在 pubmed 上微调 LED 以进行长距离摘要 Patrick von Platen Open In Colab
在 Arxiv 上评估 LED 如何有效评估 LED 在长距离摘要方面的表现 Patrick von Platen Open In Colab
在 RVL-CDIP(文档图像分类数据集)上微调 LayoutLM 如何在 RVL-CDIP 数据集上微调 LayoutLMForSequenceClassification,以进行扫描文档分类 Niels Rogge Open In Colab
Wav2Vec2 CTC 解码与 GPT2 调整 如何使用语言模型调整解码 CTC 序列 Eric Lam Open In Colab
使用 Trainer 类微调 BART 以两种语言进行摘要 如何使用 Trainer 类微调 BART 以两种语言进行摘要 Eliza Szczechla Open In Colab
在 Trivia QA 上评估 Big Bird 如何在 Trivia QA 上评估 BigBird 在长文档问答方面的表现 Patrick von Platen Open In Colab
使用 Wav2Vec2 创建视频字幕 如何通过 Wav2Vec 听写音频从任何视频创建 YouTube 字幕 Niklas Muennighoff Open In Colab
使用 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer 如何使用 HuggingFace Transformers、Datasets 和 PyTorch Lightning 在 CIFAR-10 上微调 Vision Transformer (ViT) Niels Rogge Open In Colab
使用 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer 如何使用 HuggingFace Transformers、Datasets 和 🤗 Trainer 在 CIFAR-10 上微调 Vision Transformer (ViT) Niels Rogge Open In Colab
在 Open Entity(一个实体类型数据集)上评估 LUKE 如何在 Open Entity 数据集上评估 LukeForEntityClassification Ikuya Yamada Open In Colab
在 TACRED(一个关系提取数据集)上评估 LUKE 如何在 TACRED 数据集上评估 LukeForEntityPairClassification Ikuya Yamada Open In Colab
在 CoNLL-2003(一个重要的 NER 基准测试)上评估 LUKE 如何在 CoNLL-2003 数据集上评估 LukeForEntitySpanClassification Ikuya Yamada Open In Colab
在 PubMed 数据集上评估 BigBird-Pegasus 如何在 PubMed 数据集上评估 BigBirdPegasusForConditionalGeneration Vasudev Gupta Open In Colab
使用 Wav2Vec2 进行语音情感分类 如何利用预训练的 Wav2Vec2 模型在 MEGA 数据集上进行情感分类 Mehrdad Farahani Open In Colab
使用 DETR 检测图像中的物体 如何使用训练好的 DetrForObjectDetection 模型检测图像中的物体并可视化注意力 Niels Rogge Open In Colab
在自定义物体检测数据集上微调 DETR 如何在自定义物体检测数据集上微调 DetrForObjectDetection Niels Rogge Open In Colab
微调 T5 进行命名实体识别 如何微调 T5 以进行命名实体识别任务 Ogundepo Odunayo Open In Colab
使用 QLoRA 与 MLflow 和 PEFT 微调开源 LLM 如何使用 QLoRAPEFT 以内存高效的方式微调 LLM,同时使用 MLflow 管理实验跟踪 Yuki Watanabe Open In Colab
< > 在 GitHub 上更新