总结
在本节中,您了解了如何使用 🤗 Transformers 中的高级 pipeline()
函数来处理不同的 NLP 任务。您还了解了如何在 Hub 中搜索和使用模型,以及如何使用推理 API 在浏览器中直接测试模型。
我们讨论了 Transformer 模型的高级工作原理,并谈到了迁移学习和微调的重要性。一个关键方面是,您可以根据要解决的任务类型使用完整的架构或仅使用编码器或解码器。下表总结了这一点
模型 | 示例 | 任务 |
---|---|---|
编码器 | ALBERT、BERT、DistilBERT、ELECTRA、RoBERTa | 句子分类、命名实体识别、抽取式问答 |
解码器 | CTRL、GPT、GPT-2、Transformer XL | 文本生成 |
编码器-解码器 | BART、T5、Marian、mBART | 摘要、翻译、生成式问答 |