LLM 课程文档
总结
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
总结
在本章中,您了解了如何使用 🤗 Transformers 中的高级 pipeline()
函数来处理不同的 NLP 任务。您还了解了如何在 Hub 中搜索和使用模型,以及如何使用 Inference API 直接在浏览器中测试模型。
我们从高层次讨论了 Transformer 模型的工作原理,并讨论了迁移学习和微调的重要性。一个关键方面是,您可以根据您要解决的任务类型,使用完整的架构或仅使用编码器或解码器。下表总结了这一点
模型 | 示例 | 任务 |
---|---|---|
编码器 | ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa | 句子分类、命名实体识别、抽取式问答 |
解码器 | CTRL, GPT, GPT-2, Transformer XL | 文本生成 |
编码器-解码器 | BART, T5, Marian, mBART | 摘要、翻译、生成式问答 |