LLM 课程文档

总结

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

总结

Ask a Question

在本章中,您了解了如何使用 🤗 Transformers 中的高级 pipeline() 函数来处理不同的 NLP 任务。您还了解了如何在 Hub 中搜索和使用模型,以及如何使用 Inference API 直接在浏览器中测试模型。

我们从高层次讨论了 Transformer 模型的工作原理,并讨论了迁移学习和微调的重要性。一个关键方面是,您可以根据您要解决的任务类型,使用完整的架构或仅使用编码器或解码器。下表总结了这一点

模型 示例 任务
编码器 ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa 句子分类、命名实体识别、抽取式问答
解码器 CTRL, GPT, GPT-2, Transformer XL 文本生成
编码器-解码器 BART, T5, Marian, mBART 摘要、翻译、生成式问答
< > 在 GitHub 上更新