NLP 课程文档

简介

Hugging Face's logo
加入 Hugging Face 社区

并获得增强文档体验

开始使用

简介

Ask a Question

第 3 章 中,您了解了如何微调文本分类模型。在本节中,我们将解决以下常见的 NLP 任务

  • 词性标注
  • 掩码语言建模(例如 BERT)
  • 摘要
  • 翻译
  • 因果语言模型预训练(例如 GPT-2)
  • 问答

为此,您需要利用在 第 3 章 中学习到的关于 Trainer API 和 🤗 Accelerate 库的所有知识,以及在 第 5 章 中学习到的 🤗 Datasets 库和在 第 6 章 中学习到的 🤗 Tokenizers 库。我们还将像在 第 4 章 中所做的那样,将我们的结果上传到模型中心,所以这确实是所有内容汇聚在一起的一章!

每个部分都可以独立阅读,并向您展示如何使用 Trainer API 或您自己的训练循环(使用 🤗 Accelerate)来训练模型。您可以随意跳过任一部分,并专注于最感兴趣的部分:Trainer API 非常适合微调或训练模型,而无需担心幕后发生的事情,而使用 Accelerate 的训练循环则可以让您更轻松地自定义任何您想要的部分。

如果您按顺序阅读这些部分,您会注意到它们在代码和文本方面有很多共同之处。重复是故意的,以便您可以深入了解(或稍后返回)任何您感兴趣的任务,并找到一个完整的可运行示例。