LLM 课程文档

精通 LLMs

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始

精通 LLMs

Ask a Question

如果你已经完成了课程的这一部分,恭喜你——你现在已经掌握了所有必要的知识和工具,可以使用 🤗 Transformers 和 Hugging Face 生态系统来处理(几乎)任何语言任务!

从 NLP 到 LLMs

虽然我们在本课程中涵盖了许多传统的 NLP 任务,但该领域已经被大型语言模型(LLMs)彻底革新。这些模型极大地扩展了语言处理的可能性

  • 它们可以处理多种任务,而无需针对特定任务进行微调
  • 它们擅长遵循指令并适应不同的上下文
  • 它们可以为各种应用生成连贯、符合上下文的文本
  • 它们可以通过诸如思维链提示等技术执行推理并解决复杂问题

你学到的基础 NLP 技能对于有效地使用 LLMs 仍然至关重要。理解分词、模型架构、微调方法和评估指标为你充分利用 LLMs 的潜力提供了必要的知识。

我们已经看到了很多不同的数据收集器,所以我们制作了这个小视频来帮助你找到每个任务应该使用哪一个

在完成了核心语言任务的快速浏览之后,你应该

  • 了解哪种架构(encoder、decoder 或 encoder-decoder)最适合每种任务
  • 理解预训练和微调语言模型之间的区别
  • 了解如何使用 Trainer API 和 🤗 Accelerate 的分布式训练功能,或者 TensorFlow 和 Keras 来训练 Transformer 模型,具体取决于你所选择的路径
  • 理解 ROUGE 和 BLEU 等指标对于文本生成任务的意义和局限性
  • 了解如何在 Hub 上以及使用 🤗 Transformers 中的 pipeline 与你微调的模型进行交互
  • 认识到 LLMs 如何建立和扩展传统 NLP 技术

尽管你掌握了所有这些知识,但总会有遇到代码中难以解决的错误,或者对如何解决特定的语言处理问题有疑问的时候。幸运的是,Hugging Face 社区在这里帮助你!在本课程这一部分的最后一章,我们将探讨如何调试你的 Transformer 模型并有效地寻求帮助。

< > 在 GitHub 上更新