LLM 课程文档

精通LLM

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

精通LLM

Ask a Question

如果你已经完成了本课程,恭喜你——你现在已经掌握了所有知识和工具,可以用 🤗 Transformers 和 Hugging Face 生态系统解决(几乎)任何语言任务!

从 NLP 到 LLM

虽然我们已经在课程中涵盖了许多传统的 NLP 任务,但该领域已经被大型语言模型(LLM)彻底改变。这些模型极大地扩展了语言处理的可能性

  • 它们可以处理多个任务,而无需针对特定任务进行微调
  • 它们擅长遵循指令并适应不同的语境
  • 它们可以为各种应用生成连贯的、符合语境的文本
  • 它们可以通过思维链提示等技术进行推理和解决复杂问题

你所学到的基础 NLP 技能对于有效使用 LLM 仍然至关重要。理解分词、模型架构、微调方法和评估指标,提供了充分利用 LLM 潜力的所需知识。

我们已经看到了很多不同的数据整理器,所以我们制作了这个小视频,帮助你为每个任务找到合适的整理器

在完成了核心语言任务的快速回顾之后,你应该:

  • 了解哪种架构(编码器、解码器或编码器-解码器)最适合每项任务
  • 理解语言模型的预训练和微调之间的区别
  • 根据你所学习的轨道,了解如何使用 `Trainer` API 和 🤗 Accelerate 或 TensorFlow 和 Keras 的分布式训练功能来训练 Transformer 模型
  • 理解文本生成任务中 ROUGE 和 BLEU 等指标的含义和局限性
  • 了解如何在 Hub 上以及使用 🤗 Transformers 的 `pipeline` 与你的微调模型进行交互
  • 认识到 LLM 如何建立并扩展传统 NLP 技术

尽管掌握了所有这些知识,总会遇到代码中难以解决的错误,或者对如何解决特定的语言处理问题产生疑问。幸运的是,Hugging Face 社区在这里为你提供帮助!在本课程的最后一部分,我们将探讨如何调试你的 Transformer 模型并有效地寻求帮助。

< > 在 GitHub 上更新