LLM 课程文档
精通LLM
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
精通LLM
如果你已经完成了本课程,恭喜你——你现在已经掌握了所有知识和工具,可以用 🤗 Transformers 和 Hugging Face 生态系统解决(几乎)任何语言任务!
从 NLP 到 LLM
虽然我们已经在课程中涵盖了许多传统的 NLP 任务,但该领域已经被大型语言模型(LLM)彻底改变。这些模型极大地扩展了语言处理的可能性
- 它们可以处理多个任务,而无需针对特定任务进行微调
- 它们擅长遵循指令并适应不同的语境
- 它们可以为各种应用生成连贯的、符合语境的文本
- 它们可以通过思维链提示等技术进行推理和解决复杂问题
你所学到的基础 NLP 技能对于有效使用 LLM 仍然至关重要。理解分词、模型架构、微调方法和评估指标,提供了充分利用 LLM 潜力的所需知识。
我们已经看到了很多不同的数据整理器,所以我们制作了这个小视频,帮助你为每个任务找到合适的整理器
在完成了核心语言任务的快速回顾之后,你应该:
- 了解哪种架构(编码器、解码器或编码器-解码器)最适合每项任务
- 理解语言模型的预训练和微调之间的区别
- 根据你所学习的轨道,了解如何使用 `Trainer` API 和 🤗 Accelerate 或 TensorFlow 和 Keras 的分布式训练功能来训练 Transformer 模型
- 理解文本生成任务中 ROUGE 和 BLEU 等指标的含义和局限性
- 了解如何在 Hub 上以及使用 🤗 Transformers 的 `pipeline` 与你的微调模型进行交互
- 认识到 LLM 如何建立并扩展传统 NLP 技术
尽管掌握了所有这些知识,总会遇到代码中难以解决的错误,或者对如何解决特定的语言处理问题产生疑问。幸运的是,Hugging Face 社区在这里为你提供帮助!在本课程的最后一部分,我们将探讨如何调试你的 Transformer 模型并有效地寻求帮助。
< > 在 GitHub 上更新