NLP 课程正在成为 LLM 课程!

教育一直是 Hugging Face 使 AI 民主化的核心使命,我们正在通过对 hf.co/learn 进行重大升级来加强这一使命!我们的 NLP 课程在过去 3 年中一直是开源 AI 社区的首选资源,现在是时候进行更新了。我们正在更新和扩展它,以跟上 AI 领域所有令人兴奋的进展(当每周都有突破时,这可不容易!)。
我们在实验性的 smol-course 和大型的 agents course 中感受到了这种兴奋,其中有 10 万名学生注册以一种新的、有趣和互动的方式学习 AI 代理!
在过去的几个月里,我们扩展了“NLP”课程,增加了新章节,包括微调 LLM 和构建像 Deepseek R1 这样的推理模型。这些新章节不符合“NLP”的范畴,因此我们寻找了一个更相关和现代的标题,最终定为**LLM 课程。**
NLP 课程材料将何去何从?
我们将保留现有材料,这些材料侧重于经典 NLP 任务,如分类、命名实体识别和检索。这些主题很重要,因为
- 我们并非所有事情都需要 LLM!
- 学生仍然可以从这些在本地运行且易于理解的简单任务中受益。
事实上,在未来几个月,我们将更新并现代化这些经典章节,以包括诸如 Sentence Transformers、零样本分类更新和 ModernBert 等方法。
会有新章节吗?
是的。我们正在专注于增加新章节,这些章节侧重于让最先进的研究更容易被更广泛的受众接触到,并与 transformers、Spaces 和 Hugging Face Hub 等工具兼容。例如,我们将增加关于微调、推理和检索的章节。
我们希望新章节更加开源,更贴近社区,而不是仅仅关注 Hugging Face 库。`transformers` 库已成为 LLM 建模代码的实际参考,但模型在各种框架中被使用、微调和采用。这太棒了!例如,在关于微调 LLM 的第 11 章或关于推理模型的第 12 章中,我们与极大地补充了 Hugging Face 库的库和工具进行了合作。这包括
在未来几个月,我们计划扩大合作,吸纳更多作者、维护者和公司。我们希望我们的材料涵盖您正在使用的最佳工具!
会有互动练习和直播课程吗?
是的,当它们对学生有用时。我们将专注于可靠的书面材料和编码练习,这些练习将在未来几年内保持有用。但对于学生同步参与的流行主题,我们将构建互动练习并举办直播课程。
接下来是什么?
要参与课程,请关注中心上的组织,如果您想加入、建议互动单元或提议直播课程,请发起讨论。