智能体课程文档

引言

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

导论

Bonus Unit 1 Thumbnail

欢迎来到第一个额外单元,在这里你将学习如何为函数调用微调大型语言模型(LLM)

对于 LLM 而言,函数调用正迅速成为一项必知的技术。

其理念是,与我们第一单元中仅依赖基于提示的方法不同,函数调用在训练阶段训练你的模型采取行动并解释观察结果,从而使你的 AI 更健壮。

我应该何时学习这个额外单元?

此部分是可选的,并且比第一单元更高级,所以你可以选择现在学习此单元,或者在你的知识因本课程而提高后再次学习。

但别担心,这个额外单元旨在提供你所需的所有信息,即使你尚未学习微调的内部工作原理,我们也会引导你了解为函数调用微调模型的所有核心概念。

你能学习此额外单元的最佳方式是

  1. 了解如何使用 Transformers 微调 LLM,如果不是这种情况,请查看此处

  2. 了解如何使用SFTTrainer微调我们的模型,要了解更多信息,请查看此文档


你将学到什么

  1. 函数调用
    现代 LLM 如何有效地构建对话以触发工具

  2. LoRA (低秩自适应)
    一种轻量且高效的微调方法,可减少计算和存储开销。LoRA 使训练大型模型更快、更便宜、更易于部署

  3. 函数调用模型中的思考 → 行动 → 观察循环
    一种简单而强大的方法,用于构建模型如何决定何时(以及如何)调用函数、跟踪中间步骤以及解释来自外部工具或 API 的结果。

  4. 新的特殊标记
    我们将引入特殊标记,帮助模型区分

    • 内部“思维链”推理
    • 传出的函数调用
    • 来自外部工具的响应

到本额外单元结束时,你将能够

  • 理解 API 在工具方面的内部工作原理。
  • 使用 LoRA 技术微调模型。
  • 实施修改思考 → 行动 → 观察循环,以创建健壮且可维护的函数调用工作流。
  • 设计和利用特殊标记,无缝分离模型的内部推理与其外部操作。

你还将微调自己的模型以执行函数调用。 🔥

让我们深入了解函数调用

< > 在 GitHub 上更新