智能体课程文档
引言
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
导论
欢迎来到第一个额外单元,在这里你将学习如何为函数调用微调大型语言模型(LLM)。
对于 LLM 而言,函数调用正迅速成为一项必知的技术。
其理念是,与我们第一单元中仅依赖基于提示的方法不同,函数调用在训练阶段训练你的模型采取行动并解释观察结果,从而使你的 AI 更健壮。
我应该何时学习这个额外单元?
此部分是可选的,并且比第一单元更高级,所以你可以选择现在学习此单元,或者在你的知识因本课程而提高后再次学习。
但别担心,这个额外单元旨在提供你所需的所有信息,即使你尚未学习微调的内部工作原理,我们也会引导你了解为函数调用微调模型的所有核心概念。
你能学习此额外单元的最佳方式是
你将学到什么
函数调用
现代 LLM 如何有效地构建对话以触发工具。LoRA (低秩自适应)
一种轻量且高效的微调方法,可减少计算和存储开销。LoRA 使训练大型模型更快、更便宜、更易于部署。函数调用模型中的思考 → 行动 → 观察循环
一种简单而强大的方法,用于构建模型如何决定何时(以及如何)调用函数、跟踪中间步骤以及解释来自外部工具或 API 的结果。新的特殊标记
我们将引入特殊标记,帮助模型区分- 内部“思维链”推理
- 传出的函数调用
- 来自外部工具的响应
到本额外单元结束时,你将能够
- 理解 API 在工具方面的内部工作原理。
- 使用 LoRA 技术微调模型。
- 实施和修改思考 → 行动 → 观察循环,以创建健壮且可维护的函数调用工作流。
- 设计和利用特殊标记,无缝分离模型的内部推理与其外部操作。
你还将微调自己的模型以执行函数调用。 🔥
让我们深入了解函数调用!
< > 在 GitHub 上更新