智能体课程文档
入门指南:你的第一步 ⛵
并获得增强的文档体验
开始使用
入门指南:你的第一步 ⛵

既然你已了解所有细节,那就开始吧!我们将完成以下四件事:
- 创建你的 Hugging Face 账户(如果尚未创建)
- 注册 Discord 并进行自我介绍(别害羞 🤗)
- 在 Hub 上 关注 Hugging Face Agents 课程
- 宣传本课程
第 1 步:创建你的 Hugging Face 账户
(如果尚未创建)请在此处创建一个 Hugging Face 账户。
第 2 步:加入我们的 Discord 社区
👉🏻 在此处加入我们的 Discord 服务器。
加入后,请记得在 #introduce-yourself
频道中进行自我介绍。
我们有多个与 AI Agents 相关的频道:
agents-course-announcements
:用于发布最新的课程信息。🎓-agents-course-general
:用于一般性讨论和闲聊。agents-course-questions
:用于提问和帮助同学。agents-course-showcase
:用于展示你最棒的 Agents。
此外,你还可以查看:
smolagents
:用于讨论和获取该库的支持。
如果你是第一次使用 Discord,我们编写了一份 Discord 101 指南,帮助你了解最佳实践。请查看下一节。
第 3 步:关注 Hugging Face Agents 课程组织
通过关注 Hugging Face Agents 课程组织,及时了解最新的课程资料、更新和公告。
👉 前往此处并点击关注。

第 4 步:宣传本课程
帮助我们提高本课程的知名度!你可以通过两种方式帮助我们:
- 通过给课程的仓库点亮 ⭐ 来表达你的支持。

- 分享你的学习之旅:让其他人知道你正在学习这门课程!我们为你准备了一张插图,你可以在社交媒体上使用。

你可以点击 👉 此处下载图片。
第 5 步:使用 Ollama 在本地运行模型(以防遇到额度限制)
安装 Ollama
请遵循此处的官方说明。
在本地拉取模型
ollama pull qwen2:7b
这里,我们拉取 qwen2:7b 模型。请访问 Ollama 网站查看更多模型。
在后台启动 Ollama(在一个终端中)
ollama serve
如果遇到错误 “listen tcp 127.0.0.1:11434: bind: address already in use”,你可以使用命令
sudo lsof -i :11434
来识别当前正在使用此端口的进程 ID (PID)。如果该进程是ollama
,则很可能是上述安装脚本已启动了 ollama 服务,因此你可以跳过此命令来启动 Ollama。使用
LiteLLMModel
代替InferenceClientModel
要在
smolagents
中使用LiteLLMModel
模块,你可能需要运行pip
命令来安装该模块。
pip install 'smolagents[litellm]'
from smolagents import LiteLLMModel
model = LiteLLMModel(
model_id="ollama_chat/qwen2:7b", # Or try other Ollama-supported models
api_base="http://127.0.0.1:11434", # Default Ollama local server
num_ctx=8192,
)
- 为什么这样可行?
- Ollama 通过一个与 OpenAI 兼容的 API 在
https://:11434
本地提供模型服务。 LiteLLMModel
旨在与任何支持 OpenAI 聊天/补全 API 格式的模型进行通信。- 这意味着你只需将
InferenceClientModel
替换为LiteLLMModel
,无需进行其他代码更改。这是一个无缝的即插即用解决方案。
恭喜!🎉 你已完成入门流程!现在你已准备好开始学习 AI Agents。祝你学习愉快!
不断学习,保持优秀 🤗
< > 在 GitHub 上更新