智能体课程文档

入门指南:你的第一步 ⛵

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

入门指南:你的第一步 ⛵

Time to Onboard

既然你已了解所有细节,那就开始吧!我们将完成以下四件事:

  1. 创建你的 Hugging Face 账户(如果尚未创建)
  2. 注册 Discord 并进行自我介绍(别害羞 🤗)
  3. 在 Hub 上 关注 Hugging Face Agents 课程
  4. 宣传本课程

第 1 步:创建你的 Hugging Face 账户

(如果尚未创建)请在此处创建一个 Hugging Face 账户。

第 2 步:加入我们的 Discord 社区

👉🏻 在此处加入我们的 Discord 服务器。

加入后,请记得在 #introduce-yourself 频道中进行自我介绍。

我们有多个与 AI Agents 相关的频道:

  • agents-course-announcements:用于发布最新的课程信息
  • 🎓-agents-course-general:用于一般性讨论和闲聊
  • agents-course-questions:用于提问和帮助同学
  • agents-course-showcase:用于展示你最棒的 Agents

此外,你还可以查看:

  • smolagents:用于讨论和获取该库的支持

如果你是第一次使用 Discord,我们编写了一份 Discord 101 指南,帮助你了解最佳实践。请查看下一节

第 3 步:关注 Hugging Face Agents 课程组织

通过关注 Hugging Face Agents 课程组织,及时了解最新的课程资料、更新和公告。

👉 前往此处并点击关注

Follow

第 4 步:宣传本课程

帮助我们提高本课程的知名度!你可以通过两种方式帮助我们:

  1. 通过给课程的仓库点亮 ⭐ 来表达你的支持。
Repo star
  1. 分享你的学习之旅:让其他人知道你正在学习这门课程!我们为你准备了一张插图,你可以在社交媒体上使用。

你可以点击 👉 此处下载图片。

第 5 步:使用 Ollama 在本地运行模型(以防遇到额度限制)

  1. 安装 Ollama

    请遵循此处的官方说明。

  2. 在本地拉取模型

    ollama pull qwen2:7b

    这里,我们拉取 qwen2:7b 模型。请访问 Ollama 网站查看更多模型。

  3. 在后台启动 Ollama(在一个终端中)

    ollama serve

    如果遇到错误 “listen tcp 127.0.0.1:11434: bind: address already in use”,你可以使用命令 sudo lsof -i :11434 来识别当前正在使用此端口的进程 ID (PID)。如果该进程是 ollama,则很可能是上述安装脚本已启动了 ollama 服务,因此你可以跳过此命令来启动 Ollama。

  4. 使用 LiteLLMModel 代替 InferenceClientModel

    要在 smolagents 中使用 LiteLLMModel 模块,你可能需要运行 pip 命令来安装该模块。

    pip install 'smolagents[litellm]'
    from smolagents import LiteLLMModel

    model = LiteLLMModel(
        model_id="ollama_chat/qwen2:7b",  # Or try other Ollama-supported models
        api_base="http://127.0.0.1:11434",  # Default Ollama local server
        num_ctx=8192,
    )
  1. 为什么这样可行?
  • Ollama 通过一个与 OpenAI 兼容的 API 在 https://:11434 本地提供模型服务。
  • LiteLLMModel 旨在与任何支持 OpenAI 聊天/补全 API 格式的模型进行通信。
  • 这意味着你只需将 InferenceClientModel 替换为 LiteLLMModel,无需进行其他代码更改。这是一个无缝的即插即用解决方案。

恭喜!🎉 你已完成入门流程!现在你已准备好开始学习 AI Agents。祝你学习愉快!

不断学习,保持优秀 🤗

< > 在 GitHub 上更新