智能体课程文档

LlamaHub 介绍

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

LlamaHub 介绍

LlamaHub 是一个集成、代理和工具的注册中心,您可以在 LlamaIndex 中使用它们。

LlamaHub

我们将在本课程中使用各种集成,因此让我们首先了解 LlamaHub 以及它如何帮助我们。

让我们看看如何找到并安装我们所需组件的依赖项。

安装

LlamaIndex 的安装说明可在 LlamaHub 上找到一个结构良好的概述。这可能一开始有点令人不知所措,但大多数安装命令通常遵循易于记忆的格式

pip install llama-index-{component-type}-{framework-name}

让我们尝试使用 Hugging Face 推理 API 集成,为 LLM 和嵌入组件安装依赖项。

pip install llama-index-llms-huggingface-api llama-index-embeddings-huggingface

使用

安装后,我们可以看到使用模式。您会注意到导入路径与安装命令一致!在下方,我们可以看到Hugging Face 推理 API 用于 LLM 组件的用法示例。

from llama_index.llms.huggingface_api import HuggingFaceInferenceAPI
import os
from dotenv import load_dotenv

# Load the .env file
load_dotenv()

# Retrieve HF_TOKEN from the environment variables
hf_token = os.getenv("HF_TOKEN")

llm = HuggingFaceInferenceAPI(
    model_name="Qwen/Qwen2.5-Coder-32B-Instruct",
    temperature=0.7,
    max_tokens=100,
    token=hf_token,
    provider="auto"
)

response = llm.complete("Hello, how are you?")
print(response)
# I am good, how can I help you today?

太棒了,我们现在知道如何查找、安装和使用所需组件的集成。让我们深入了解这些组件,看看如何使用它们来构建我们自己的代理。

< > 在 GitHub 上更新