智能体课程文档
LlamaHub 介绍
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
LlamaHub 介绍
LlamaHub 是一个集成、代理和工具的注册中心,您可以在 LlamaIndex 中使用它们。
我们将在本课程中使用各种集成,因此让我们首先了解 LlamaHub 以及它如何帮助我们。
让我们看看如何找到并安装我们所需组件的依赖项。
安装
LlamaIndex 的安装说明可在 LlamaHub 上找到一个结构良好的概述。这可能一开始有点令人不知所措,但大多数安装命令通常遵循易于记忆的格式
pip install llama-index-{component-type}-{framework-name}
让我们尝试使用 Hugging Face 推理 API 集成,为 LLM 和嵌入组件安装依赖项。
pip install llama-index-llms-huggingface-api llama-index-embeddings-huggingface
使用
安装后,我们可以看到使用模式。您会注意到导入路径与安装命令一致!在下方,我们可以看到Hugging Face 推理 API 用于 LLM 组件的用法示例。
from llama_index.llms.huggingface_api import HuggingFaceInferenceAPI
import os
from dotenv import load_dotenv
# Load the .env file
load_dotenv()
# Retrieve HF_TOKEN from the environment variables
hf_token = os.getenv("HF_TOKEN")
llm = HuggingFaceInferenceAPI(
model_name="Qwen/Qwen2.5-Coder-32B-Instruct",
temperature=0.7,
max_tokens=100,
token=hf_token,
provider="auto"
)
response = llm.complete("Hello, how are you?")
print(response)
# I am good, how can I help you today?
太棒了,我们现在知道如何查找、安装和使用所需组件的集成。让我们深入了解这些组件,看看如何使用它们来构建我们自己的代理。
< > 在 GitHub 上更新