Agents 课程文档

LlamaHub 简介

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

LlamaHub 简介

LlamaHub 是一个包含数百个集成、agents 和工具的注册表,你可以在 LlamaIndex 中使用它们。

LlamaHub

我们将在本课程中使用各种集成,所以让我们先看看 LlamaHub 以及它如何帮助我们。

让我们看看如何找到并安装我们需要的组件的依赖项。

安装

LlamaIndex 安装说明在 LlamaHub 上以结构良好的概述形式提供。乍一看可能有点让人不知所措,但大多数安装命令通常遵循一个易于记忆的格式

pip install llama-index-{component-type}-{framework-name}

让我们尝试使用 Hugging Face inference API 集成安装 LLM 和 embedding 组件的依赖项。

pip install llama-index-llms-huggingface-api llama-index-embeddings-huggingface

用法

安装完成后,我们可以看到用法模式。 你会注意到导入路径遵循安装命令! 在下面,我们可以看到 Hugging Face inference API 用于 LLM 组件的用法示例。

from llama_index.llms.huggingface_api import HuggingFaceInferenceAPI
import os
from dotenv import load_dotenv

# Load the .env file
load_dotenv()

# Retrieve HF_TOKEN from the environment variables
hf_token = os.getenv("HF_TOKEN")

llm = HuggingFaceInferenceAPI(
    model_name="Qwen/Qwen2.5-Coder-32B-Instruct",
    temperature=0.7,
    max_tokens=100,
    token=hf_token,
)

response = llm.complete("Hello, how are you?")
print(response)
# I am good, how can I help you today?

太棒了,我们现在知道如何找到、安装和使用我们需要的组件的集成。让我们更深入地研究组件,看看我们如何使用它们来构建我们自己的 agents。

< > 在 GitHub 上更新