api-inference 文档

快速入门

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

快速入门

无服务器推理 API 允许您轻松地对各种模型和任务进行推理。您可以使用您喜欢的工具(Python、cURL 等)进行请求。我们还提供了一个 Python SDK(huggingface_hub)来使其更加容易。

我们将使用一个情感分类模型进行一个最小的示例。请访问特定于任务的参数和我们API 参考中的更多文档。

获取 Token

使用无服务器推理 API 需要在请求标头中传递用户令牌。您可以通过在 Hugging Face 网站上注册,然后转到令牌页面来获取令牌。我们建议创建一个范围为“对无服务器推理 API 进行调用”的细粒度令牌。

有关用户令牌的更多详细信息,请查看本指南

cURL

curl 'https://api-inference.huggingface.co/models/cardiffnlp/twitter-roberta-base-sentiment-latest' \
-H "Authorization: Bearer hf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" \
-H 'Content-Type: application/json' \
-d '{"inputs": "Today is a great day"}'

Python

您可以使用requests库向推理 API 发出请求。

import requests

API_URL = "https://api-inference.huggingface.co/models/cardiffnlp/twitter-roberta-base-sentiment-latest"
headers = {"Authorization": "Bearer hf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"}
payload = {
    "inputs": "Today is a great day",
}

response = requests.post(API_URL, headers=headers, json=payload)
response.json()

Hugging Face 还提供了一个InferenceClient,它可以为您处理推理。请确保首先使用pip install huggingface_hub安装它。

from huggingface_hub import InferenceClient

client = InferenceClient(
    "cardiffnlp/twitter-roberta-base-sentiment-latest",
    token="hf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
)

client.text_classification("Today is a great day")

JavaScript

import fetch from "node-fetch";

async function query(data) {
    const response = await fetch(
        "https://api-inference.huggingface.co/models/cardiffnlp/twitter-roberta-base-sentiment-latest",
        {
            method: "POST",
            headers: {
                Authorization: `Bearer hf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx`,
                "Content-Type": "application/json",
            },
            body: JSON.stringify(data),
        }
    );
    const result = await response.json();
    return result;
}

query({inputs: "Today is a great day"}).then((response) => {
    console.log(JSON.stringify(response, null, 2));
});

Hugging Face 还提供了一个HfInference客户端来处理推理。请确保首先使用npm install @huggingface/inference安装它。

import { HfInference } from "@huggingface/inference";

const inference = new HfInference("hf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx");

const result = await inference.textClassification({
    model: "cardiffnlp/twitter-roberta-base-sentiment-latest",
    inputs: "Today is a great day",
});

console.log(result);

下一步

现在您已经了解了基础知识,您可以探索API 参考以了解有关特定于任务的设置和参数的更多信息。

< > GitHub 上的更新