介绍三家新的无服务器推理提供商:Hyperbolic、Nebius AI Studio 和 Novita 🔥

发布于 2025 年 2 月 18 日
在 GitHub 上更新

我们激动地宣布,Hugging Face Hub 新增了三家杰出的无服务器推理提供商:HyperbolicNebius AI StudioNovita。这些提供商加入了我们不断壮大的生态系统,扩展了直接在 Hub 模型页面上进行无服务器推理的广度和能力。它们也无缝集成到我们的客户端 SDK (包括 JS 和 Python) 中,让您可以非常轻松地通过您喜欢的提供商使用各种各样的模型。

这些合作伙伴加入了我们现有的提供商行列,其中包括 Together AI、Sambanova、Replicate、fal 和 Fireworks.ai。

新的合作伙伴支持了一大批新模型:DeepSeek-R1、Flux.1 以及许多其他模型。在下方可以找到它们支持的所有模型

我们非常期待看到您将使用这些新的提供商创造出什么!

工作原理

在网站 UI 中

  1. 在您的用户帐户设置中,您可以
  • 为您已注册的提供商设置您自己的 API 密钥。如果未设置自定义密钥,您的请求将通过 HF 进行路由。
  • 按偏好顺序排列提供商。这适用于模型页面中的小组件和代码片段。
Inference Providers
  1. 如上所述,调用推理 API 有两种模式
  • 自定义密钥(调用直接发送到推理服务提供商,使用您自己的相应提供商的 API 密钥)
  • 通过 HF 路由(在这种情况下,您不需要提供商的令牌,费用将直接计入您的 HF 帐户,而不是提供商的帐户)
Inference Providers
  1. 模型页面会展示第三方推理服务提供商(与当前模型兼容的,并按用户偏好排序)
Inference Providers

通过客户端 SDK

通过 Python,使用 huggingface_hub

以下示例展示了如何使用 Hyperbolic 作为推理提供商来运行 DeepSeek-R1。您可以使用 Hugging Face 令牌 通过 Hugging Face 自动路由,或者如果您有自己的 Hyperbolic API 密钥,也可以使用它。

从源代码安装 huggingface_hub (参见说明)。官方支持将很快在 v0.29.0 版本中发布。

from huggingface_hub import InferenceClient

client = InferenceClient(
    provider="hyperbolic",
    api_key="xxxxxxxxxxxxxxxxxxxxxxxx"
)

messages = [
    {
        "role": "user",
        "content": "What is the capital of France?"
    }
]

completion = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-R1", 
    messages=messages, 
    max_tokens=500
)

print(completion.choices[0].message)

以下是如何使用在 Nebius AI Studio 上运行的 FLUX.1-dev 从文本提示生成图像

from huggingface_hub import InferenceClient

client = InferenceClient(
    provider="nebius",
    api_key="xxxxxxxxxxxxxxxxxxxxxxxx"
)

# output is a PIL.Image object
image = client.text_to_image(
    "Bob Marley in the style of a painting by Johannes Vermeer",
    model="black-forest-labs/FLUX.1-schnell"
)

要切换到不同的提供商,您只需更改提供商名称,其他所有内容保持不变

from huggingface_hub import InferenceClient

client = InferenceClient(
-	provider="nebius",
+   provider="hyperbolic",
    api_key="xxxxxxxxxxxxxxxxxxxxxxxx"
)

通过 JS,使用 @huggingface/inference

import { HfInference } from "@huggingface/inference";

const client = new HfInference("xxxxxxxxxxxxxxxxxxxxxxxx");

const chatCompletion = await client.chatCompletion({
    model: "deepseek-ai/DeepSeek-R1",
    messages: [
        {
            role: "user",
            content: "What is the capital of France?"
        }
    ],
    provider: "novita",
    max_tokens: 500
});

console.log(chatCompletion.choices[0].message);

计费

对于直接请求,即当您使用来自推理提供商的密钥时,您将由相应的提供商计费。例如,如果您使用 Nebius AI Studio 的密钥,费用将在您的 Nebius AI Studio 账户上结算。

对于路由请求,即当您通过 Hub 进行身份验证时,您只需支付标准的提供商 API 费率。我们不会额外加价,只是直接传递提供商的成本。(未来,我们可能会与我们的提供商合作伙伴建立收入共享协议。)

重要提示 ‼️ PRO 用户每月可获得价值 2 美元的推理额度。您可以在不同的提供商之间使用这些额度。🔥

订阅 Hugging Face PRO 计划,即可获得推理额度、ZeroGPU、空间开发模式、20 倍更高的限制以及更多功能。

我们还为已登录的免费用户提供带有少量配额的免费推理,但如果可以的话,请升级到 PRO!

反馈与后续步骤

我们期待您的反馈!您可以使用此 Hub 讨论帖:https://huggingface.co/spaces/huggingface/HuggingDiscussions/discussions/49

社区

📻 🎙️ 嘿,我为这篇博文生成了一个 *AI 播客*,快来听听吧!

这个播客是通过 ngxson/kokoro-podcast-generator 生成的,使用了 DeepSeek-R1Kokoro-TTS

此评论已被隐藏

太棒了!

请添加 Groq 模型。

campagnolo wrl s vs ultegra

此评论已被隐藏

注册登录 发表评论