推理提供商文档

Hyperbolic:按需AI云

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

Hyperbolic:按需AI云

所有受支持的Hyperbolic模型都可以在此处找到

加入165,000+开发者,使用按需GPU构建应用,并在最新模型上运行推理——比传统云便宜75%。

Hyperbolic是为全球领先AI项目提供动力的基础设施。受到Hugging Face、Vercel、Google、Quora、Chatbot Arena、Open Router、Black Forest Labs、Reve.art、Stanford、UC Berkeley等的信任。


产品与服务

GPU市场

Hyperbolic提供全球计算网络,以最低价格解锁按需GPU租赁。几秒钟内即可启动,并持续运行。

批量租赁

预留专用GPU,保证正常运行时间并享受折扣预付费价格——非常适合24/7推理、LLM工具、训练和扩展生产工作负载,避免高峰时段短缺。

无服务器推理

运行最新模型,同时与OpenAI和许多其他生态系统完全API兼容。

专用托管

在具有私有端点的单租户GPU上运行LLM、VLM或扩散模型。可以自带权重或使用开放模型。完全控制,按小时计费。适用于24/7推理或每分钟10万+令牌的工作负载。


定价

  • GPU租赁起价为**$0.16/GPU/小时**
  • 推理成本比竞争对手**便宜3-10倍**

有关最新价格,请访问我们的定价页面


资源

支持的任务

聊天补全 (LLM)

了解更多关于聊天补全 (LLM) 的信息,请点击这里

import os
from huggingface_hub import InferenceClient

client = InferenceClient(
    provider="hyperbolic",
    api_key=os.environ["HF_TOKEN"],
)

completion = client.chat.completions.create(
    model="openai/gpt-oss-120b",
    messages=[
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ],
)

print(completion.choices[0].message)

聊天补全 (VLM)

了解更多关于聊天补全 (VLM) 的信息,请点击这里

import os
from huggingface_hub import InferenceClient

client = InferenceClient(
    provider="hyperbolic",
    api_key=os.environ["HF_TOKEN"],
)

completion = client.chat.completions.create(
    model="Qwen/Qwen2.5-VL-7B-Instruct",
    messages=[
        {
            "role": "user",
            "content": [
                {
                    "type": "text",
                    "text": "Describe this image in one sentence."
                },
                {
                    "type": "image_url",
                    "image_url": {
                        "url": "https://cdn.britannica.com/61/93061-050-99147DCE/Statue-of-Liberty-Island-New-York-Bay.jpg"
                    }
                }
            ]
        }
    ],
)

print(completion.choices[0].message)
< > 在 GitHub 上更新