Hub 文档

高级计算选项

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

高级计算选项

此功能是企业版 Hub 的一部分。

企业版 Hub 组织可以访问高级计算选项,以加速其机器学习之旅。

在您的组织中托管 ZeroGPU Spaces

ZeroGPU 是一种动态 GPU 分配系统,可优化 Hugging Face Spaces 上的 AI 部署。通过根据需要自动分配和释放 NVIDIA A100 GPU(40GB VRAM),组织可以高效地为其 AI 应用程序提供服务,而无需专用 GPU 实例。

screenshot of Hugging Face Advanced Compute Options (ZeroGPU)

组织的关键优势

  • 免费 GPU 访问:通过动态分配,免费访问强大的 NVIDIA A100 GPU
  • 增强的资源管理:托管多达 50 个 ZeroGPU Spaces,以实现高效的团队范围 AI 部署
  • 简化的部署:轻松与基于 PyTorch 的模型、Gradio 应用程序和其他 Hugging Face 库集成
  • 企业级基础设施:访问高性能 NVIDIA A100 GPU,每个工作负载配备 40GB VRAM

了解更多关于 ZeroGPU 的信息 →

在 NVIDIA DGX Cloud 上训练

在 NVIDIA DGX Cloud 上训练提供了一种简单的无代码训练作业创建体验,由 Hugging Face AutoTrain 和 Hugging Face Spaces 提供支持。立即访问 NVIDIA GPU,避免编写、测试和调试 AI 模型训练脚本的耗时工作。

工作原理

阅读关于在 NVIDIA DGX Cloud 上训练的博文。

支持的架构

Transformers

架构
Llama
Falcon
Mistral
Mixtral
T5
gemma

Diffusers

架构
Stable Diffusion
Stable Diffusion XL

定价

在 NVIDIA DGX Cloud 上训练的使用量按训练作业期间使用的 GPU 实例的分钟数计费。使用费会在作业完成后计入您的企业版 Hub 组织的当前月度账单周期。您可以随时在您的企业版 Hub 组织的账单设置中查看您当前和过去的使用情况。

NVIDIA GPU GPU 内存 按需价格/小时
NVIDIA L40S 48GB $2.75
NVIDIA H100 80GB $8.25

NVIDIA NIM API (无服务器)

NVIDIA NIM API(无服务器)提供对 NVIDIA 推理微服务 (NIM) 的访问,该服务由 NVIDIA H100 以无服务器方式提供支持。使用标准化 API 和几行代码,即可在按需付费的定价模型中运行推理。

工作原理

阅读关于使用 Hugging Face 和 NVIDIA NIM 进行无服务器推理的博文。

支持的模型

您可以在此 NVIDIA Collection 中找到所有支持的模型。

定价

NVIDIA NIM API(无服务器)的使用量根据每个请求花费的计算时间计费。使用费会在作业完成后计入您的企业版 Hub 组织的当前月度账单周期。您可以随时在您的企业版 Hub 组织的账单设置中查看您当前和过去的使用情况。

NVIDIA GPU GPU 内存 按需价格/小时
NVIDIA H100 80GB $8.25

请求的总成本将取决于模型大小、所需的 GPU 数量以及处理请求所花费的时间。对于每个模型,您可以在此 NVIDIA Collection 的注释中找到使用的硬件配置。

< > 在 GitHub 上更新