Hub 文档
高级计算选项
并获得增强的文档体验
开始使用
高级计算选项
企业版 Hub 组织可以访问高级计算选项,以加速其机器学习之旅。
在您的组织中托管 ZeroGPU Spaces
ZeroGPU 是一种动态 GPU 分配系统,可优化 Hugging Face Spaces 上的 AI 部署。通过根据需要自动分配和释放 NVIDIA A100 GPU(40GB VRAM),组织可以高效地为其 AI 应用程序提供服务,而无需专用 GPU 实例。


组织的关键优势
- 免费 GPU 访问:通过动态分配,免费访问强大的 NVIDIA A100 GPU
- 增强的资源管理:托管多达 50 个 ZeroGPU Spaces,以实现高效的团队范围 AI 部署
- 简化的部署:轻松与基于 PyTorch 的模型、Gradio 应用程序和其他 Hugging Face 库集成
- 企业级基础设施:访问高性能 NVIDIA A100 GPU,每个工作负载配备 40GB VRAM
在 NVIDIA DGX Cloud 上训练
在 NVIDIA DGX Cloud 上训练提供了一种简单的无代码训练作业创建体验,由 Hugging Face AutoTrain 和 Hugging Face Spaces 提供支持。立即访问 NVIDIA GPU,避免编写、测试和调试 AI 模型训练脚本的耗时工作。
工作原理
阅读关于在 NVIDIA DGX Cloud 上训练的博文。
支持的架构
Transformers
架构 |
---|
Llama |
Falcon |
Mistral |
Mixtral |
T5 |
gemma |
Diffusers
架构 |
---|
Stable Diffusion |
Stable Diffusion XL |
定价
在 NVIDIA DGX Cloud 上训练的使用量按训练作业期间使用的 GPU 实例的分钟数计费。使用费会在作业完成后计入您的企业版 Hub 组织的当前月度账单周期。您可以随时在您的企业版 Hub 组织的账单设置中查看您当前和过去的使用情况。
NVIDIA GPU | GPU 内存 | 按需价格/小时 |
---|---|---|
NVIDIA L40S | 48GB | $2.75 |
NVIDIA H100 | 80GB | $8.25 |
NVIDIA NIM API (无服务器)
NVIDIA NIM API(无服务器)提供对 NVIDIA 推理微服务 (NIM) 的访问,该服务由 NVIDIA H100 以无服务器方式提供支持。使用标准化 API 和几行代码,即可在按需付费的定价模型中运行推理。
工作原理
阅读关于使用 Hugging Face 和 NVIDIA NIM 进行无服务器推理的博文。
支持的模型
您可以在此 NVIDIA Collection 中找到所有支持的模型。
定价
NVIDIA NIM API(无服务器)的使用量根据每个请求花费的计算时间计费。使用费会在作业完成后计入您的企业版 Hub 组织的当前月度账单周期。您可以随时在您的企业版 Hub 组织的账单设置中查看您当前和过去的使用情况。
NVIDIA GPU | GPU 内存 | 按需价格/小时 |
---|---|---|
NVIDIA H100 | 80GB | $8.25 |
请求的总成本将取决于模型大小、所需的 GPU 数量以及处理请求所花费的时间。对于每个模型,您可以在此 NVIDIA Collection 的注释中找到使用的硬件配置。
< > 在 GitHub 上更新