使用 GPU 空间
您可以使用空间顶部导航栏中的“设置”按钮将您的空间升级为使用 GPU 加速器。如果您正在为副项目构建一个酷炫的演示,甚至可以请求免费升级!
从长远来看,我们还希望公开非 GPU 硬件,例如 HPU、IPU 或 TPU。如果您有想要运行的特定 AI 硬件,请告知我们(网站:huggingface.co)。
一旦您的空间在 GPU 上运行,您就可以直接从此徽章中查看它正在运行的硬件
硬件规格
在下表中,您可以查看不同升级选项的规格。
CPU
硬件 | CPU | 内存 | GPU 内存 | 磁盘 | 每小时价格 |
---|---|---|---|---|---|
CPU 基础版 | 2 个 vCPU | 16 GB | - | 50 GB | 免费! |
CPU 升级版 | 8 个 vCPU | 32 GB | - | 50 GB | $0.03 |
GPU
硬件 | CPU | 内存 | GPU 内存 | 磁盘 | 每小时价格 |
---|---|---|---|---|---|
Nvidia T4 - 小型 | 4 个 vCPU | 15 GB | 16 GB | 50 GB | $0.40 |
Nvidia T4 - 中型 | 8 个 vCPU | 30 GB | 16 GB | 100 GB | $0.60 |
Nvidia A10G - 小型 | 4 个 vCPU | 15 GB | 24 GB | 110 GB | $1.00 |
Nvidia A10G - 大型 | 12 个 vCPU | 46 GB | 24 GB | 200 GB | $1.50 |
2x Nvidia A10G - 大型 | 24 个 vCPU | 92 GB | 48 GB | 1000 GB | $3.00 |
4x Nvidia A10G - 大型 | 48 个 vCPU | 184 GB | 96 GB | 2000 GB | $5.00 |
Nvidia A100 - 大型 | 12 个 vCPU | 142 GB | 40 GB | 1000 GB | $4.00 |
1x Nvidia L40S | 8 个 vCPU | 62 GB | 48 GB | 380 GB | $1.80 |
4x Nvidia L40S | 48 个 vCPU | 48 GB | 192 GB | 3200 GB | $8.30 |
8x Nvidia L40S | 192 个 vCPU | 1534 GB | 384 GB | 6500 GB | $23.50 |
Nvidia H100 | 24 个 vCPU | 250 GB | 80 GB | 3000 GB | $10.00 |
8x Nvidia H100 | 192 个 vCPU | 2 TB | 640 GB | 3000 GB | 即将推出 |
TPU
硬件 | 加速器 | 加速器内存 | RAM | 每小时价格 |
---|---|---|---|---|
Google TPU v5e - 1x1 | 1 | 16 GB | 44 GB | $1.38 |
Google TPU v5e - 2x2 | 4 | 64 GB | 186 GB | $5.50 |
Google TPU v5e - 2x4 | 8 | 128 GB | 380 GB | $11.00 |
以编程方式配置硬件
您可以使用 huggingface_hub
以编程方式配置您的空间硬件。这允许您在需要动态分配 GPU 的各种用例中使用。查看本指南以了解更多详细信息。
框架特定要求
大多数空间在 GPU 升级后应该能够开箱即用,但有时您需要安装您使用的机器学习框架的 CUDA 版本。请遵循本指南以确保您的空间利用改进的硬件。
PyTorch
您需要安装与内置 CUDA 驱动程序兼容的 PyTorch 版本。将以下两行添加到您的 requirements.txt
文件中应该可以解决问题
--extra-index-url https://download.pytorch.org/whl/cu113
torch
您可以通过在您的 app.py
中运行以下代码并在您的空间日志中检查输出,来验证安装是否成功
import torch
print(f"Is CUDA available: {torch.cuda.is_available()}")
# True
print(f"CUDA device: {torch.cuda.get_device_name(torch.cuda.current_device())}")
# Tesla T4
许多框架在有 GPU 可用时会自动使用它。这是 🤗 transformers
、fastai
和许多其他管道的情况。在其他情况下,或者如果您直接使用 PyTorch,您可能需要将您的模型和数据移动到 GPU 以确保计算在加速器上完成,而不是在 CPU 上完成。例如,您可以使用 PyTorch 的 .to()
语法
model = load_pytorch_model()
model = model.to("cuda")
JAX
如果您使用 JAX,则需要指定包含 CUDA 兼容包的 URL。请将以下几行添加到您的 requirements.txt
文件中
-f https://storage.googleapis.com/jax-releases/jax_cuda_releases.html
jax[cuda11_pip]
jaxlib
之后,您可以通过打印以下代码的输出并在您的空间日志中检查它来验证安装。
import jax
print(f"JAX devices: {jax.devices()}")
# JAX devices: [StreamExecutorGpuDevice(id=0, process_index=0)]
print(f"JAX device type: {jax.devices()[0].device_kind}")
# JAX device type: Tesla T4