text-embeddings-inference 文档

为 TEI 构建自定义容器

Hugging Face's logo
加入 Hugging Face 社区

并获取增强的文档体验

开始

为 TEI 构建自定义容器

您可以使用 Docker 构建自己的 CPU 或 CUDA TEI 容器。要构建 CPU 容器,请在包含自定义 Dockerfile 的目录中运行以下命令

docker build .

要构建 CUDA 容器,必须确定运行时将使用的 GPU 的计算能力(compute cap)。此信息对于正确配置 CUDA 容器至关重要。以下是各种 GPU 类型的运行时计算能力示例

  • Turing (T4, RTX 2000 series, …) - runtime_compute_cap=75
  • A100 - runtime_compute_cap=80
  • A10 - runtime_compute_cap=86
  • Ada Lovelace (RTX 4000 series, …) - runtime_compute_cap=89
  • H100 - runtime_compute_cap=90

一旦确定了计算能力,请将其设置为 runtime_compute_cap 变量,并按照以下示例构建容器

runtime_compute_cap=80

docker build . -f Dockerfile-cuda --build-arg CUDA_COMPUTE_CAP=$runtime_compute_cap
< > 在 GitHub 上更新