在 AWS 上部署的文档

AWS 上可用的 DLC

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

AWS 上可用的 DLC

以下列出了 AWS 上所有可用的深度学习容器 (DLC)。

针对每种支持的使用场景(训练、推理)、加速器类型(CPU、GPU、Neuron)和框架(PyTorch、TGI、TEI)组合都创建了容器。

用于在 AWS Trainium 和 AWS Inferentia 实例上进行训练和推理的 Neuron DLC 可以在Optimum Neuron 文档中找到。

训练

Pytorch 训练 DLC:对于训练,我们的 DLC 通过 Transformers 可用于 PyTorch。它们支持在 GPU 和 AWS AI 芯片上进行训练,并使用 TRL、Sentence Transformers 或 Diffusers 等库。

您还可以在此处跟踪最新的 Pytorch 训练 DLC 版本。

容器 URI 加速器
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-training:2.5.1-transformers4.49.0-gpu-py311-cu124-ubuntu22.04 GPU
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-training-neuronx:2.1.2-transformers4.48.1-neuronx-py310-sdk2.20.0-ubuntu20.04 Neuron

推理

Pytorch 推理 DLC

对于推理,我们有一个通用的 PyTorch 推理 DLC,用于在 CPU、GPU 和 AWS AI 芯片上提供使用上述任何框架训练的模型。

您还可以在此处跟踪最新的 Pytorch 推理 DLC 版本。

容器 URI 加速器
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-inference:2.6.0-transformers4.49.0-cpu-py312-ubuntu22.04- CPU
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-inference:2.6.0-transformers4.49.0-gpu-py312-cu124-ubuntu22.04 GPU
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-inference-neuronx:2.1.2-transformers4.43.2-neuronx-py310-sdk2.20.0-ubuntu20.04 Neuron

LLM TGI

还有 LLM 文本生成推理 (TGI) DLC,用于在 GPU 和 AWS AI 芯片上进行 LLM 的高性能文本生成。

您还可以在此处跟踪最新的 LLM TGI DLC 版本。

容器 URI 加速器
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-tgi-inference:2.7.0-tgi3.3.4-gpu-py311-cu124-ubuntu22.04 GPU
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-tgi-inference:2.1.2-optimum0.0.28-neuronx-py310-ubuntu22.04 Neuron

文本嵌入推理

最后,还有一个文本嵌入推理 (TEI) DLC,用于在 CPU 和 GPU 上高性能地提供嵌入模型。

容器 URI 加速器
683313688378.dkr.ecr.us-east-1.amazonaws.com/tei-cpu:tei1.7.1-cpu-ubuntu22.04 CPU
683313688378.dkr.ecr.us-east-1.amazonaws.com/tei:tei1.7.1-gpu-cu122-ubuntu22.04 GPU

常见问题

如何为我的用例选择正确的推理容器?

inference-dlc-decision-tree

注意:请参阅此处获取推理工具包中支持的任务列表。

注意:浏览 Hub 以查看您的模型是否标记为“text-generation-inference”“text-embeddings-inference”

如何查找我的容器的 URI?

URI 由 AWS 账户 ID 和 AWS 区域构建。这两个值需要根据您的用例进行替换。假设您想在 GPU 上使用训练 DLC

  • dlc-aws-account-id:拥有 ECR 存储库的 AWS 账户的 AWS 账户 ID。您可以在此处找到它们
  • region:您要使用它的 AWS 区域。

如何更简单地查找我的容器的 URI?

Python SagemMaker SDK 实用函数并不总是最新的,但它比您自己重建镜像 URI 要简单得多。

from sagemaker.huggingface import HuggingFaceModel, get_huggingface_llm_image_uri

print(f"TGI GPU: {get_huggingface_llm_image_uri('huggingface')}")
print(f"TEI GPU: {get_huggingface_llm_image_uri('huggingface-tei')}")
print(f"TEI CPU: {get_huggingface_llm_image_uri('huggingface-tei-cpu')}")
print(f"TGI Neuron: {get_huggingface_llm_image_uri('huggingface-neuronx')}")

对于 Pytorch 训练和 Pytorch 推理 DLC,没有此类实用程序。

< > 在 GitHub 上更新