Google Cloud 文档
Hugging Face on Google Cloud
并获得增强的文档体验
开始使用
Hugging Face on Google Cloud
![]()
Hugging Face 与 Google 在开放科学、开源、云计算和硬件方面进行合作,使公司能够利用 Hugging Face 最新的开放模型以及 Google Cloud 最新的云和硬件功能来构建自己的 AI。
Hugging Face 为 Google Cloud 客户带来了新的体验。他们可以使用 Hugging Face 深度学习容器 (DLCs),在 Google Cloud 提供的任何硬件上,轻松地在 Google Kubernetes Engine (GKE)、Vertex AI 或 Cloud Run 上训练和部署 Hugging Face 模型。
如果您在使用 Hugging Face on Google Cloud 时遇到任何问题,可以通过在该专门讨论 Google Cloud 用途的论坛上创建一个新主题来获得社区支持。
使用 Hugging Face 深度学习容器在 Google Cloud 上训练和部署模型
Hugging Face 为 Google Cloud 客户构建了深度学习容器 (DLCs),以便他们在优化的环境中运行任何机器学习工作负载,而无需进行任何配置或维护。这些是预装了深度学习框架和库(如 🤗 Transformers、🤗 Datasets 和 🤗 Tokenizers)的 Docker 镜像。DLCs 使您能够直接服务和训练任何模型,从而跳过了从头开始构建和优化服务和训练环境的复杂过程。
对于训练,我们的 DLCs 可通过 🤗 Transformers 用于 PyTorch。它们支持在 GPU 和 TPU 上使用 🤗 TRL、Sentence Transformers 或 🧨 Diffusers 等库进行训练。
对于推理,我们有一个通用的 PyTorch 推理 DLC,用于在 CPU 和 GPU 上服务使用前面提到的任何框架训练的模型。此外,还有一个 Text Generation Inference (TGI) DLC,用于在 GPU 和 TPU 上对 LLM 进行高性能文本生成。最后,还有一个 Text Embeddings Inference (TEI) DLC,用于在 CPU 和 GPU 上对嵌入模型进行高性能服务。
DLCs 托管在Google Cloud Artifact Registry 中,可以从任何 Google Cloud 服务(如 Google Kubernetes Engine (GKE)、Vertex AI 或 Cloud Run)使用。
Hugging Face DLCs 是开源的,在Google-Cloud-Containers 存储库中根据 Apache 2.0 许可证授权。对于付费支持,我们的可为您提供来自我们团队的直接专属支持。
作为 Google Cloud 客户,您有两种选择可以利用这些 DLCs:
- 要开始使用,您可以在 Vertex AI 或 GKE 中使用我们的无代码集成。
- 对于更高级的场景,您可以直接在您的环境中从 Google Cloud Artifact Registry 中拉取容器。此处有一系列笔记本示例。