Google Cloud 文档

Hugging Face on Google Cloud

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

Hugging Face on Google Cloud

Hugging Face x Google Cloud

Hugging Face 与 Google 在开放科学、开源、云计算和硬件方面进行合作,使公司能够利用 Hugging Face 最新的开放模型以及 Google Cloud 最新的云和硬件功能来构建自己的 AI。

Hugging Face 为 Google Cloud 客户带来了新的体验。他们可以使用 Hugging Face 深度学习容器 (DLCs),在 Google Cloud 提供的任何硬件上,轻松地在 Google Kubernetes Engine (GKE)、Vertex AI 或 Cloud Run 上训练和部署 Hugging Face 模型。

如果您在使用 Hugging Face on Google Cloud 时遇到任何问题,可以通过在该专门讨论 Google Cloud 用途的论坛上创建一个新主题来获得社区支持。

使用 Hugging Face 深度学习容器在 Google Cloud 上训练和部署模型

Hugging Face 为 Google Cloud 客户构建了深度学习容器 (DLCs),以便他们在优化的环境中运行任何机器学习工作负载,而无需进行任何配置或维护。这些是预装了深度学习框架和库(如 🤗 Transformers、🤗 Datasets 和 🤗 Tokenizers)的 Docker 镜像。DLCs 使您能够直接服务和训练任何模型,从而跳过了从头开始构建和优化服务和训练环境的复杂过程。

对于训练,我们的 DLCs 可通过 🤗 Transformers 用于 PyTorch。它们支持在 GPU 和 TPU 上使用 🤗 TRL、Sentence Transformers 或 🧨 Diffusers 等库进行训练。

对于推理,我们有一个通用的 PyTorch 推理 DLC,用于在 CPU 和 GPU 上服务使用前面提到的任何框架训练的模型。此外,还有一个 Text Generation Inference (TGI) DLC,用于在 GPU 和 TPU 上对 LLM 进行高性能文本生成。最后,还有一个 Text Embeddings Inference (TEI) DLC,用于在 CPU 和 GPU 上对嵌入模型进行高性能服务。

DLCs 托管在Google Cloud Artifact Registry 中,可以从任何 Google Cloud 服务(如 Google Kubernetes Engine (GKE)、Vertex AI 或 Cloud Run)使用。

Hugging Face DLCs 是开源的,在Google-Cloud-Containers 存储库中根据 Apache 2.0 许可证授权。对于付费支持,我们的专家支持计划可为您提供来自我们团队的直接专属支持。

作为 Google Cloud 客户,您有两种选择可以利用这些 DLCs:

  1. 开始使用,您可以在 Vertex AI 或 GKE 中使用我们的无代码集成。
  2. 对于更高级的场景,您可以直接在您的环境中从 Google Cloud Artifact Registry 中拉取容器。此处有一系列笔记本示例。
在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.