google-cloud 文档

Hugging Face 与 Google Cloud

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

Hugging Face 与 Google Cloud

Hugging Face x Google Cloud

Hugging Face 与 Google 在开放科学、开源、云和硬件领域展开合作,旨在帮助企业利用 Hugging Face 最新的开放模型以及 Google Cloud 最新的云和硬件功能来构建自己的 AI。

Hugging Face 为 Google Cloud 客户提供新的体验。他们可以利用 Hugging Face 深度学习容器 (DLC) 轻松地在 Google Kubernetes Engine (GKE) 和 Vertex AI 上,以及 Google Cloud 中可用的任何硬件上训练和部署 Hugging Face 模型。

如果您在使用 Google Cloud 上的 Hugging Face 时遇到任何问题,可以在专门用于 Google Cloud 使用的论坛中创建一个新主题以获得社区支持。

使用 Hugging Face 深度学习容器在 Google Cloud 上训练和部署模型

Hugging Face 为 Google Cloud 客户构建了深度学习容器 (DLC),以便他们在优化的环境中运行任何机器学习工作负载,而无需进行配置或维护。这些是预装了深度学习框架和库(如 🤗 Transformers、🤗 Datasets 和 🤗 Tokenizers)的 Docker 镜像。DLC 允许您直接提供和训练任何模型,从而省去了从头开始构建和优化提供和训练环境的复杂过程。

对于训练,我们的 DLC 可通过 🤗 Transformers 用于 PyTorch。它们支持使用 🤗 TRL、Sentence Transformers 或 🧨 Diffusers 等库在 GPU 和 TPU 上进行训练。

对于推理,我们有一个通用 PyTorch 推理 DLC,用于在 CPU 和 GPU 上提供使用前面提到的任何框架训练的模型。此外,还有用于在 GPU 和 TPU 上高性能生成 LLM 文本的文本生成推理 (TGI) DLC。最后,还有一个文本嵌入推理 (TEI) DLC,用于在 CPU 和 GPU 上高性能提供嵌入模型。

这些 DLC 托管在Google Cloud Artifact Registry中,并且可以从任何 Google Cloud 服务(如 Google Kubernetes Engine (GKE)、Vertex AI 或 Cloud Run(预览版))中使用。

Hugging Face DLC 是开源的,并在Google-Cloud-Containers仓库中以 Apache 2.0 许可。如需高级支持,我们的专家支持计划为您提供我们团队的直接专属支持。

作为 Google Cloud 客户,您可以通过两种方式利用这些 DLC

  1. 开始使用,您可以在 Vertex AI 或 GKE 中使用我们的无代码集成。
  2. 对于更高级的场景,您可以直接从 Google Cloud Artifact Registry 将容器拉取到您的环境中。此处是笔记本示例列表。
< > 在 GitHub 上更新