Hugging Face 与 Google 合作,共同推进开放人工智能

在 Hugging Face,我们希望所有公司都能利用开放模型和开源技术构建自己的 AI。我们的目标是构建一个开放平台,让数据科学家、机器学习工程师和开发人员能够轻松访问社区的最新模型,并在他们选择的平台中使用这些模型。
今天,我们很高兴地宣布与 Google Cloud 建立战略合作伙伴关系,共同实现机器学习的普及。我们将与 Google 在开放科学、开源、云和硬件方面进行合作,使公司能够利用 Hugging Face 最新的开放模型和 Google Cloud 最新的云和硬件功能构建自己的 AI。
开放科学的合作
从最初的 Transformer 到 Vision Transformer,Google 为开放 AI 研究做出了最重要的贡献,并促使 AI 社区一次一个模型地改变世界,现在 Hugging Face 上托管了超过 100 万个基于 Transformer 模型的模型、数据集和 AI 应用程序。
我们的战略合作伙伴关系将有助于扩大 Google 和 Hugging Face 为使最新 AI 研究更易于社区访问所做的努力。
开源的合作
从 Tensorflow 到 JAX,Google 贡献了一些最重要的开源工具,使研究人员和数据科学家能够构建自己的 AI 模型,并通过快速迭代创建模型性能改进的良性循环。
我们的战略合作伙伴关系将加速我们的合作,通过 Hugging Face 开源库轻松访问最新的 AI 创新,无论您使用哪种框架。
与 Google Cloud 客户的合作
如今,每月有数十万 Hugging Face 用户活跃在 Google Cloud 上,下载模型以创建生成式 AI 应用程序。
我们的战略合作伙伴关系将为 Google Cloud 客户提供新的体验,使他们能够在 Google Kubernetes Engine (GKE) 和 Vertex AI 中轻松训练和部署 Hugging Face 模型。客户将受益于 Google Cloud 中独特的硬件功能,例如 TPU 实例、由 NVIDIA H100 Tensor Core GPU 提供支持的 A3 VM,以及由 Intel Sapphire Rapid CPU 提供支持的 C3 VM。
与 Hugging Face Hub 用户的合作
每月有数百万研究人员、数据科学家、开发人员和 AI 爱好者依赖 Hugging Face Hub 轻松创建和体验最新的 AI 模型和应用程序。
我们与 Google 在开放科学、开源和 Google Cloud 方面的合作成果将提供给 Hugging Face Hub 用户,并在 2024 年全年带来新的体验。模型将通过 Inference Endpoints 轻松部署到 Google Cloud 进行生产。AI 构建者将能够通过 Hugging Face Spaces 上的 TPU 加速他们的应用程序。组织将能够利用他们的 Google Cloud 账户轻松管理他们的企业 Hub 订阅的使用和计费。
接下来
我们迫不及待地想为您提供这些新体验。敬请期待本季度开始的公告!现在,我们与您分享我们 CEO 的寄语:
“Google Cloud 和 Hugging Face 秉持共同的愿景,即让生成式 AI 更易于开发者访问并产生更大的影响力。此次合作确保 Hugging Face 上的开发者能够访问 Google Cloud 专门构建的 AI 平台 Vertex AI,以及我们安全的 инфраструктура,这将加速下一代 AI 服务和应用程序的开发,” Google Cloud 首席执行官 Thomas Kurian 表示。
“通过此次新的合作,我们将使 Hugging Face 用户和 Google Cloud 客户能够轻松地将最新的开放模型与 Google Cloud 领先的优化 AI 基础设施和工具(包括 Vertex AI 和 TPU)结合使用,从而显著提升开发者构建自己 AI 模型的能力,” Hugging Face 首席执行官 Clement Delangue 表示。