Microsoft Azure 文档
从 Hugging Face Hub 到 Azure ML 的一键部署
并获得增强的文档体验
开始使用
从 Hugging Face Hub 到 Azure ML 的一键部署
本指南介绍了 Hugging Face Hub 和 Azure 机器学习 (Azure ML) 开源模型的一键部署,用于实时推理。
TL;DR Hugging Face Hub 是一个协作平台,托管着超过一百万个开源机器学习模型、数据集和演示。它支持自然语言处理、视觉和音频领域的广泛任务,并提供带有元数据、模型卡以及通过 API 和流行 ML 库进行程序化访问的版本控制存储库。Azure 机器学习是一个基于云的平台,用于大规模构建、部署和管理机器学习模型。它提供托管基础设施,包括强大的 CPU 和 GPU 实例、自动化伸缩、安全端点和监控,使其适用于实验和生产部署。
Hugging Face Hub 和 Azure ML 之间的集成允许用户以最少的配置直接将数千个 Hugging Face 模型部署到 Azure 的托管基础设施上。这是通过 Azure ML Studio 中的本地模型目录实现的,该目录包含可用于实时部署的 Hugging Face 模型。
将 Hugging Face Hub 中的开源模型部署到 Azure ML 作为托管在线端点进行实时推理的步骤如下:
访问 Hugging Face Hub 模型页面,浏览 Hub 上所有可用的开源模型。
或者,您也可以直接从 Azure ML 模型目录中的 Hugging Face 集合开始,而不是 Hugging Face Hub,然后使用 Azure ML 模型目录筛选器探索可用的模型,以部署您想要的模型。
利用 Hub 筛选器,您可以轻松地根据任务类型、参数数量、推理引擎支持等筛选条件查找和发现新模型。
选择您想要的模型,在其模型卡中点击“部署”按钮,然后选择“Azure ML”选项,再点击“在 Azure ML 中前往模型”。请注意,模型可能不可用以进行部署,这意味着某些模型的“部署”按钮可能未启用;或者可能未列出“Azure ML”选项,这意味着该模型不受 Azure ML 支持的任何推理引擎或任务支持;或者“Azure ML”按钮可用,但显示“请求添加”,这意味着该模型目前不可用但可以发布,因此您可以请求将其添加到 Azure ML 模型目录中的 Hugging Face 集合。
在 Azure ML Studio 上,您将被重定向到模型卡,您需要点击“使用此模型”,并填写端点和部署的配置值,例如端点名称、实例类型或实例计数等;然后点击“部署”。
端点创建成功且部署准备就绪后,您将能够向已部署的 API 发送请求。有关如何发送推理请求的更多信息,您可以查看 Azure ML 端点中的“使用”选项卡,或查看文档中任何可用的 Azure ML 示例。
更多信息可以在 Hugging Face Hub 在 Azure ML 上一键部署功能的原始公告中找到,地址为 Hugging Face 与 Microsoft 合作在 Azure 上推出 Hugging Face 模型目录。
< > 在 GitHub 上更新