Habana Labs 与 Hugging Face 合作加速 Transformer 模型训练
加利福尼亚州,圣克拉拉和旧金山,2022 年 4 月 12 日
在深度学习的驱动下,Transformer 模型在自然语言处理、计算机视觉、语音等广泛的机器学习任务上,都提供了最先进的性能。然而,大规模训练这些模型通常需要大量的计算能力,这使得整个过程变得不必要地漫长、复杂和昂贵。
今天,高效专用深度学习处理器领域的先驱 Habana® Labs 与 Transformer 模型的大本营 Hugging Face 荣幸地宣布,双方将联手让高质量 Transformer 模型的训练变得更轻松、更快捷。得益于 Habana 的 SynapseAI 软件套件与 Hugging Face Optimum 开源库的集成,数据科学家和机器学习工程师现在只需几行代码,就可以在 Habana 处理器上加速他们的 Transformer 训练任务,并享受更高的生产力和更低的训练成本。
为亚马逊 EC2 DL1 实例和超微的 X12 Gaudi AI 训练服务器提供支持的 Habana Gaudi 训练解决方案,其性价比相比同类训练解决方案高出 40%,使客户能够以更低的成本进行更多的训练。每个 Gaudi 处理器上都集成了十个 100G 以太网端口,从而可以轻松且经济高效地将系统从 1 个 Gaudi 扩展到数千个。Habana 的 SynapseAI® 在设计之初就进行了优化,以实现 Gaudi 的高性能和易用性,它支持 TensorFlow 和 PyTorch 框架,并专注于计算机视觉和自然语言处理应用。
Hugging Face 在 Github 上拥有超过 60,000 颗星、超过 30,000 个模型以及数百万的月访问量,是开源软件历史上增长最快的项目之一,也是机器学习社区的首选之地。
通过其硬件合作伙伴计划,Hugging Face 为 Gaudi 的先进深度学习硬件提供了终极的 Transformer 工具集。此次合作将有助于快速扩展 Habana Gaudi 训练的 Transformer 模型库,将 Gaudi 的高效和易用性带给自然语言处理、计算机视觉、语音等广泛的客户用例。
“我们很高兴能与 Hugging Face 及其众多开源开发者合作,以满足对 Transformer 模型日益增长的需求,这些模型将受益于 Gaudi 训练平台的效率、易用性和可扩展性,”Habana Labs 软件产品管理负责人 Sree Ganesan 表示。
“Habana Gaudi 为深度学习模型训练带来了新的效率水平,我们非常高兴能通过 Optimum 库,让 Transformer 用户只需极少的代码改动就能轻松获得这种性能,”Hugging Face 产品总监 Jeff Boudier 说。
要了解如何开始使用 Habana Gaudi 进行训练,请访问 https://developer.habana.ai。
有关 Hugging Face 和 Habana Gaudi 合作的更多信息,请访问 https://huggingface.co/Habana。