Fetch 整合人工智能工具并使用 Hugging Face on AWS 节省 30% 开发时间

发布于 2023 年 2 月 23 日
在 GitHub 上更新

如果您在使用 Hugging Face 和 AWS 方面需要支持,请点击此处联系我们——我们的团队将与您联系讨论您的需求!

执行摘要

消费者奖励公司 Fetch 开发了约 15 种不同的人工智能工具,以帮助其接收、路由、读取、处理、分析和存储用户上传的收据。该公司拥有超过 1800 万的活跃月用户,使用其购物奖励应用程序。Fetch 希望重建其 AI 驱动的平台,并在 Amazon Web Services (AWS) 和 AWS 合作伙伴 Hugging Face 的支持下,从使用第三方应用程序转向开发自己的工具,以更好地洞察客户。消费者扫描收据——或转发电子收据——以获得购买奖励积分。商家可以向用户提供特殊奖励,例如购买特定产品可获得额外积分。该公司现在每天可以更快地处理超过 1100 万张收据,并获得更好的数据。

Fetch 需要一种可扩展的方式来更快地训练 AI

Fetch——前身为 Fetch Rewards——自成立以来,已发展到每月服务 1800 万活跃用户,他们每天扫描 1100 万张收据以赚取奖励积分。用户只需拍摄收据照片,然后使用该公司的应用程序上传即可。用户还可以上传电子收据。收据可获得积分;如果收据来自 Fetch 的品牌合作伙伴,则可能符合获得额外积分的促销资格。这些积分可以兑换众多合作伙伴的礼品卡。但扫描只是开始。一旦 Fetch 收到收据,它必须对其进行处理,提取数据和分析,并归档数据和收据。它一直在使用运行在 AWS 上的人工智能 (AI) 工具来完成这项工作。

该公司曾使用第三方 AI 解决方案来处理收据,但发现未能获得所需的数据洞察。Fetch 的业务合作伙伴希望了解客户如何参与其促销活动,而 Fetch 没有所需的粒度来每天从数百万张收据中提取和处理数据。“Fetch 曾使用第三方供应商作为其处理收据的‘大脑’,但仅靠扫描是不够的,”Fetch 的计算机视觉科学家 Boris Kogan 说。“那个解决方案是一个黑箱,我们无法控制或洞察它的运作方式。我们只能接受结果。我们无法向我们的业务合作伙伴提供他们想要的信息。”

Kogan 加入 Fetch 的任务是为公司构建全面的机器学习 (ML) 和 AI 专业知识,并使其能够完全访问其接收到的数据的所有方面。为此,他雇佣了一个工程师团队来实现他的愿景。“我们的所有基础设施都运行在 AWS 上,我们也依赖 AWS 产品来训练我们的模型,”Kogan 说。“当团队开始着手创建自己的‘大脑’时,我们当然首先需要训练我们的模型,我们就是在 AWS 上完成的。我们为该项目分配了 12 个月的时间,并提前 8 个月完成了,因为我们总是拥有所需的资源。”

Hugging Face 揭开黑箱

Fetch 团队通过 AWS Marketplace 上的 Hugging Face 专家加速计划,与 AWS 合作伙伴 Hugging Face 合作,帮助 Fetch 释放新工具,以支持扫描上传后的处理流程。Hugging Face 是开源人工智能领域的领导者,并为企业使用人工智能提供指导。包括 Fetch 在内的许多企业都使用 Hugging Face 的 Transformer 模型,这使得用户可以在几分钟内训练和部署开源 ML 模型。“Transformer 模型的便捷访问始于 Hugging Face,他们在这方面做得非常出色,”Kogan 说。Fetch 和 Hugging Face 团队合作识别和训练最先进的文档 AI 模型,改进实体解析和语义搜索。

在这种合作关系中,Hugging Face 扮演了顾问角色,向 Fetch 工程师传授知识,帮助他们更有效地利用其资源。“Fetch 拥有一支优秀的团队,”Hugging Face 的机器学习工程师 Yifeng Yin 说。“他们不需要我们来运行或构建项目。他们想学习如何使用 Hugging Face 来训练他们正在构建的模型。我们向他们展示了如何使用这些资源,然后他们就付诸实践了。” 在 Yifeng 的指导下,Fetch 成功将开发时间缩短了 30%。

由于它正在构建自己的 AI 和 ML 模型来取代第三方“大脑”,因此在切换之前需要确保一个能够产生良好结果的稳健系统。Fetch 需要在不中断每天数百万张收据流的情况下完成这项工作。“在推出任何东西之前,我们构建了一个影子管道,”Fetch 的首席机器学习工程师 Sam Corzine 说。“我们获取了所有数据,并在我们的新 ML 管道中重新处理它们。我们可以对所有内容进行审计。它以全量运行,重新处理所有 1100 万张收据,并对它们进行分析,持续了一段时间,然后才将任何数据纳入主数据字段。黑箱仍然在运行,我们正在对照它检查我们的结果。”该解决方案使用 Amazon SageMaker——它允许企业使用完全托管的基础设施、工具和工作流来构建、训练和部署适用于任何用例的 ML 模型。它还使用 AWS Inferentia 加速器,以最低成本为深度学习 (DL) 推理应用程序提供高性能。


Fetch 提升 AI 专业能力,将延迟降低 50%,并节省成本

Fetch 致力于发展内部机器学习和人工智能能力,带来了多项益处,包括一些成本节约,但更重要的是开发了一项更好地满足客户需求的服务。“对于任何应用程序,你都必须给客户一个不断回来的理由,”Corzine 说。“我们通过更快地处理上传,提高了客户响应速度,将处理延迟降低了 50%。如果你让客户等待太久,他们就会脱离。客户使用 Fetch 的次数越多,我们和我们的合作伙伴就越能更好地了解什么对他们来说是重要的。通过构建我们自己的模型,我们获得了以前从未有过的详细信息。”

该公司现在可以在几小时内训练一个模型,而不是过去需要几天或几周。开发时间也减少了约 30%。虽然可能无法量化,但另一个主要好处是为 Fetch 奠定了更稳定的基础。“依赖第三方黑箱给我们带来了相当大的业务风险,”Corzine 说。“由于 Hugging Face 及其社区的存在,我们能够利用这些工具并与该社区合作。归根结底,我们现在掌握了自己的命运。”

现在 Fetch 已成为一家 AI 优先的公司,而不是一家使用第三方 AI“大脑”的公司,它正继续改进对客户的服务,并更好地了解客户行为。“Hugging Face 和 AWS 为我们提供了所需的设施和资源,”Kogan 说。“Hugging Face 已经将 Transformer 模型普及化,这些模型以前几乎不可能训练,现在任何人都可以使用它们。没有它们,我们不可能做到这一点。”

本文转载自 2024 年 2 月 AWS 网站上发布的原始帖子。

社区

注册登录发表评论