Hugging Face 与 Protect AI 合作:为社区增强模型安全性
我们很高兴地宣布与 Protect AI 建立合作伙伴关系,这是我们为机器学习社区提供安全可靠平台的长期承诺的一部分。
Protect AI 是一家以创建更安全的 AI 驱动世界为使命而成立的公司。他们正在开发强大的工具,即 Guardian,以确保 AI 创新的快速发展不会损害安全性。
我们决定与 Protect AI 合作,是因为他们以社区驱动的安全方法、对开源的积极支持以及在安全与 AI 交叉领域的所有专业知识。
有兴趣加入我们的安全合作伙伴关系/在 Hub 上提供扫描信息?请通过 security@huggingface.co 联系我们。
模型安全回顾
为了共享模型,我们将权重、配置和其他用于与模型交互的数据结构序列化,以方便存储和传输。某些序列化格式容易受到恶意攻击,例如任意代码执行(例如 pickle),这使得使用这些格式的共享模型具有潜在危险。
由于 Hugging Face 已成为模型共享的流行平台,我们希望帮助社区免受此类攻击,因此我们开发了诸如 picklescan 等工具,并正在将 Guardian 集成到我们的扫描器套件中。
Pickle 并不是唯一可利用的格式,请参阅此处,了解如何利用 Keras Lambda 层实现任意代码执行。好消息是 Guardian 可以捕获所有这些漏洞以及更多其他文件格式的漏洞——请参阅他们的知识库以获取最新的扫描器信息。
在此处阅读我们所有关于安全的文档:https://huggingface.co/docs/hub/security 🔥
集成
在将 Guardian 作为第三方扫描器集成时,我们借此机会改造了前端以显示扫描结果。现在它看起来是这样的:



从截图中可以看出,您无需执行任何操作即可从中受益!所有公共模型仓库都会在您将文件推送到 Hub 后自动由 Guardian 扫描。这是一个您可以查看以了解此功能实际运行的示例仓库:mcpotato/42-eicar-street。
请注意,由于我们有超过 100 万个模型仓库,您今天可能看不到您的模型的扫描结果。我们可能需要一些时间才能赶上 😅。
我们总共已经扫描了数亿个文件,因为我们相信,赋能社区以安全、无摩擦的方式共享模型将促进整个领域的发展。