我们在多大程度上应对我们的内容负责以及如何创建更安全的空间?

社区文章 发布于 2024 年 8 月 30 日

这是一篇简短的博客,阐述了围绕以下问题的一些思考:我们在多大程度上应对我们的内容负责以及如何创建更安全的空间?这当然与 Telegram 首席执行官 Pavel Durov 相关,但对你我这样的人来说也同样重要。

😅 我的“糟糕”时刻。我用 Flux 模型创建了一个空间,结果生成了一些不恰当的内容。于是,我与 Hugging Face 的一些同事进行了一次关于创建安全 AI 的小讨论。以下是你可以做的一些事!👇

🔦 道德团队收集了许多工具和想法,帮助所有者保护其代码并防止滥用。这里可以找到几种创建更安全空间的方法:https://huggingface.co/collections/society-ethics/provenance-watermarking-and-deepfake-detection-65c6792b0831983147bb7578

📷 使用 AI 分类器过滤掉有害或不恰当的内容。这是一种简单但有效的方法,可以及时阻止滥用。对于 Stable Diffusion,我们已经实现了一个基本基线,以阻止基本关键字和术语:https://github.com/huggingface/diffusers/blob/main/src/diffusers/pipelines/stable_diffusion/safety_checker.py

📊 跟踪使用情况:考虑以某种方式监控用户活动,例如记录 IP 地址。虽然存在隐私问题和 GDPR 相关的注意事项,但这有助于检测和防止滥用。

⚓ 大多数内容平台都遵循国际避风港原则,如果它们不知道存在非法内容(出于隐私原因,你根本无法知道),并且如果它们在知情后迅速采取行动,则不应对非法内容负责:https://en.wikipedia.org/wiki/International_Safe_Harbor_Privacy_Principles

📜 明确指南:设定透明的使用政策。确保用户了解什么是可接受的以及违反规则的后果。Hugging Face 也有一些这样的指南:https://huggingface.co/content-guidelines

⚖️ 使用 LLM 的开源产品的法律条款:今天早上我看到了 Comet ML 的 Gideon Mendels 的这篇帖子,他分享了公共法律条款,这些条款应该涵盖 LLM 在生产中使用中常见的风险场景:https://gist.github.com/gidim/18e1685f6a47b235e393e57bad89d454

感谢讨论 🤓 Noemie Chirokoff, Margaret Mitchell, Omar Sanseviero, Bruna Sellin Trevelin

社区

注册登录 发表评论