Diffusers 文档
🧨 Diffusers 道德准则
并获得增强的文档体验
开始使用
🧨 Diffusers 道德准则
前言
Diffusers 提供了预训练的扩散模型,并作为一个模块化的工具箱用于推理和训练。
鉴于其在现实世界中的应用及其对社会的潜在负面影响,我们认为有必要为该项目提供道德准则,以指导 Diffusers 库的开发、用户贡献和使用。
与使用该技术相关的风险仍在审查中,但举几个例子:艺术家的版权问题;深度伪造的滥用;在不当情境下生成色情内容;未经同意的冒充;有害的社会偏见固化了对边缘群体的压迫。我们将持续跟踪风险,并根据社区的响应和宝贵反馈来调整以下准则。
适用范围
Diffusers 社区将把以下道德准则应用于项目的开发,并帮助协调社区如何整合贡献,特别是在涉及与道德问题相关的敏感主题时。
道德准则
以下道德准则普遍适用,但我们将在处理道德敏感问题并做出技术选择时主要实施它们。此外,我们承诺随着相关技术最前沿出现的新危害,不断调整这些道德原则。
透明度:我们承诺在管理 PR、向用户解释我们的选择以及做出技术决策时保持透明。
一致性:我们致力于保证为用户提供同等水平的项目管理关注度,保持其技术上的稳定性和一致性。
简洁性:为了使 Diffusers 库易于使用和开发,我们承诺保持项目目标精简和连贯。
可访问性:Diffusers 项目有助于降低贡献者的入门门槛,即使没有技术专长的人也能帮助运行它。这样做可以使研究成果更容易被社区所用。
可复现性:我们的目标是在上游代码、模型和数据集通过 Diffusers 库提供时,对其可复现性保持透明。
责任感:作为一个社区,通过团队合作,我们对用户负有集体责任,通过预见和减轻该技术的潜在风险和危险。
实施示例:安全特性和机制
团队每天都在努力提供技术和非技术工具,以应对与扩散技术相关的潜在道德和社会风险。此外,社区的意见对于确保这些功能的实施和与我们一起提高认识是无价的。
社区选项卡:它使社区能够在一个项目上进行讨论和更好的协作。
偏见探索和评估:Hugging Face 团队提供了一个空间,以交互方式展示 Stable Diffusion 中的偏见。在这个意义上,我们支持并鼓励偏见探索者和评估。
鼓励在部署中保障安全
安全的 Stable Diffusion (Safe Stable Diffusion):它减轻了一个众所周知的问题,即像 Stable Diffusion 这样在未经筛选、从网络爬取的数据集上训练的模型,往往会遭受不当退化。相关论文:安全潜在扩散:减轻扩散模型中的不当退化 (Safe Latent Diffusion: Mitigating Inappropriate Degeneration in Diffusion Models)。
安全检查器:它在图像生成后,检查并比较一组硬编码的有害概念在嵌入空间中的类别概率。这些有害概念被有意隐藏,以防止对检查器进行逆向工程。
在 Hub 上分阶段发布:在特别敏感的情况下,应限制对某些仓库的访问。这种分阶段发布是一个中间步骤,允许仓库的作者对其使用有更多的控制。
许可:OpenRAILs 是一种新型许可,它允许我们确保自由访问,同时设有一系列限制以确保更负责任的使用。