伦理与社会新闻 #3:Hugging Face 上的伦理开放性
使命:开放与优秀的机器学习
在我们的机器学习(ML)民主化使命中,我们研究了支持机器学习社区工作如何也能够促进审查和预防潜在危害。开放式开发和科学使权力去中心化,以便许多人可以共同开发反映其需求和价值观的人工智能。虽然开放性使得更广泛的视角能够为研究和整体人工智能做出贡献,但也面临着风险控制较少的张力。
鉴于这些系统的动态性和快速演变性质,对机器学习工件进行审核提出了独特的挑战。事实上,随着机器学习模型变得越来越先进,并能够生成日益多样化的内容,产生有害或意想不到输出的可能性也随之增加,这需要开发强大的审核和评估策略。此外,机器学习模型的复杂性及其处理的大量数据加剧了识别和解决潜在偏见和道德问题的挑战。
作为托管方,我们认识到可能对用户和更广泛的世界造成危害的责任。这些危害往往以与语境相关的方式不成比例地影响少数民族社区。我们采取了分析每种语境中存在的张力的方法,并对公司和 Hugging Face 社区之间的讨论持开放态度。虽然许多模型可以放大危害,尤其是歧视性内容,但我们正在采取一系列措施来识别风险最高的模型并决定采取什么行动。重要的是,来自不同背景的积极视角是理解、衡量和减轻影响不同人群的潜在危害的关键。
除了改进我们的文档实践外,我们还在制定工具和保障措施,以确保开源科学赋能个人并继续最大限度地减少潜在危害。
伦理类别
我们促进优秀开放式机器学习的首要任务是推广工具和积极的机器学习开发示例,这些示例将价值观和对利益相关者的考量放在首位。这有助于用户采取具体措施解决突出问题,并为机器学习开发中实际存在的破坏性实践提供可行的替代方案。
为了帮助我们的用户发现和参与与伦理相关的机器学习工作,我们整理了一套标签。这 6 个高级类别基于我们对社区成员贡献的 Spaces 的分析。它们旨在为您提供一种无行话的方式来思考伦理技术。
- 严谨的工作特别注重以最佳实践进行开发。在机器学习中,这可能意味着检查失败案例(包括进行偏差和公平性审计)、通过安全措施保护隐私,并确保潜在用户(技术和非技术)了解项目的局限性。
- 知情同意的工作支持使用和受这些技术影响的人们的自决权。
- 社会意识的工作向我们展示了技术如何支持社会、环境和科学努力。
- 可持续的工作突出并探索了使机器学习在生态上可持续的技术。
- 包容性工作拓宽了机器学习世界中构建者和受益者的范围。
- 探索性工作揭示了不平等和权力结构,这挑战了社区重新思考其与技术的关系。
了解更多信息,请访问https://huggingface.co/ethics
请注意这些术语,因为我们将在 Hub 上的一些新项目中使用这些标签,并根据社区贡献进行更新!
保障措施
对开放发布采取“全有或全无”的观点,忽视了决定机器学习工件积极或消极影响的各种语境。对机器学习系统如何共享和再利用拥有更多控制杠杆,有助于在降低促进有害使用或误用风险的情况下进行协作开发和分析;从而在创新中实现更多的开放性和参与性,以实现共同利益。
我们直接与贡献者合作,并解决了紧迫的问题。为了更上一层楼,我们正在建立基于社区的流程。这种方法使 Hugging Face 贡献者以及受贡献影响的人员能够提供对模型和平台可用数据的局限性、共享和必要附加机制的信息。我们将关注的三个主要方面是:工件的来源、工件如何被其开发者处理,以及工件如何被使用。在这方面,我们:
- 为我们的社区推出了标记功能,以确定机器学习工件或社区内容(模型、数据集、空间或讨论)是否违反了我们的内容指南,
- 监控我们的社区讨论版,以确保 Hub 用户遵守行为准则,
- 通过模型卡充分记录我们下载量最大的模型,详细说明其社会影响、偏见、预期用途和超出范围的用例,
- 创建受众指导标签,例如“不适合所有受众”标签,可以添加到仓库的模型卡元数据中,以避免不请自来的暴力和性内容,
- 推广使用开放负责任人工智能许可证 (RAIL) 用于模型,例如大型语言模型(BLOOM、BigCode),
- 开展研究,分析哪些模型和数据集具有最高的滥用和恶意使用潜力或记录。
如何使用标记功能:点击任何模型、数据集、空间或讨论上的旗帜图标
登录后,您可以点击“三个点”按钮,调出报告(或标记)仓库的功能。这将在仓库的社区选项卡中打开一个对话。
分享您标记此项目的原因
请在您的报告中添加尽可能多的相关上下文!这将大大方便仓库所有者和 Hugging Face 团队采取行动。
在优先考虑开放科学方面,我们逐案审查潜在危害,并提供协作学习和共同责任的机会。当用户标记一个系统时,开发人员可以直接且透明地回应问题。本着这种精神,我们要求仓库所有者尽合理努力解决报告,特别是当报告者花时间提供问题描述时。我们还强调,报告和讨论须遵守与平台其余部分相同的沟通规范。如果行为变得充满仇恨和/或辱骂(参见行为准则),版主可以退出或关闭讨论。
如果某个特定模型被我们的社区标记为高风险,我们会考虑:
如何添加“不适合所有受众”标签
编辑模型/数据卡 → 在标签部分添加not-for-all-audiences
→ 打开 PR 并等待作者合并。合并后,仓库将显示以下标签
任何标记为not-for-all-audiences
的仓库在访问时都会显示以下弹窗
点击“查看内容”将允许您正常查看仓库。如果您希望始终在没有弹窗的情况下查看标记为not-for-all-audiences
的仓库,此设置可以在用户的内容偏好设置中更改
开放科学需要保障措施,我们的目标之一是创建一个由不同价值观的权衡所塑造的环境。托管和提供对模型的访问,以及培养社区和讨论,使不同的群体能够评估社会影响并指导什么是优秀的机器学习。
您正在研究保障措施吗?在 Hugging Face Hub 上分享它们!
Hugging Face 最重要的部分是我们的社区。如果您是一位正在致力于使机器学习使用更安全的研究员,特别是对于开放科学而言,我们希望支持和展示您的工作!
以下是 Hugging Face 社区研究人员最近的一些演示和工具
- 大型语言模型的数字水印 作者:John Kirchenbauer, Jonas Geiping, Yuxin Wen, Jonathan Katz, Ian Miers, Tom Goldstein (论文)
- 生成模型卡工具 作者:Hugging Face 团队
- Photoguard 用于保护图像免受 Ram Ananth 操纵
感谢阅读! 🤗
~ Irene, Nima, Giada, Yacine 和 Elizabeth,代表伦理与社会常驻人员
如果您想引用此博客文章,请使用以下(按贡献降序排列)
@misc{hf_ethics_soc_blog_3,
author = {Irene Solaiman and
Giada Pistilli and
Nima Boscarino and
Yacine Jernite and
Elizabeth Allendorf and
Margaret Mitchell and
Carlos Muñoz Ferrandis and
Nathan Lambert and
Alexandra Sasha Luccioni
},
title = {Hugging Face Ethics and Society Newsletter 3: Ethical Openness at Hugging Face},
booktitle = {Hugging Face Blog},
year = {2023},
url = {https://doi.org/10.57967/hf/0487},
doi = {10.57967/hf/0487}
}