将伦理原则置于研究生命周期的核心

发布于 2022 年 5 月 19 日
在 GitHub 上更新

道德章程 - 多模态项目

道德章程的目的

众所周知,机器学习研究和应用可能导致“数据隐私问题、算法偏见、自动化风险和恶意使用”(NeurIPS 2021 道德指南)。本短文件的目的是将我们(Hugging Face 的多模态学习团队)为我们正在进行的这个项目所采用的道德原则正式化。通过在项目开始时定义这些道德原则,我们将其置于我们机器学习生命周期的核心。

通过对项目中所做的决策、谁在负责系统的哪些方面以及如何联系团队保持透明,我们希望能在早期阶段就收到反馈,以便进行有意义的更改,并使关于选择的讨论以我们旨在实现的目标和希望融入的价值观为基础。

本文件是 Hugging Face 的多模态学习团队(由机器学习研究人员和工程师组成)主导讨论的成果,并得到了多位伦理实践、数据治理和个人隐私专家的贡献。

本道德章程的局限性

本文件是一个正在进行中的工作,反映了截至 2022 年 5 月的思考状态。“道德人工智能”没有共识,也没有官方定义,我们的考虑很可能会随着时间的推移而改变。如果更新,我们将在本文件中直接反映更改,同时提供更改的理由并通过 GitHub 追踪更新历史。本文件无意成为关于道德人工智能最佳实践的真实来源。我们相信,即使它不完善,思考我们研究的影响、我们预见的潜在危害以及我们可以采取的减轻这些危害的策略,都是机器学习社区朝着正确方向前进的体现。在整个项目过程中,我们将记录我们如何将本文件中描述的价值观付诸实践,以及我们在项目背景下观察到的优点和局限性。

内容政策

研究当前最先进的多模态系统,我们预见到我们作为这个项目一部分所旨在开发的技术可能存在几种滥用。我们为我们最终希望防止的一些用例提供了指南:

  • 推广有害内容和活动,例如暴力、骚扰、欺凌、伤害、仇恨以及所有形式的歧视。针对特定身份亚群的偏见,基于性别、种族、年龄、能力状况、LGBTQA+ 性取向、宗教、教育、社会经济地位和其他敏感类别(例如性别歧视/厌女症、种姓制度、种族主义、能力主义、跨性别恐惧症、同性恋恐惧症)。
  • 违反法规、隐私、版权、人权、文化权利、基本权利、法律和任何其他形式的具有约束力的文件。
  • 生成个人可识别信息。
  • 在没有任何问责制和/或以伤害和挑衅他人为目的的情况下生成虚假信息。
  • 在高风险领域(如医疗、法律、金融和移民)不慎使用模型,这可能从根本上损害人们的生活。

项目价值观

  • 保持透明: 我们对意图、数据来源、工具和决策保持透明和开放。通过透明,我们将工作的弱点暴露给社区,从而承担责任并接受问责。
  • 共享开放且可复现的工作: 开放性涉及两个方面:过程和结果。我们认为,共享数据、工具和实验条件的精确描述是良好的研究实践。研究成果,包括工具和模型检查点,必须在预期范围内无歧视地向所有人开放(例如,宗教、种族、性取向、性别、政治取向、年龄、能力)。我们将可访问性定义为确保我们的研究可以轻松地向机器学习研究社区以外的受众解释。
  • 公平: 我们将公平定义为对所有人类的平等对待。公平意味着监控和减轻基于种族、性别、残疾和性取向等特征的不必要的偏见。为了尽可能限制负面结果,特别是影响边缘化和弱势群体的结果,应对数据和模型输出进行不公平偏见审查,例如预测性警务算法中的种族主义。
  • 自我批判: 我们意识到自己的不完美,我们应该不断寻找更好的方法来实践道德价值观和其他负责任的人工智能决策。例如,这包括更好的训练数据策划和过滤策略。我们不应该过度宣称或发表虚假言论和炒作。
  • 给予肯定: 我们应该通过适当的许可和归属来尊重和承认他人的工作。

我们注意到,其中一些价值观有时可能相互冲突(例如,公平与共享开放和可复现的工作,或者尊重个人隐私与共享数据集),并强调需要根据具体情况考虑我们决策的风险和收益。

社区

注册登录以发表评论