AI 政策@🤗:对美国国家电信和信息管理局 (NTIA) 关于 AI 问责制征求意见的回应

发布于 2023 年 6 月 20 日
在 GitHub 上更新

6 月 12 日,Hugging Face 向美国商务部国家电信和信息管理局 (NTIA) 提交了关于 AI 问责政策信息征询的回应。在回应中,我们强调了文档和透明度规范在推动 AI 问责流程中的作用,以及依靠该技术众多利益相关者的全部专业知识、观点和技能来应对这项技术前景的必要性,因其前所未有的增长所带来的问题远超任何单一实体所能回答的范畴。

Hugging Face 的使命是“让优秀的机器学习大众化”。我们理解,“大众化”在此上下文中意味着不仅使机器学习系统更易于开发和部署,也让众多利益相关者更容易理解、质询和评判。为此,我们通过教育工作对文档的重视社区准则负责任的开放方法,以及开发无代码和低代码工具来促进透明度和包容性,让各种技术背景的人都能够分析机器学习数据集模型。我们相信,这有助于所有感兴趣的人更好地理解机器学习系统的局限性,以及如何安全地利用它们来最好地服务于用户和受这些系统影响的人群。这些方法已经在促进问责制方面证明了其效用,尤其是在我们帮助组织的大型多学科研究项目中,包括BigScience(请参阅我们关于该项目社会利害关系的博客系列)和最近的BigCode 项目(其治理在此有更详细的描述)。

具体而言,我们对问责机制提出以下建议:

  • 问责机制应关注机器学习开发过程的所有阶段。一个完整的 AI 赋能系统其社会影响取决于开发过程中每个阶段做出的选择,其方式无法完全预测,而仅关注部署阶段的评估可能会鼓励那些流于表面合规的行为,导致深层次问题在造成重大伤害之后才得以解决。
  • 问责机制应将内部要求与外部访问和透明度相结合。良好的文档实践等内部要求可以塑造更负责任的开发,并明确开发者在促成更安全、更可靠技术方面的责任。然而,外部对内部流程和开发选择的访问仍然是必要的,以便核实声明和文档,并赋能开发链之外的众多技术利益相关者,让他们能够有意义地影响其发展并促进自身利益。
  • 问责机制应邀请最广泛的贡献者参与,包括直接从事技术开发的开发者、多学科研究社区、倡导组织、政策制定者和记者。理解机器学习技术快速普及所带来的变革性影响是一项超出任何单一实体能力范围的任务,需要利用我们广泛的研究社区及其直接用户和受影响人群的全部技能和专业知识。

我们相信,在机器学习产出物本身及其评估结果中优先考虑透明度,对于实现这些目标至关重要。您可以在这里找到我们针对这些要点更详细的回应。

社区

注册登录以发表评论