AI Policy @🤗: 对美国国家人工智能研究资源临时报告的评论
发布于 2022 年 8 月 1 日
在 GitHub 上更新2022 年 6 月下旬,Hugging Face 向白宫科技政策办公室和美国国家科学基金会提交了对国家人工智能研究资源(NAIRR)工作组临时报告调查结果实施路线图的信息请求的回应。作为一个致力于通过赋能所有背景的人为 AI 做贡献来使机器学习民主化的平台,我们强烈支持 NAIRR 的努力。
在我们的回应中,我们鼓励工作组
任命技术和伦理专家作为顾问
- 应优先考虑具有伦理创新记录的技术专家作为顾问;他们不仅可以校准 NAIRR 在 AI 系统技术上可行、可实施和必要性方面的问题,还可以校准如何避免加剧有害偏见和其他恶意使用 AI 系统的问题。Margaret Mitchell 博士是 AI 领域最著名的技术专家和伦理实践者之一,也是 Hugging Face 的首席伦理科学家,她自然是一个外部顾问的例子。
资源(模型和数据)文档标准
- NAIRR 提供的系统和数据集文档标准和模板将简化可访问性并作为清单使用。这种标准化应确保不同受众和背景的阅读能力。模型卡是一种广泛采用的文档结构,可以作为 AI 模型的强大模板。
使机器学习对跨学科、非技术专家开放
- NAIRR 应提供教育资源以及易于理解的界面和低代码或无代码工具,供所有相关专家执行复杂任务,例如训练 AI 模型。例如,Hugging Face 的 AutoTrain 使任何人都能够,无论技术技能如何,训练、评估和部署自然语言处理(NLP)模型。
监控开源和开放科学的高滥用和恶意使用潜力
- 危害必须由 NAIRR 和顾问定义并不断更新,但应包括严重的和有害的偏见、政治虚假信息和仇恨言论。NAIRR 还应投资法律专业知识,以制定 负责任的人工智能许可证,以便在行为者滥用资源时采取行动。
通过可访问的工具和资源赋能多元研究人员的视角
- 工具和资源必须可用于不同学科,以及推动负责任创新所需的多种语言和视角。这意味着至少以多种语言提供资源,这可以基于美国使用最广泛的语言。BigScience 研究研讨会是一个由 Hugging Face 和法国政府主办的由来自不同学科的 1000 多名研究人员组成的社区,是赋能来自 60 多个国家的视角以构建最强大的开源多语言语言模型之一的良好范例。
我们的备忘录详细介绍了各项建议。我们渴望有更多资源以负责任的方式广泛提供 AI。