伦理与社会新闻稿 #1
你好,世界!
Hugging Face 最初是一家开源公司,其创立基于科技领域的一些核心道德价值观:**协作**、**责任**和**透明**。在开放环境中编写代码意味着您的代码(及其中的选择)对全世界可见,并与您的帐户关联,可供他人批评和补充。随着研究社区开始使用 Hugging Face Hub 托管模型和数据,社区直接将**可复现性**作为公司的另一个基本价值。随着 Hugging Face 上数据集和模型数量的增长,Hugging Face 的工作人员实施了文档要求和免费教学课程,以满足研究社区新出现的价值观,同时补充了围绕**可审计性**和**理解**导致当前技术的数学、代码、流程和人员的价值观。
如何将人工智能伦理付诸实践是一个开放的研究领域。尽管关于应用伦理和人工智能的理论和学术研究已经存在数十年,但人工智能开发中伦理的应用和经过测试的实践在过去十年才开始出现。这部分是为了应对机器学习模型(人工智能系统的基本组成部分)超越了衡量其进展的基准,导致机器学习系统在影响日常生活的各种实际应用中得到广泛采用。对于我们这些对推进伦理驱动的人工智能感兴趣的人来说,加入一家部分基于道德原则成立的机器学习公司,正值其开始发展,并且世界各地的人们开始努力解决伦理人工智能问题之际,这是一个从根本上塑造未来人工智能面貌的机会。这是一种新型的现代人工智能实验:一家**从一开始**就考虑到伦理的科技公司会是怎样的?从伦理的角度审视机器学习,**民主化**好的机器学习意味着什么?
为此,我们将在 Hugging Face 的新**伦理与社会**新闻稿中分享我们最近的一些思考和工作,新闻稿将每季在春分和冬至发布。这就是它!它由我们,“伦理与社会常客”共同完成,这是一个由公司内部不同部门的人组成的开放小组,他们以平等的身份共同探讨机器学习在社会中的更广泛背景以及 Hugging Face 所扮演的角色。我们认为我们**不是**一个专门的团队至关重要:为了让一家公司在其工作和流程中做出价值导向的决策,所有相关方都需要共同承担责任并致力于认识和了解我们工作的伦理风险。
我们正在持续研究关于“好的”机器学习的实践和研究,试图提供一些可以定义它的标准。作为一个持续进行的过程,我们通过展望人工智能的不同可能未来,在当下创造我们所能,以达到一个能协调我们个人以及更广泛的机器学习社区所持不同价值观的境地。我们将这种方法根植于 Hugging Face 的创始原则中。
我们力求与开源社区**协作**。这包括提供现代化的文档和评估工具,以及社区讨论、Discord和对旨在以符合不同价值观的方式分享其工作的贡献者的个人支持。
我们致力于在开发过程中,对我们的思考和流程保持**透明**。这包括在项目开始时分享关于特定项目价值观的著作,以及我们对AI政策的思考。我们还从社区对此工作的反馈中受益,将其作为我们学习更多内容的资源。
我们将这些工具和人工制品的创建根植于对我们现在和未来所做工作影响的**责任**。优先考虑这一点促使项目设计使机器学习系统更具**可审计性**和**可理解性**——包括对机器学习领域以外的专业人士而言——例如教育项目和我们实验性的无需编码的机器学习数据分析工具。
基于这些基本原则,我们采用了一种将价值观付诸实践的方法,该方法以项目特定情境及其可能产生的可预测影响为中心。因此,我们在此不提供全球性的价值观或原则清单;相反,我们将继续分享项目特定的思考,例如这份新闻通讯,并将在我们了解更多信息时分享更多。由于我们认为社区讨论是识别不同价值观及其影响的关键,我们最近向所有能够在线连接到 Hugging Face Hub 的用户开放了直接就模型、数据和 Spaces 提供反馈的机会。除了开放讨论工具外,我们还创建了行为准则和内容指南,以帮助指导我们认为对包容性社区空间至关重要的讨论。我们开发了私人 Hub 用于安全机器学习开发,一个评估库,使开发人员更容易严格评估其模型,用于分析数据偏差和偏见的的代码,以及在训练模型时跟踪碳排放的工具。我们还在开发新的开放和负责任的人工智能许可,这是一种直接解决人工智能系统可能造成危害的现代许可形式。本周,我们还实现了“标记”模型和 Spaces 存储库的功能,以便报告伦理和法律问题。
在接下来的几个月里,我们将整理其他几篇关于价值观、冲突和伦理实践的文档。我们欢迎(并期待!)对我们所有工作的反馈,并希望通过技术和价值导向的视角继续与人工智能社区互动。
感谢阅读! 🤗
~ Meg,代表伦理与社会常客