社区计算机视觉课程文档
AI 中的伦理与偏见 🧑🤝🧑
并获得增强的文档体验
开始使用
AI 中的伦理与偏见 🧑🤝🧑
我们希望您发现 ImageNet Roulette 案例研究很有趣,并了解了一般 AI 模型可能出错的地方。在本章中,我们将再次探讨一个强大的技术,它具有酷炫的应用,但如果不加控制,也可能引发伦理问题。我们首先快速总结一下 ImageNet Roulette 案例研究及其后续影响。
- ImageNet Roulette 是一个 AI 模型因其固有的偏见以及忽视标签和数据预处理阶段而出现问题的绝佳例子。
- 该实验是手工制作的,仅仅是为了演示如果不加控制,事情可能会出错。
- 该项目促使 ImageNet 团队对数据集进行了大量修正,并实施了适当的措施来缓解问题,例如人脸模糊、删除有害和触发性的同义词集、删除相应的图像等。
- 最后,它开启了持续的讨论,并推动了风险缓解方面的研究工作。
在我们了解另一种强大技术的例子之前,让我们退后一步,思考一些问题。总的来说,技术是好是坏?电力是好是坏?互联网是普遍安全还是有害?等等。在我们的旅程开始时,请记住这些问题。
深度伪造 🎥
想象一下,您是一位应届毕业生,想要学习深度学习。您报名参加了麻省理工学院(MIT)的“深度学习导论(MIT 6.S191)”课程。为了让事情变得更有趣,课程团队发布了一个关于深度学习可以实现的事情的酷炫视频。在这里观看视频
麻省理工学院 6.S191 课程介绍,其中使用了深度伪造技术,营造出巴拉克·奥巴马欢迎学生的印象。是的,课程介绍环节被制作成这样,给人的印象是学生们受到了巴拉克·奥巴马本人的欢迎。这真是个酷炫的应用,一门深度学习课程,其介绍经过精心策划,展示了深度生成模型的一种用例。对于初学者来说,这会非常吸引人,让他们对这项技术产生兴趣,每个人都想尝试一下。毕竟,您可以使用一台不错的 GPU 在几分钟内轻松制作出这样的视频和图像,并开始发布相关的表情包、帖子等。让我们看看这项技术的另一个例子,但其后果却截然不同。想象一下,如果我们在选举或战争期间,能够制作出一位有影响力的政治领导人或演员的相同深度伪造视频。同样的假视频可以用来散布仇恨和虚假信息,导致不同人群被边缘化。即使该人没有散布虚假信息,视频本身也可能引起大规模的愤怒。这可能会令人恐惧。然而,主要问题在于,一旦虚假信息传播开来,危害就已经造成,人们已经被分化,即使后来证实视频是被篡改的。因此,只有在第一时间不将篡改的视频公之于众,才能避免危害。这使得这项技术变得危险,但技术本身是安全还是有害?技术本身永远无所谓好坏,但其用途(谁使用它以及用于什么目的)可能会产生好或坏的影响。
深度伪造是借助深度生成计算机视觉模型创建的合成媒体。您实际上可以通过它用不同的人的图像来操纵图像,甚至生成视频。音频深度伪造是另一种可以与计算机视觉对应技术互补的技术,通过模仿所考虑对象的精确声音。这只是深度伪造如何造成破坏的一个例子,但实际上,其影响远比这危险,因为它们可能对受害者的生活产生终生影响。
什么是 AI 中的伦理与偏见?
根据前面的例子,这项技术需要注意的几个方面是:
- 在使用图像/视频进行操纵和制作新媒体之前,获得主体的同意。
- 促进合成媒体创建的算法,这些媒体可用于操纵。
- 可用于检测此类合成媒体的算法。
- 了解这些算法及其后果。
💡请查看 The Consentful Tech Project 此处。该项目旨在提高意识,制定策略,并分享技能,以帮助人们负责任地构建和使用技术。
现在让我们根据这些例子对一些定义进行形式化。那么什么是伦理和偏见呢?伦理可以简单地定义为一套道德原则,帮助我们区分是非。而人工智能伦理则可以定义为一套价值观、原则和技术,它们采用广泛接受的是非标准来指导人工智能开发和使用中的道德行为。人工智能伦理是一个多学科领域,研究如何优化人工智能的有利影响,同时降低风险和不利结果。该领域涉及各种利益相关者:
- 研究人员、工程师、开发人员和人工智能伦理学家:负责模型、算法、数据集开发和管理的团队。
- 政府机构、法律机构(如律师):负责人工智能伦理发展监管方面的主体和人员。
- 公司和组织:处于提供人工智能产品和服务前沿的利益相关者。
- 公民:在日常生活中使用人工智能服务和产品,并深受技术影响的人们。
AI 中的偏见指的是算法输出中的偏见,这可能由于模型开发或训练数据期间的假设而发生。这些假设源于负责开发的内在人类偏见。因此,AI 模型和算法开始反映这些偏见。这些偏见可能会扰乱伦理发展或原则,因此需要加以关注并设法缓解它们。我们将在本单元的后续章节中详细介绍偏见、它们如何渗透到不同的 AI 模型中、它们的类型、评估和缓解(重点关注 CV 模型)。为了更好地理解 AI 中的伦理,让我们仔细研究一下伦理 AI 的原则。
伦理 AI 原则 🤗 🌎
阿西莫夫机器人三定律 🤖
历史上有很多关于技术伦理发展的著作。最早的可以追溯到著名的科幻作家艾萨克·阿西莫夫。他提出了机器人三定律,同时考虑到自主人工智能代理的潜在风险。这些定律是:
- 机器人不得伤害人类,或坐视人类受到伤害。
- 机器人必须服从人类的命令,除非这些命令与第一定律冲突。
- 在不违反第一或第二定律的情况下,机器人必须保护自己的存在。
阿西洛马人工智能原则 🧑🏻⚖️🧑🏻🎓🧑🏻💻
阿西莫夫的机器人定律是技术伦理领域最早的作品之一。2017年,在加利福尼亚州阿西洛马会议中心举行了一次会议。这次会议旨在讨论人工智能对社会的影响。会议的成果是制定了人工智能负责任开发的指导方针。该指导方针包含23项原则,由约5,000人签署,其中包括844名人工智能和机器人研究人员。
负责任人工智能开发的23项阿西洛马人工智能原则
💡您可以在此处查看23项阿西洛马人工智能原则的完整列表和签署人。
这些原则是人工智能模型一般伦理开发和实施的指南。现在让我们来看看联合国教科文组织关于伦理人工智能准则的最新工作。
联合国教科文组织报告:人工智能伦理建议 🧑🏼🤝🧑🏼🌐
联合国教科文组织于 2021 年 11 月通过了一项名为**“人工智能伦理建议”**的报告,该报告作为人工智能伦理的全球标准,并获得了 193 个成员国的采纳。此前关于人工智能伦理的指导方针在可操作政策方面有所欠缺。而联合国教科文组织的最新报告则允许政策制定者将核心原则转化为具体行动,涉及数据治理、环境、性别、健康等不同领域。该建议的四个核心价值观为人机交互系统奠定了基础:
- 人权和人类尊严:尊重、保护和促进人权、基本自由和人类尊严。
- 生活在和平、公正和相互联系的社会中。
- 确保多样性和包容性。
- 环境和生态系统蓬勃发展。
人工智能负责任发展的11个关键政策领域。
以下是联合国教科文组织提出的以人权为中心的人工智能伦理十项核心原则:
- 适度和无害:人工智能系统的使用不得超出实现合法目的所必需的范围。应采用风险评估来防止此类使用可能造成的伤害。
- 安全与保障:人工智能参与者应避免和解决意外伤害(安全风险)以及易受攻击的漏洞(安全风险)。
- 隐私权和数据保护:在人工智能生命周期中必须保护和促进隐私。还应建立充分的数据保护框架。
- 多方利益相关者和适应性治理与协作:在使用数据时必须尊重国际法和国家主权。此外,多样化利益相关者的参与对于人工智能治理的包容性方法至关重要。
- 责任与问责:人工智能系统应可审计和可追溯。应建立监督、影响评估、审计和尽职调查机制,以避免与人权规范冲突以及对环境福祉的威胁。
- 透明度和可解释性:人工智能系统的伦理部署取决于其透明度和可解释性(T&E)。T&E 的程度应与上下文相适应,因为 T&E 与隐私、安全和保障等其他原则之间可能存在张力。
- 人类监督与决策:会员国应确保人工智能系统不取代最终的人类责任和问责制。
- 可持续性:人工智能技术应根据其对“可持续性”的影响进行评估,“可持续性”被理解为一套不断演变的目标,包括联合国可持续发展目标中设定的目标。
- 意识和素养:应通过开放和可及的教育、公民参与、数字技能和人工智能伦理培训以及媒体和信息素养来促进公众对人工智能和数据的理解。
- 公平和非歧视:人工智能参与者应促进社会公正、公平和非歧视,同时采取包容性方法,确保所有人都能享受到人工智能的益处。
💡要阅读联合国教科文组织关于“人工智能伦理建议”的完整报告,您可以访问此处。
在本单元结束时,我们还将探讨 Hugging Face 为确保人工智能伦理实践所做的努力。在下一章中,我们将深入了解偏见、类型以及它们如何渗透到不同的人工智能模型中。
< > 在 GitHub 上更新