Community 计算机视觉课程文档
AI 伦理与偏见 🧑🤝🧑
并获得增强的文档体验
开始使用
AI 伦理与偏见 🧑🤝🧑
我们希望您觉得 ImageNet Roulette 案例研究很有趣,并了解了通用 AI 模型可能出现的问题。在本章中,我们将介绍另一个强大技术的示例,该技术具有很酷的应用程序,但如果听之任之,也可能引起伦理问题。让我们首先快速总结一下 ImageNet Roulette 案例研究及其后果。
- ImageNet Roulette 是一个 AI 模型出错的绝佳示例,这是由于固有的偏见以及忽视了标签和数据预处理阶段。
- 该实验是专门手工制作的,旨在演示如果听之任之,事情会如何出错。
- 该项目促使 ImageNet 团队对数据集进行了大量更正,并实施了适当的措施来缓解面部模糊、删除有害和触发性同义词集、删除相应的图像等问题。
- 最后,它开启了正在进行的讨论,并推动了关于减轻风险的研究工作。
在我们看另一个强大技术的示例之前,让我们退后一步,思考一些问题。一般来说,技术是好是坏?电是好是坏?互联网通常是安全还是有害?等等。在我们开始旅程时,请牢记这些问题。
Deepfakes 🎥
想象一下,您是一位刚毕业的学生,想要学习深度学习。您报名参加了麻省理工学院的“深度学习入门 (MIT 6.S191)”课程。为了让事情更有趣,课程团队发布了一个非常酷的视频,介绍了可以使用深度学习完成的事情。在此处查看视频
麻省理工学院 6.S191 课程的介绍,其中使用了 deepfakes 来给人留下巴拉克·奥巴马欢迎的印象。是的,导言课程的制作方式给人一种印象,即学生们受到了巴拉克·奥巴马本人的欢迎。非常酷的应用,一个关于深度学习的课程,其导言经过精心策划,展示了深度生成模型的用例之一。对于初学者来说,这将非常吸引人,让他们对这项技术感兴趣,每个人都会想尝试一下。毕竟,您实际上可以在几分钟内使用像样的 GPU 轻松制作此类视频和图像,并开始发布围绕此的模因、帖子等。让我们看另一个这项技术的例子,但具有不同的后果。想象一下,如果我们在选举或战争期间能够想出一位有影响力的政治领导人或演员的相同 deepfake。同样的虚假视频可以用来传播仇恨和虚假信息,导致边缘化不同的人。即使这个人没有传播虚假信息,视频本身也可能引起大规模的愤怒。这可能令人震惊。然而,主要问题在于,一旦虚假信息传播开来,危害已经造成,人们已经分裂,即使后来弄清楚视频是被篡改的。因此,只有首先不公开篡改的视频,才能避免危害。这使得这项技术很危险,但技术本身是安全还是有害?技术本身永远不好不坏,但其用途(谁使用它以及用于什么目的)可能会产生好的或坏的影响。
Deepfakes 是使用深度生成 CV 模型创建的合成媒体。您实际上可以使用不同人的图像来操纵图像,也可以通过它生成视频。音频 deepfake 是另一种技术,可以通过模仿所考虑对象的精确声音来补充 CV 对应物。这只是 deepfakes 如何造成严重破坏的示例之一,但实际上,其影响要危险得多,因为它们可能对受害者的生活产生终生的影响。
什么是 AI 伦理与偏见?
从前面的示例中,需要牢记这项技术的一些方面是
- 在使用图像/视频进行操纵和形成新媒体之前,获得主体的同意。
- 促进合成媒体创建的算法,这些媒体可用于操纵。
- 可用于检测此类合成媒体的算法。
- 关于这些算法及其后果的认识。
💡查看“同意技术项目”此处。该项目旨在提高认识、制定策略并分享技能,以帮助人们构建和有意识地使用技术。
现在让我们根据这些示例正式化一些定义。那么什么是伦理和偏见?伦理可以简单地定义为一套道德原则,帮助我们区分对与错。现在,AI 伦理可以定义为一套价值观、原则和技术,它们采用广泛接受的对与错标准来指导 AI 开发和使用中的道德行为。AI 伦理是一个多学科领域,研究如何优化 AI 的有益影响,同时降低风险和不良后果。该领域涉及各种利益相关者
- 研究人员、工程师、开发人员和 AI 伦理学家:负责模型、算法、数据集开发和管理的人员。
- 政府机构、法律权威机构(如律师):负责伦理 AI 发展监管方面的机构和人员。
- 公司和组织:站在交付 AI 产品和服务前沿的利益相关者。
- 公民:在日常生活中使用 AI 服务和产品并且在很大程度上受到技术影响的人们。
AI 中的偏见是指算法输出中的偏见,这可能是由于模型开发或训练数据期间的假设造成的。这些假设源于负责开发的人类内在的偏见。因此,AI 模型和算法开始反映这些偏见。这些偏见可能会扰乱伦理发展或原则,因此需要关注和缓解方法。在单元的后续章节中,我们将详细介绍偏见、它们如何渗入不同的 AI 模型、它们的类型、评估和缓解(重点是 CV 模型)。为了更多地了解 AI 伦理,让我们仔细研究一下伦理 AI 的原则。
伦理 AI 原则 🤗 🌎
阿西莫夫机器人三定律 🤖
关于技术伦理发展的反思,已经有很多历史著作。最早的作品可以追溯到著名的科幻作家艾萨克·阿西莫夫。考虑到自主 AI 代理的潜在风险,他提出了机器人三定律。这些定律是
- 机器人不得伤害人类,也不得因不作为而使人类受到伤害。
- 机器人必须服从人类的命令,除非这些命令与第一定律相冲突。
- 机器人必须保护自身的存在,只要这种保护不与第一或第二定律相冲突。
阿西洛马 AI 原则 🧑🏻⚖️🧑🏻🎓🧑🏻💻
阿西莫夫机器人定律是最早的技术伦理著作之一。2017 年,在加利福尼亚州阿西洛马会议中心组织了一次会议。本次会议旨在讨论 AI 对社会的影响。本次会议的结果是制定了负责任的 AI 开发指南。该指南包含 23 项原则,约有 5,000 人签署,其中包括 844 名 AI 和机器人研究人员。
负责任的 AI 开发的 23 项阿西洛马 AI 原则
💡您可以在此处查看 23 项阿西洛马 AI 原则的完整列表和签署者。
这些原则是指导通用 AI 模型的伦理开发和实施的指南。现在让我们看一下联合国教科文组织关于伦理 AI 指南的最新工作。
联合国教科文组织的报告:《人工智能伦理建议书》🧑🏼🤝🧑🏼🌐
联合国教科文组织以一份名为“人工智能伦理建议书”的报告形式提出了 AI 伦理的全球标准,该报告于 2021 年 11 月获得 193 个成员国通过。以前的伦理 AI 指南在可操作的政策方面有所欠缺。但是,联合国教科文组织最近的报告允许政策制定者将核心原则转化为有关不同领域的行动,例如数据治理、环境、性别、健康等。该建议的四个核心价值观构成了 AI 系统的基础
- 人权和人的尊严 尊重、保护和促进人权与基本自由以及人的尊严。
- 生活在和平公正和互联互通的社会中。
- 确保多样性和包容性。
- 环境和生态系统蓬勃发展。
负责任的 AI 发展的 11 个关键政策领域。
以下是联合国教科文组织提出的以人权为中心的 AI 伦理方法的十项核心原则
- 相称性和不作恶: AI 系统的使用不得超出实现合法目的的必要范围。应使用风险评估来预防此类使用可能造成的危害。
- 安全和保障: AI 行为者应避免和解决不必要的危害(安全风险)以及易受攻击的漏洞(安全风险)。
- 隐私权和数据保护: 必须在整个 AI 生命周期中保护和促进隐私。还应建立适当的数据保护框架。
- 多方利益相关者和适应性治理与合作: 在数据使用中必须尊重国际法和国家主权。此外,多元利益攸关方的参与对于 AI 治理的包容性方法是必要的。
- 责任和问责制: AI 系统应可审计和可追溯。应建立监督、影响评估、审计和尽职调查机制,以避免与人权规范发生冲突以及对环境福祉构成威胁。
- 透明度和可解释性: AI 系统的伦理部署取决于其透明度和可解释性 (T&E)。T&E 的水平应适合具体情况,因为 T&E 与其他原则(如隐私、安全和保障)之间可能存在紧张关系。
- 人工监督和决定: 成员国应确保 AI 系统不取代最终的人工责任和问责制。
- 可持续性: 应根据 AI 技术对“可持续性”的影响来评估 AI 技术,“可持续性”被理解为一套不断发展的目标,包括联合国可持续发展目标中规定的目标。
- 意识和素养: 应通过开放和可访问的教育、公民参与、数字技能和 AI 伦理培训以及媒体和信息素养来提高公众对 AI 和数据的理解。
- 公平和非歧视: AI 行为者应促进社会正义、公平和非歧视,同时采取包容性方法,以确保所有人都能获得 AI 的益处。
💡要阅读联合国教科文组织关于“人工智能伦理建议书”的完整报告,您可以访问此处。
在结束本单元时,我们还将研究 Hugging Face 为确保伦理 AI 实践所做的努力。在下一章中,我们将更多地了解偏见、类型以及它们如何渗入不同的 AI 模型。
< > 更新在 GitHub 上