人工智能中的伦理与偏见 🧑🤝🧑
我们希望您觉得 ImageNet Roulette 案例研究很有趣,并了解了一般情况下人工智能模型可能出现的问题。在本章中,我们将介绍另一个强大的技术示例,它具有很酷的应用,但如果未加控制,也可能引发伦理问题。让我们首先快速总结 ImageNet Roulette 案例研究及其后续影响。
- ImageNet Roulette 是一个人工智能模型出错的绝佳例子,因为它存在固有的偏见,并且忽略了标注和数据预处理阶段。
- 该实验经过精心设计,旨在展示如果未加控制,事情可能会出错。
- 该项目导致 ImageNet 团队对数据集进行了大量修正,以及实施了适当的措施来缓解面部遮挡、删除有害和触发性的同义词集、删除相应图像等问题。
- 最后,它引发了持续的讨论,并推动了减轻风险的研究工作。
在我们查看另一种强大技术的示例之前,让我们退一步,反思一些问题。总的来说,技术是好是坏?电力是好是坏?互联网总体上安全还是有害?等等。请记住这些问题,因为我们将开始我们的旅程。
深度伪造 🎥
想象一下,您是最近毕业的学生,想要学习深度学习。您报名参加了麻省理工学院的“深度学习入门 (MIT 6.S191)”课程。为了使事情更有趣,课程团队发布了一个非常酷的视频,介绍了使用深度学习可以完成的事情。请在这里查看视频
MIT 6.S191 课程简介,其中使用深度伪造技术来营造巴拉克·奥巴马的欢迎印象。没错,介绍环节是以一种让人感觉学生受到巴拉克·奥巴马本人的欢迎的方式制作的。非常酷的应用,一门关于深度学习的课程,其介绍旨在展示深度生成模型的用例之一。对于新手来说,这将非常吸引人,使他们对这项技术感兴趣,每个人都想去尝试一下。毕竟,您实际上可以使用不错的 GPU 在几分钟内轻松制作这样的视频和图像,并开始发布围绕此主题的模因、帖子等。让我们看看这项技术的另一个例子,但其后续影响不同。想象一下,如果我们能够在选举或战争期间制作出同样具有影响力的政治领导人或演员的深度伪造视频。同一个虚假视频可以用来散布仇恨和虚假信息,导致边缘化不同的人群。即使该人没有传播虚假信息,视频本身也会引起巨大的愤怒。这令人恐惧。然而,主要问题在于,一旦虚假信息传播出去,伤害就已经造成,即使后来证明视频是经过操纵的,人们也会变得分化。因此,只有在操纵的视频未公开的情况下才能避免伤害。这使得这项技术很危险,但技术本身是安全还是有害?技术本身永远不会好也不坏,但它的使用方式(谁使用它以及用于什么目的)会产生好的或坏的影响。
深度伪造是使用深度生成计算机视觉模型生成的合成媒体。您可以用不同人的图像实际操纵图像,也可以通过它生成视频。音频深度伪造是另一项技术,可以通过模仿所考虑对象的真实声音来补充计算机视觉方面。这只是一个深度伪造可能造成严重破坏的例子,但实际上,其影响要危险得多,因为它们会对受害者的生活产生终生影响。
什么是人工智能中的伦理与偏见?
从前面的例子中,需要记住这项技术的一些方面包括
- 在使用图像/视频进行操纵和形成新媒体之前,征得主体的同意。
- 促进合成媒体创建的算法,这些媒体可用于操纵。
- 可用于检测此类合成媒体的算法。
- 了解这些算法及其后续影响。
💡请查看同意技术项目 这里。该项目提高了人们对该技术的认识,制定了策略,并分享技能,帮助人们自愿构建和使用技术。
现在,让我们根据这些示例正式定义一些定义。那么什么是伦理与偏见?伦理可以简单地定义为一组道德原则,帮助我们区分错误与正确。现在,人工智能伦理可以定义为一组价值观、原则和技术,这些价值观、原则和技术采用广泛接受的正确和错误标准来指导人工智能开发和使用中的道德行为。人工智能伦理是一个跨学科领域,研究如何优化人工智能的有益影响,同时减少风险和负面后果。该领域涉及各种利益相关者
- 研究人员、工程师、开发人员和人工智能伦理学家:负责模型、算法、数据集开发和管理的人员。
- 政府机构、法律部门(如律师):负责人工智能伦理开发的监管方面。
- 公司和组织:在提供人工智能产品和服务方面处于领先地位的利益相关者。
- 公民:在日常生活中使用人工智能服务和产品的人,他们深受该技术的影响。
人工智能中的偏见是指算法输出中的偏见,这可能是由于模型开发或训练数据期间的假设造成的。这些假设源于负责开发的人类固有的偏见。结果,人工智能模型和算法开始反映这些偏见。这些偏见会破坏伦理开发或原则,因此需要关注并找到减轻这些偏见的方法。我们将在本单元的后续章节中详细介绍偏见,以及它们是如何潜入不同人工智能模型的、它们的类型、评估和缓解(重点关注计算机视觉模型)。为了更多地了解人工智能中的伦理,让我们仔细研究一下人工智能伦理原则。
人工智能伦理原则 🤗 🌎
阿西莫夫机器人三定律 🤖
许多历史作品都反映了技术伦理的发展。最早的作品可以追溯到著名的科幻作家艾萨克·阿西莫夫。他提出了机器人三定律,牢记着自主人工智能代理的潜在风险。这些定律是
- 机器人不得伤害人类,也不得因不作为而使人类受到伤害。
- 机器人必须服从人类的命令,除非该命令与第一定律相冲突。
- 机器人必须保护自身的存在,只要这种保护不与第一或第二定律相冲突。
阿西洛马人工智能原则 🧑🏻⚖️🧑🏻🎓🧑🏻💻
阿西莫夫的机器人定律是技术伦理领域最早的作品之一。2017年,在美国加州阿西洛马会议中心举办了一场会议。这次会议旨在讨论人工智能对社会的影响。会议的结果是制定了负责任地开发人工智能的指南。该指南包含23项原则,由大约5000人签署,其中包括844名人工智能和机器人研究人员。
负责任的人工智能开发的23项阿西洛马人工智能原则
💡您可以在这里查看23项阿西洛马人工智能原则的完整列表和签署人。
这些原则是人工智能模型开发和实施的伦理指南。现在让我们来看看联合国教科文组织最近关于人工智能伦理指南的研究。
联合国教科文组织报告:人工智能伦理建议 🧑🏼🤝🧑🏼🌐
联合国教科文组织以一份名为“人工智能伦理建议”的报告形式提出了关于人工智能伦理的全球标准,该报告于2021年11月由193个成员国通过。之前关于人工智能伦理的指南在可操作的政策方面存在不足。然而,联合国教科文组织最近发布的报告使政策制定者能够将核心原则转化为行动,涉及数据治理、环境、性别、健康等不同领域。该建议的四个核心价值观为人工智能系统奠定了基础,分别是
- 人权和人的尊严 尊重、保护和促进人权和基本自由以及人的尊严。
- 和平共处 公正互联的社会。
- 确保多样性和包容性。
- 环境和生态系统的繁荣。
人工智能负责任发展的11个关键政策领域。
联合国教科文组织提出的十项核心原则,为以人权为中心的人工智能伦理方法奠定了基础,如下所示
- 相称性和不伤害原则:人工智能系统的使用不得超出实现合法目的的必要范围。应进行风险评估,以防止因此类使用而可能造成的伤害。
- 安全和保障:人工智能行为者应避免和解决不必要的伤害(安全风险)以及攻击漏洞(安全风险)。
- 隐私权和数据保护权:应在人工智能生命周期的各个阶段保护和促进隐私。还应建立适当的数据保护框架。
- 多方利益相关者和适应性治理与合作:在使用数据时,必须尊重国际法和国家主权。此外,多元化利益相关者的参与对于实现人工智能治理的包容性方法至关重要。
- 责任和问责制:人工智能系统应可审计和可追踪。应建立监督、影响评估、审计和尽职调查机制,以避免与人权规范冲突,并防止对环境福祉构成威胁。
- 透明度和可解释性:人工智能系统的伦理部署取决于其透明度和可解释性(T&E)。T&E的程度应与具体情况相符,因为在T&E与其他原则(如隐私、安全和保障)之间可能存在冲突。
- 人类监督和决定:成员国应确保人工智能系统不会取代最终的人类责任和问责制。
- 可持续性:应根据人工智能技术对“可持续性”的影响进行评估,“可持续性”应被理解为一组不断发展的目标,包括联合国可持续发展目标中提出的目标。
- 意识与素养:应通过开放和易于获取的教育、公民参与、数字技能和人工智能伦理培训以及媒体和信息素养来提升公众对人工智能和数据的了解。
- 公平和不歧视:人工智能行为者应促进社会正义、公平和平等,并采取包容性方法,确保人工智能的益处惠及所有人。
💡要阅读联合国教科文组织关于“人工智能伦理建议”的完整报告,您可以访问这里。
在结束本章时,我们还将了解Hugging Face为确保人工智能伦理实践所做的努力。在下一章中,我们将更多地了解偏见、类型以及它们如何在不同的人工智能模型中潜入。
< > 更新在GitHub上