人工智能能否获得用户同意?在“万物皆可合成”时代重新思考许可
想象一下,你发现一个人工智能系统已经完美地模仿了你的声音、你的写作风格,甚至你的笑声,而所有这些都来自你多年前无意中提供的数据。现在,想象一下,这个数字化的你正在接受采访、代言产品,或者表达你从未有过的观点。你从未明确同意所有这些,然而,在某个你点击同意的服务条款中,你显然已经同意了。
这种情况正在发生,它引出了一个直指我们数字未来核心的问题:人工智能是否能真正“获得用户同意”?
在我们的学术研究中,我的同事布鲁娜·特雷维林 (Bruna Trevelin) 和我探讨了这个问题。剑桥大学出版社即将出版的一章将探讨人工智能背景下同意面临的根本挑战以及当前框架为何失效。
同意型人工智能的承诺
“同意型人工智能”这个词听起来可能像是学术术语,但它代表着一个重要的概念:人工智能系统的构建核心应该是获得有意义的人类许可,而不是将法律合规性作为事后考虑。传统的同意(我们在医学或法律中习以为常的那种)之所以有效,是因为它在明确的边界内运作。当你同意手术时,你知道你同意了什么程序,谁将执行它,以及大致会发生什么。但人工智能打破了这些边界,使得传统的同意框架感觉就像用马车在高速公路上行驶。当连开发者都无法完全知道他们的人工智能将如何使用你的数据时,你又如何有意义地同意呢?正如我们在之前的分析中所详述的,人工智能产生了三个根本问题:范围问题(同意无限的可能性)、时间性问题(无法有意义撤回的同意)和自主性陷阱(说“是”会损害你未来的选择)。
真正获得用户同意的人工智能会是怎样的?
与其举手投降,宣布同意是不可能的,不如我们设想一下真正获得用户同意的人工智能可能意味着什么。它将需要我们从头开始重建我们的方法。
动态许可系统:取代一次性的“我同意”点击,想象一下,同意会随着人工智能的能力而演变。当系统获得新能力或你的数据支持新应用时,你将有意义地参与这些决策。
精细控制:真正获得用户同意的人工智能将允许你不仅指定收集哪些数据,还可以指定数据如何被转换、组合和呈现。把它看作是你数字身份的详细权限。
算法守护者:个人人工智能助手将监控你的数据在各个系统中如何被使用,并提醒你新的应用,帮助你持续控制你的数字存在。
集体治理:一些关于人工智能开发的决策可能过于重要,不能仅仅依靠个人同意。同意型人工智能可以包括社区层面的治理,让群体在如何使用其集体数据方面拥有发言权。
许可的经济学
同意型人工智能面临的最大障碍之一是经济方面的。当前的商业模式依赖于以最小的摩擦从个人数据中提取最大价值。有意义的同意会产生摩擦并可能减少利润。但这种经济模式已经出现裂痕。艺术家们正在起诉人工智能公司未经授权使用他们的作品。配音演员正在就合成语音技术举行罢工。消费者对数据密集型平台越来越持怀疑态度。在同意问题上进行“逐底竞争”在经济上可能是不可持续的。
如果同意型人工智能能够创造新价值,而不仅仅是提取价值呢?尊重用户自主权的平台可能会获得更高的溢价。基于道德获取、获得适当同意的数据训练的人工智能系统可能比基于抓取内容构建的系统更值得信赖和有价值。
集体挑战
也许最重要的见解是,真正获得用户同意的人工智能无法仅靠个人行动来解决。当前的模型将理解和管理数千项服务中无数同意决策的重担不可能地加在了用户身上。
需要怎样的转变?从个人责任转向集体问责制,组织必须默认设计尊重人类自主权的系统。开发者需要从一开始就将可解释性和伦理融入到他们的模型中。政策制定者必须创建超越最低合规要求的框架。同意型人工智能需要一种整体方法:将同意与公平、透明、问责制和自主性视为相互关联的原则,而不是独立的复选框。
未来的问题
随着人工智能变得越来越强大和普及,同意的问题变得更加紧迫。以下是一些值得探讨的问题:某些个人数据的使用是否风险过高,以至于仅仅个人同意不足,需要社区批准或彻底禁止?我们如何开发能够增强而非削弱人类自主权的人工智能系统?在一个由人工智能驱动的世界中,真正选择和控制我们的数字身份意味着什么?我们如何平衡人工智能的集体利益(如医学突破)与个人控制个人数据的权利?
接下来
同意型人工智能重新构想了人与人工智能系统之间的关系:从提取到协作,从监控到伙伴关系。这种转变并非易事。它挑战了现有的商业模式,需要新的技术方法,并要求我们更仔细地思考我们正在构建的未来。但是,另一种选择——一个人工智能系统在没有有意义的人类许可的情况下运行的世界——则更糟糕。
“人工智能能否获得用户同意?”这个问题最终取决于我们今天做出的选择。技术并非命运。我们仍然可以选择构建能够增强而非削弱人类自主权的人工智能系统。我们是同意一个人工智能在缺乏有意义的人类控制下运行的未来,还是坚持要求更好的未来?