我点击了“我同意”,但我到底同意了什么?

社区文章 发布于2025年3月26日

万维网诞生近四十年后,我们大多数人已经习惯于不假思索地盲目点击隐私政策中的“我同意”。这些同意机制是为更简单的数字时代设计的,那时数据使用的限制更加明确。但随着能够从海量数据集中创建类人内容的生成式AI系统的兴起,我们面临着过时的知情同意框架。现在的问题不再仅仅是你同意什么,而是AI时代下,有意义的知情同意是否可能。

AI中知情同意的主要问题

当你授权一家公司使用你的数据时,你可能有一个特定的目的。也许你允许语音助手记录你的命令以改进其服务,或者允许照片应用程序分析你的照片以帮助你以后找到它们。但生成式AI带来了三个根本性问题,这些问题是传统知情同意框架无法处理的:

  • 范围问题;
  • 时间性问题;
  • 自主性陷阱。

范围问题:同意未知事项

以面部识别技术公司Clearview AI为例,该公司未经任何人同意,从社交媒体、在线个人资料和摄影网站收集了超过200亿张图片。这些图片被用于为执法和政府监控建立面部识别数据库——这是大多数人在网上发布度假照片或专业头像时从未预料到的用途。

即使公司确实征求许可,我们数据可能的使用方式也变得无法预测。想象一位配音演员同意录制有声读物。对该演员声音进行训练的AI日后可能被用于政治背书,或提供金融建议——所有这些用途都完全超出了他们最初授权的范围。这种现象造成了“表征漂移”问题,意味着随着AI模型的发展,我们最初的知情同意与数据最终用途之间的联系变得越来越模糊。

时间性问题:“不”变得毫无意义

与边界清晰的离散交易不同,AI在人与数字表征之间创建了一种开放式关系。一旦你的数据进入训练数据集,提取其影响就变得技术上具有挑战性,甚至不可能。

2023年好莱坞罢工期间,电影演员担心,以他们的表演进行训练的AI系统可能会无限期地使用他们的肖像生成新内容——远远超出任何最初的许可范围。虽然美国演员工会-广播电视艺人联合会(SAG-AFTRA)与Replica Studios和Narrativ等公司达成了协议,赋予演员更多对其声音使用方式的控制权,但一个根本问题仍然存在:一旦AI从你的数据中学习,它就无法真正“忘记”这些数据。

自主性陷阱:说“是”会损害您未来的选择

也许最令人不安的是,AI语境下的知情同意如何可能损害知情同意所声称要保护的自主性。通过同意让我们的数据训练AI系统,我们可能无意中授权了那些日后影响他人如何看待我们的系统。

还记得Target公司在一位父亲得知他女儿怀孕之前就发现了她的怀孕信息的著名案例吗?该公司的算法识别出怀孕顾客的常见购物模式,并开始向她家发送婴儿用品广告。该算法从看似无害的数据(如购物模式)中推断出敏感的健康信息——这是任何购物者在购买日常用品时都无法合理预料的。

这产生了一个反馈循环:我们同意的数据使AI能够做出预测,然后这些预测塑造了服务和他人如何与我们互动和感知我们,可能强化我们身份的某些方面,同时抑制其他方面。

为什么当前法律框架不足

欧洲GDPR是世界上最强的数据保护框架之一。它要求知情同意必须是“自由给予、具体、知情且明确的”。但在生成式AI的背景下,这些要求几乎不可能实现。

  • 具体性:当AI生成内容的潜在用途几乎无限时,知情同意如何能具体呢?

  • 知情性:当甚至AI开发者有时都无法解释他们的模型为何产生特定输出时(即“黑箱问题”),普通用户如何能真正知情?

  • 明确性:生成系统可能产生的输出数量庞大,使得全面披露成为不可能,从而使任何知情同意都变得固有模糊。

实际影响

德国Facebook案例说明了这些问题。2019年,德国竞争管理局裁定Facebook通过强迫用户同意在多个平台广泛收集数据,滥用了其市场主导地位。这凸显了数字经济中的权力不平衡;在没有有意义的替代方案的情况下,用户几乎别无选择,只能接受所提出的条款。

同样,配音演员发现他们的合成声音被用于未经授权的商业应用、政治信息或他们绝不会同意的不当内容。他们的自主权不仅通过未经授权使用原始录音而被侵犯,而且还通过创建他们从未说过的新合成陈述而被侵犯。

超越个人责任

当前的知情同意模式将过多的责任推卸给个人,同时未能考虑到AI系统的复杂性。为了使知情同意具有意义,责任必须超越个人,包括企业、开发者和政策制定者。

  • 转移负担:组织应该设计默认保护隐私的系统,而不是要求用户持续保持警惕。

  • 创建集体倡导:行业联盟、专业协会和民间社会团体可以制定超越最低合规要求的道德AI开发共享标准。SAG-AFTRA与语音技术公司达成的协议表明,集体谈判如何有助于解决权力不平衡问题。

  • 建立更好的技术保障:联邦学习(AI在不离开设备的情况下从数据中学习)和差分隐私(向数据中添加噪音以保护个人)等技术解决方案可以减少对全有或全无同意决策的需求。

  • 恢复权力平衡:社区和个人需要工具和平台,使他们在决定数据使用方式方面拥有有意义的谈判能力,而不是面对科技巨头“要么接受,要么放弃”的条款。

  • 发展数据受托人:类似于金融或法律受托人,我们可以建立受信任的中介机构,他们在管理个人数据时负有法律义务,以人们的最佳利益行事,帮助个人驾驭复杂的AI系统。

前进的道路

也许是时候承认,传统知情同意模式不足以应对AI时代。我们需要新的框架,以识别生成技术带来的新挑战,同时仍能保护个人权利。

这可能包括集体治理机制,即社区而不仅仅是个人对数据使用拥有发言权。它可能涉及“算法守护者”等技术解决方案,帮助我们管理跨平台的数字存在。或者它可能需要全新的法律框架,这些框架较少关注收集点知情同意,而更多关注AI系统如何使用和表示个人数据的持续问责制。

我们不能再假装“我同意”就足够了。AI正在未经我们允许的情况下改变知情同意的规则。我们能够有意义地同意的内容与AI系统能够处理我们的数据之间的差距已经变得太大了。弥合这个“知情同意鸿沟”将需要重新构想知情同意本身,以及我们在人工智能时代处理数据权利的整体方法。


本博客文章基于一本即将出版的书籍章节,该章节由作者与Bruna Trevelin合著,探讨了AI背景下知情同意的挑战,该章节将收录于剑桥大学出版社出版的合著书籍中,由Marios Constantinides和Daniele Quercia(诺基亚贝尔实验室)编辑。

社区

注册登录以发表评论