从希波克拉底到人工智能:关于同意演变的思考

社区文章 发布于 2025 年 2 月 4 日

自希波克拉底誓言时代以来,同意的概念经历了巨大的转变,当时医生被建议“对患者隐瞒大部分信息”。这种家长式的方法,即医生单方面做出治疗决定,在医疗保健领域占据了几个世纪的主导地位。第二次世界大战后,纽伦堡法典的建立标志着一个关键的转变,该法典针对战时医疗暴行制定了新的同意标准。今天,随着人工智能推动我们重新思考在个人数据可以以古希腊人无法想象的方式进行转换的时代,同意意味着什么,我们面临着新的挑战。

现代医学伦理规定,有效的同意必须是知情的、自愿的,并由具有充分决策能力的人提供。该框架要求充分披露、核实理解,并确认协议是在没有胁迫的情况下达成的。这些原则作为保护机制出现,保护个人免受潜在伤害,同时维护其自治和身体主权的基本权利。就像一个专有的大门,通过有意识的选择允许他人进入,同意将原本不允许的行为转化为允许的行为。人工智能系统的变革能力暴露出传统同意框架的重大局限性。虽然个人可以同意其数据的初始使用,但人工智能可以生成远远超出原始许可范围的输出和影响。这种现象产生了所谓的“同意鸿沟”——在这种情况下,点击数据收集通知上的“我同意”变得有问题,正是因为同意行为使得无数意想不到的个人信息应用和表示成为可能。与(希望有)明确结果的医疗程序不同,人工智能对个人数据的潜在用途几乎是无限的。

当我们努力应对人工智能时代的同意问题时,我们面临的挑战与几十年前重塑医学伦理的挑战类似。正如医疗保健提供者必须在尊重患者自主权和其专业义务之间取得平衡一样,人工智能系统也必须在技术能力和个人权利之间进行权衡。解决方案可能在于认识到同意不仅仅是一种描述性行为,它还具有固有的道德分量。虽然正式的法律框架试图将数据保护的同意要求编纂成法典,但我们需要新的伦理范式来解决传统同意机制与人工智能能力现实之间的根本脱节,尤其是在个人自主权和身份权利方面。

这些挑战表明,弥合数字鸿沟可能需要我们从根本上重新构想同意本身。如果不是一次性许可,我们能否探索随着人工智能能力发展而演变的动态同意系统?正如医疗保健从以医生为中心的权威转变为患者自主和自决一样,我们必须从以技术为中心的数据实践转变为用户对其数字身份的真正主权。这种演变要求建立既尊重个人能动性又承认人工智能变革能力的框架。这种方法可能意味着开发与不同级别数据转换相对应的分层同意系统,或者创建机制让个人保持对其数据在人工智能系统中流动的控制权。问题不再仅仅是关于同意,而是关于重新构想个人与其个人信息的多重、不断演变的表示之间的关系。随着人工智能系统生成新形式的数据衍生内容,我们需要承认个人信息如何以远远超出传统数据使用概念的方式进行转换、组合和重新利用的框架。

我们是否应该超越我们所知的同意,或者通过新的用户参与维度来增强它?随着人工智能不断重塑个人信息如何被表示和使用,也许我们需要一个在同意基础上构建,同时拥抱人工智能系统中数据动态性质的伦理框架。

社区

我喜欢这些文章。人工智能的“饼干”怎么样?我记得有一个平台/公司从消费者角度提供了正常同意管理的良好概述,但我忘记了它的名字。对于你每天遇到的各种自动化决策系统来说,类似的东西可能会很好。

我认为我们正在看到来自所有政治方面的对“家长式方法”的大量文化反弹,这在我看来很棒。例如,每个人都同意,仅仅盲目信任大公司(例如,我们看到的食品金字塔)可能会导致负面结果,并且由于透明度的提高和有意义地同意的能力,我们普遍受益于变得更加知情、拥有更多自主权并能够做出更好的决策。

文章作者

@davidberenstein1957 聪明的主意!您是需要接受一次还是每次更新都需要接受?

@lunarflu 这一切都与赋予代理权和拥有(适量的)信任有关:)

@giadap ,是的,类似的东西。例如,当模型版本更新/传递不同的提示时。或者,您可以进行一般接受。

这样,用户数据的使用也可能变得更清晰。人工智能模型 x 使用变量 1 到无限来预测 Z。Netflix 用户、位置、您观看的视频和您的设备类型来预测您推荐的视频。您是否允许他们在此人工智能用例中使用这些信息?

注册登录 以发表评论