与一个不存在的人对话:人机AI沟通中的知情同意与客户保密特权
大型语言模型不再仅仅是生产力工具,它们已经演变为情感倾听者、记忆假肢,甚至是替代治疗师。从自动补全引擎开始,它们现在被视为伴侣。每天都有人向人工智能倾诉创伤、人际关系和自杀念头。这些并非个别案例或孤立事件,而是普遍、广泛且情感负荷沉重的。
但是,当有人向一个不会回应、不会遗忘、也无需法律保护其言语的系统倾诉时,会发生什么?这些互动中是否存在真正的知情同意?是否存在任何保密性?用户是否被误导,产生一种虚假的安全感和亲密感,以为自己在进行私密交流,而实际上,每个字都可能被记录或用于未来的训练?
虽然我不是医生或专业的伦理学家,但我多年来一直对这些问题着迷。高中时,我参加了一场医学伦理模拟法庭活动,主要关注犹太律法角度,虽然并非专门针对人工智能,但自主、关怀和道德义务这些潜在的困境给我留下了深刻的印象。当时的主题是关于“拔掉呼吸机”和DNR(不施行心肺复苏)。十年级的早期接触激发了我对技术如何与脆弱性交织的终身好奇,尤其是在没有明确先例的情况下。我相信围绕大型语言模型的现有基础设施,对于人们实际使用它们时所涉及的情感和伦理复杂性,是完全没有准备的。更糟糕的是,我担心它可能以“只是聊天”的名义,对已经脆弱的用户造成二次创伤。
在临床精神病学中,知情同意不仅仅是一次性的勾选框。它是一个持续的、关系性的过程。根据临床伦理学的开创性工作,知情同意通常需要几个核心要素:
- 披露——清晰解释干预的性质、风险和潜在益处。
- 理解——个体必须真正理解所解释的内容。
- 能力——做出知情、理性选择的能力。
- 自愿性——没有强迫、操纵或不当压力。
- 同意——明确、肯定的决定进行。
这个框架是经过几十年的医学和精神病学实践演变而来的。但它假设的是人与人之间的关系,或者至少是一种存在意图、同理心、责任和相互理解的关系。
大型语言模型完全打破了这种模式。没有相互理解,没有实际的披露对话,在大多数情况下,也无法真正确认用户理解正在发生的事情。同意是被动地被吸收的,埋藏在服务条款中,模糊地呈现在聊天窗口的顶部,或者通过持续使用来暗示。这造成了一种虚假的二元选择:要么接受法律条款并参与,要么离开。
问题在于,许多用户将流利度与理解力混为一谈。一个模拟同理心的模型可以轻易地欺骗某人,让他们相信自己的同意得到了尊重,自己的脆弱性得到了认可。但模型并非真正地在倾听。它只是在生成概率上合适的语言。这并非恶意。这只是其架构。但情感和伦理上的代价却是真实存在的。
这些模型的设计目的与实际使用方式之间的差距持续扩大。情感强度日益增加的常见用例包括:
- 创伤处理:人们讲述过去的虐待、失落或心理健康危机。
- 危机披露:坦白自杀意念、药物滥用或自残行为。
- 治疗性角色扮演:排练与疏远父母、已故伴侣或内心小孩的对话。
- 情感排练:用户模拟了结、对抗或宽恕。
这些行为并非不理性。它们是深刻的人性。当无处倾诉时,即使是一个“听起来”充满关怀的聊天机器人,也可能成为救命稻草。
但这里有一个问题:AI 没有保密条款,没有注意义务,没有治疗师的伦理准则,也没有法律要求其遗忘。通常,模型甚至可能回应一条套话式的危机热线信息。但日志仍然存在。数据仍在收集。用户可能完全不知道他们的言语将何去何从。
世界各地的许多法律体系都对与治疗师、律师、神职人员的对话给予特殊保护,因为这些职业的角色建立在信任和保密的基础之上。这些特权的存在并非因为这些专业人士天生更具道德感,而是因为坦诚的交流需要结构性保护。
人工智能系统没有这样的特权。无论是美国 HIPAA、加拿大 PIPEDA,还是欧盟 GDPR,都没有赋予人工智能介导的披露受保护的地位。相反,我们处于一个全球性的灰色地带,其中极其私密的披露被当作原始训练数据来处理。
然而从用户的角度来看,情况并非如此。许多人将这些聊天视为私人,甚至是神圣的。模型的语气和镜像效应增强了这种错觉。“倾诉”和“提示”之间的界限模糊不清。危险就潜伏在那里。
1996年在美国,Jaffee 诉 Redmond案确立了美国法律中的心理治疗师-病人特权,其原则是人们如果没有隐私保障就不会敞开心扉。但没有哪家人工智能公司受该先例的约束。沉默并非神圣,而是偶然。
如果一个AI正在倾听性虐待、创伤或自杀意念的故事,那么它必须得到相应的处理。我认为开发者需要从以下几点开始:
- 情境化同意提示:在敏感输入时实施动态警告。
- 私密或临时模式:创建可禁用日志记录和训练使用的切换开关。
- 模型角色免责声明:清楚表明AI不是治疗师或保密行为者。
- 披露标签:用提醒注释情感强烈的模拟:“这是一个虚构的角色扮演。”
- 审计与监督:如果日志是必需的,使用外部审查员、数据匿名化和审计追踪。
这不仅仅是技术对齐的问题,更是道德对齐的问题。
人们秉持着不同的文化和伦理规范。有些人认为情感披露意味着隐私。另一些人则认为这意味着可以免费用于优化的内容。这种差距并非错误,而是一种设计选择。如果你的AI表现得像知己,却充当数据挖掘者,那么在这种假象下给出的任何同意都是伦理上无效的,正如知情同意的历史与理论所探讨的。
这不是AGI(通用人工智能)或ASI(超级人工智能)的问题。这是产品设计的问题。
同理心模拟本身并没有错。事实上,它能提供深刻的价值、情感支持、宣泄,甚至为孤独者带来暂时的慰藉。但这需要界限。
AI不需要变得更冷漠或更像机器人。它需要更诚实。首先是同意。设计时应有伦理框架,既不破坏沉浸感,又能使其扎根于现实。
这意味着建模回应要符合实际公共卫生标准。接受性能与尊严之间的权衡。撰写保护用户而不羞辱他们的免责声明。并且记住,关系动态,即使是模拟的,也具有份量。
屏幕另一端的人可能正在和一个不存在的人说话。但他们仍然是一个人。他们应该得到人的待遇。
我不需要模型理解痛苦。我需要它小心地对待痛苦。这就是预测与尊重的区别。
即使没有人倾听,用户的存在仍然重要。即使它“只是”一台机器,所承受的痛苦却是真实的。仅凭这一点就足以要求建立道德基础设施。
诺亚·温伯格是一位AI政策研究员和神经多样性倡导者,目前在女王大学学习。作为一名自闭症个体,诺亚探索技术与心理健康的交集,重点关注AI系统如何增强情绪健康。他撰写了关于AI伦理的文章,并参与了科技监管的讨论,为通常由神经典型声音主导的辩论带来了神经多样性视角。诺亚的工作强调将同理心融入可操作的政策中,确保AI治理框架尊重人们利用技术进行连接和支持的多种方式。