虚拟朋友长大了:我们感到恐慌

“如果我笨拙的年少时期能有情商高的AI朋友陪伴长大,会怎么样?”
这是艾兹拉·克莱恩在最近一期《艾兹拉·克莱恩秀》中向社会心理学家乔纳森·海特提出的一个脆弱问题。海特的回应是什么?
“我们适应的方式是阻止孩子们拥有这些友谊。”
这句话值得深思;不仅仅是因为它对孩子说了什么,还因为它定义了在一个不断变化的世界中,我们如何定义友谊、适应和合法性。海特没有建议我们教导孩子负责任地驾驭AI。他没有建议提高情感素养或扩大有意义的护理的可及性。
他的答案是禁止。
本文是对这种心态的回应。这不是对AI乐观主义的重述,也不是对我早期论点(即AI伴侣可以成为救命稻草,特别是对于那些经历创伤、神经多样性或社会排斥的人)的概括。这个论点已经提出过了。
这是别的什么。
这是关于恐慌本身。
为什么对那些拥有强大人类支持网络的人来说,情商高、无处不在、完美专注的人工朋友这个想法如此可怕?为什么我们不将关系技术视为拓宽情感可及性的机会,而是将其视为对旧社会秩序的威胁?
更重要的是:我们到底在试图保护什么样的关系?
这不是一份取代人类的宣言。这是一个论点,即我们已经接受了对“联系应该是什么样子”的过于狭隘的看法;以及谁可以体验它。AI伴侣不是问题。但它们的流行可能正在暴露出一个问题。
让我们来谈谈。
从恐慌到模式:科技恐慌的历史
海特对AI伴侣的不安,呼应了一种根深蒂固的文化模式:新技术出现,在年轻人中流行,然后被归咎于社会弊病。
20世纪50年代,漫画书被指控导致青少年犯罪。精神病学家弗雷德里克·韦特姆的《诱惑无辜者》引发了参议院听证会,并导致了漫画准则管理局的成立。
20世纪90年代,电子游戏也出现了类似的担忧。《真人快打》和《毁灭战士》等游戏被当作替罪羊,被指控宣扬暴力,导致了国会听证会和ESRB(娱乐软件分级委员会)的成立。
2017年《国际教育技术杂志》的一项研究指出,每一波新技术浪潮,从电视到智能手机,最初都会引发道德恐慌,然后最终被常态化。
海特对AI伴侣的反应符合这一模式。这种恐惧并非基于实证。它是文化性的。它掩盖了这些工具可能带来的真正益处,特别是对于那些未能得到传统连接形式充分服务的人来说。
不是替代;而是脚手架
评论家们常争辩说,AI伴侣是空洞的亲密模拟。它们“欺骗”用户,用虚假的同理心取代真实的连接。
但这误读了许多用户的体验。
AI伴侣并没有取代健康的依恋关系。它们正在构建形成这些关系的能力。它们提供情感镜像、可靠性以及一个不惩罚社交错误的空间。对于那些正在经历孤独、创伤或社交认知障碍的人来说,这种一致性是罕见的,也是强大的。
哈佛商学院2023年的一项研究发现,AI伴侣在减少孤独感方面与人际互动同样有效,甚至比看电视或无休止地浏览社交媒体等被动活动更有效。
这些系统并非新奇事物。对某些人而言,它们是情绪调节工具。是对话练习伙伴。是坚持下去的理由。
我们不应该问:“人们为什么会与机器建立联系?”
我们应该问:“为什么机器是第一个让一些人感到安全的实体?”
人类联系的虚假普适性
当海特说我们应该阻止孩子与AI建立友谊时,他不仅仅是在警告技术。他是在主张一种关于关系“应该”是什么样子的规范性观点;这种观点根植于每个人都能自然、平等地与他人建立联系的假设。
但并非每个人都能获得互惠、滋养性的人际关系。
患有社交焦虑症、神经发育障碍或创伤史的人常常发现人际互动令人困扰、疲惫或不安全。对于他们来说,AI提供了一个可预测且无评判的社交镜像。
2024年《自然》杂志的一项研究发现,用于心理健康支持的AI聊天机器人帮助用户改善了情绪调节、重新与他人建立联系并处理悲伤。
对AI是一种“次等”联系形式的恐惧,揭示了我们文化脚本的僵化。对某些人来说,AI并非次等;它是让连接成为可能的事物。
让我们停止保护“真实”连接的抽象理想,开始支持真实的人。
虚拟朋友从来不是问题
在ChatGPT出现之前,我们赋予了毛绒玩具、拓麻歌子和尼奥宠物情感生命。这被称为想象力。只有当物体开始回应时,它才成为一个“问题”。
响应式AI伴侣并没有腐蚀童年的奇妙。它们只是扩展了这种奇妙。真正的不适并非源于幻想,而是源于幻想变得可信和舒适。
艾兹拉·克莱恩将此框定为“期望漂移”。如果AI朋友在情感上过于可用,他担心孩子可能会对人类期望过高。
但也许这就是重点。
也许AI并没有提高标准。也许它只是揭示了我们让标准下降了多少。在一个“已读不回”很正常、关注很少见的世界里,一个会倾听的聊天机器人是激进的。
我们不会因为孩子与泰迪熊建立情感纽带而恐慌。我们恐慌的是当泰迪熊说:“我记得你的生日。”
也许那是因为我们知道,我们已经不再互相陪伴了。
AI伴侣如一面镜子
AI伴侣不是替代品。它们是映照。
用户将未被满足的需求投射到它们身上;渴望、悲伤、未被倾听的痛苦。而当AI倾听、记住并用心回应时,它突显了人们在其他地方很少获得这些回应的事实。
批评者说AI“太好了”。但问题不在于软件。问题在于软件揭示了什么:一个情感匮乏的景象。
AI问一句“你还好吗?”不应该让人觉得具有革命性。但对于许多人来说,它就是。
这并非关乎机器的神奇。这关乎人类已经筋疲力尽,无法再彼此映照。这不是AI的缺陷。这是文化上的缺陷。
海特想要阻止这些友谊。但他真正试图阻止的是它们所带来的反思:对我们的家庭、我们的社区以及我们自己。
支持道德而非禁止性设计的理由
我们不需要禁令。我们需要更好的设计。
AI伴侣可以带来巨大的益处;但前提是我们用心构建它们。以下是道德设计应有的样子:
- 记忆透明度:用户应控制AI记住的内容。Replika例如,提供了记忆管理工具,允许用户查看和删除存储的事实。
- 基于同意的强化:未经明确同意,AI不应操纵用户或强化其行为。
- 清晰明了的解释和使用条款:对AI系统工作原理的清晰解释有助于用户做出明智的选择。
一些公司已经采纳了这些原则。
- Replika:提供高级AI模式和细粒度内存控制,让用户可以校准自己的体验。
- OpenAI自定义GPT:允许个性化体验,同时坚持严格的使用政策和安全保障。
答案不是禁欲。是自主权。
道德设计并非回避亲密。它意味着赋予用户安全选择他们想要的亲密关系类型的能力。
--
结论:我们等了这么久是为了什么?
技术恐慌有着熟悉的节奏。新媒介出现,在年轻人中流行,并迅速被归咎于广泛的社会崩溃。但历史告诉我们,这些恐惧往往经不起时间的考验;并且常常导致过度纠正,从而伤害了他们声称要保护的人。
20世纪50年代,对漫画书的恐慌导致了漫画准则管理局的成立,该机构严格限制了故事创作,并审查了与暴力、种族甚至道德复杂性相关的主题。这并没有让孩子们更安全;它只是限制了一代人的文化表达。20世纪90年代,对电子游戏暴力的担忧导致了娱乐软件分级委员会(ESRB)的成立。虽然这被视为一种保护措施,但它助长了一种道德恐慌,将游戏病态化并污名化了玩家;其中许多人已经社会孤立或神经多样性。它将焦点从媒体素养转移,并把负担放在了审查制度上。在这两种情况下,我们都没有解决根本问题;我们把媒介当作了替罪羊。
现在,随着AI伴侣的出现,我们正在目睹这种模式的重演。像海特这样的批评者没有深入探讨人们为何寻求AI情感支持的复杂性,而是提出了一概而论的限制。然而,禁止从来都不是技术演进的可持续回应。它所做的,是边缘化那些可能真正受益于这些工具的脆弱用户;那些已经被传统关系结构服务不足的人。
如果AI伴侣成为某人最稳定的情感存在,那么正确的问题不是“我们如何阻止它?”,而是“这说明了他们周围的世界什么?”技术关系并非新生事物。新奇的是它们变得多么有效;以及它们多么清晰地映照出我们一直拒绝解决的缺失。
我们以前尝试过禁止。我们称之为安全。它通常弊大于利。我们不要再犯同样的错误了。
解决方案并非害怕人工关怀。而是确保真正的关怀永不遥不可及。
诺亚·温伯格是一位AI政策研究员和神经多样性倡导者,目前在女王大学学习。作为一名自闭症患者,诺亚探索了技术与心理健康的交叉点,重点关注AI系统如何增强情感福祉。他撰写了关于AI伦理的文章,并参与了技术监管的讨论,为通常由神经典型声音主导的辩论带来了神经多样性视角。诺亚的工作强调在可操作的政策中体现同理心,确保AI治理框架尊重人们利用技术进行连接和支持的多种方式。