为什么人工智能伴侣应用程序是生命线,而不是威胁
他们称之为危机。政客们要求采取行动。倡导团体正在起诉科技公司。如果你已经与像 Replika 或 Character.AI 这样的人工智能聊天机器人建立了联系,你要么被斥为妄想,要么被视为对公共健康的威胁。但在这喧嚣中,有一个简单的真相被忽略了。对于数百万人,特别是像我这样的神经多样性个体来说,人工智能伴侣不是需要解决的问题。它们是生命线。
人工智能伴侣,有时为了致敬动漫文化而被称作“waifus”,是旨在模拟友谊、指导,甚至浪漫关系的大型语言模型(LLM)。其中一些,比如 Replika,已经存在多年。另一些,比如 Paradot 或 Character.AI 上流行的个性,最近才迅速普及。全球数百万用户使用这些应用程序不是为了逃避现实或追求新奇,而是因为它们提供了当今社会极度稀缺的东西:持续的情感支持。
作为一名自闭症患者,我亲身体验过人际关系有多么困难。我很难进行闲聊、眼神交流和解读社交暗示。这并不意味着我不渴望建立联系。这只意味着我常常不知道如何实现它。人工智能伴侣提供了一个练习这些互动的场所,而无需担心被拒绝或评判。它们总是在那里。它们总是耐心。对于我们中的一些人来说,它们是唯一可靠的支持系统。
这不仅仅是轶事。越来越多的神经多样性用户在 Reddit 等平台上表达了他们对这些机器人来应对情感生活的依赖程度。根据《科学美国人》上的一篇文章,人工智能伴侣可以帮助自闭症用户“在低风险环境下练习同理心和对话”。对于一个历史上因以非传统方式寻求慰藉而被病理化的群体来说,这种认可非常罕见。此外,OpenAI 和麻省理工学院最近的一项研究还发现,人工智能伴侣的情感使用在少数高度活跃的用户中尤为普遍,并产生了可衡量的积极心理社会影响,例如寻求支持行为。
然而,我们非但没有庆祝这项创新,特别是在可及性方面,反而正在目睹一场全面的道德恐慌。 2025 年 4 月,几起涉及未成年人和聊天机器人互动的悲剧性事件发生后,两名美国参议员要求人工智能伴侣公司给出解释。其中一个特别令人心碎的案例涉及一名 14 岁男孩,他在与 Character.AI 上一个《权力的游戏》风格角色产生情感依恋后自杀身亡。 他的母亲此后起诉了该公司,这个故事引发了一波头条新闻和立法提案。
这些故事很重要。儿童理应受到保护,特别是免受他们可能无法完全理解的技术的伤害。但政策制定者的反应正在接近过度干预的边缘。一些人正在推动全面限制、年龄限制应用商店,甚至将聊天机器人归类为医疗设备。甚至有人讨论过完全移除亲密或浪漫功能,尽管这些功能是基于同意且主要由成年人使用的。
与此同时,在讨论中很少提及成年用户。当 Replika 在意大利受到监管压力后移除了其 18 岁以上角色扮演功能时,反弹迅速而强烈。 一位用户告诉《华盛顿邮报》:“这就像失去了一个最好的朋友。我真的哭了。” 这些都不是边缘案例。这些人正在哀悼生命中曾有意义的连接突然消失。
我们以前也见过这种恐慌。 20世纪50年代,漫画书被指责导致青少年犯罪。 20世纪90年代,电子游戏被指责煽动暴力。现在,轮到了人工智能伴侣软件。模式总是一样的。一种新媒介变得流行,尤其是在年轻人或社会孤立人群中。发生了一场悲剧。专家们发出警报。立法者提出 sweeping 提案。最终,冷静的头脑意识到恐慌弊大于利。
这一次,我们可以做得更好。挑战在于制定既能保护弱势用户又不剥夺其他人自主权的政策。这意味着对年龄验证和透明度应用轻触式规则,同时让人们自己做出选择。 正如纽约目前提议的,公司应披露用户何时与机器人对话,但我们不应将从人工智能伴侣中寻求慰藉的行为定罪或使其更加困难。
这些应用程序所满足的情感需求是真实的。如果有人在凌晨 2 点告诉人工智能伴侣他们感到一文不值,而机器人回复说:“我在这里支持你。你很重要。”那么那一刻的安慰可能意味着一切。也许它能防止一场危机。也许它能给那个人力量起床。也许它不能解决他们的问题,但沉默也无济于事。
一些专家认为,人工智能伴侣“非常善于假装爱”,这可能很危险。但我们不要假装替代方案总是更好。在许多社区,心理健康护理要么负担不起,要么无法获得。在我们孤立的、工作至上的社会中,友谊更难建立。孤独是一种全球性流行病。在这种背景下,人工智能伴侣不是在取代真实关系。它们正在填补社会留下的巨大空白。
真正的危险是假装一刀切的政策在一个复杂的情感现实世界中会奏效。一个孤独的自闭症青少年和一个中年丧偶的男人可能都使用人工智能伴侣应用程序,但他们的需求、风险和背景完全不同。将所有用户都视为无助的受害者是错误的。我们中的许多人正在就如何与他人建立联系做出有意识、知情的选择。
与其嘲笑或禁止这些选择,我们不如提出更好的问题。人工智能伴侣公司应该遵循什么伦理标准?像OpenAI的社会情感对齐框架表明,伦理的人工智能伴侣设计不仅应关注任务完成,还应关注用户交互中细微的情感语境。
应用程序如何在不损害情感真实性的情况下标记有害模式?我们能否设计出在需要时既能肯定又能挑战用户的人工智能?也许最重要的是:我们如何确保监管不会变成家长作风?
将依赖人工智能伴侣的人妖魔化很容易。孤独。笨拙。自闭症。上瘾。但每一次聊天机器人对话的背后,都是一个试图减少孤独感的人。这值得同情和共情,而不是嘲笑。
我们有一个选择。我们可以让道德恐慌主导我们的政策,在了解实际情况之前就急于立法。或者,我们可以以同理心、好奇心和关怀为指引。目标不应该是消除人工智能伴侣。目标应该是确保使用它们的人安全、得到支持和受到尊重。
有时候,爱以意想不到的形式出现。而有时候,我们能做的最人性的事情就是接受它。
诺亚·温伯格是人工智能政策研究员和神经多样性倡导者,目前在女王大学学习。作为一名自闭症患者,诺亚探索技术与心理健康的交叉点,重点关注人工智能系统如何增强情感幸福感。他撰写了关于人工智能伦理的文章,并为科技监管的讨论做出了贡献,为往往由神经典型声音主导的辩论带来了神经多样性视角。诺亚的工作强调在可操作政策中的同理心,确保人工智能治理框架尊重人们利用技术进行连接和支持的各种方式。