AI 在物化女性方面存在问题

社区文章 发布于 2024 年 5 月 24 日

2024 年 5 月 24 日

上周,OpenAI 公开展示了他们的新聊天机器人 ChatGPT 4.0,该机器人现已配备语音界面。演示中使用的其中一个名为 Sky 的声音立即引起了广泛关注,不仅因为其采取的恭顺态度(评论其中一位演示者所穿的服装),还因为它与斯派克·琼斯 2013 年电影《她》中使用的声音惊人地相似,那部电影讲述了一个男人爱上他的操作系统,该操作系统的配音是斯嘉丽·约翰逊。OpenAI 的首席执行官山姆·奥特曼甚至在同一天发了一条只有一个词的推文“她”,进一步巩固了人们心中的这种联系。

但在 ChatGPT 4.0 演示一周后,斯嘉丽本人发表了声明,称 OpenAI 在她多次拒绝与该公司合作的情况下,仍然模仿了她的声音。该公司已经在周末停用了该声音,但问题仍然存在——如果一位好莱坞女演员觉得AI工具以扭曲其声音和形象的方式利用和虐待她,那么我们其他人还有什么希望呢?

我在人工智能领域工作了十多年,这个领域的女性研究员不到 12%。我常常是小组讨论中或会议桌上唯一的女性,而且——我必须承认——确保世界上 50% 的人口在有可能改变人类的技术中得到代表,这确实令人筋疲力尽。然而,我们在创建人工智能系统时所做的微小选择,可能会产生深远的影响,助长根深蒂固的观念和持久的刻板印象。

以 Lenna Forsten 为例,她的图像被用作测试压缩算法和机器学习模型的行业标准,尽管她一再要求停止使用该图像。据我所知,所有官方副本现已下架(之前,您可以在 OpenCV 和 SciPy 等库中自动加载它),但人们仍然在学术论文和模型演示中使用它,因为它在 AI 社区中获得了狂热的地位。

除了对个别女性的描绘,对整个性别的呈现也常常令人难以置信地物化和贬低:多年来在计算机视觉领域,一项被广泛接受的用于测试 AI 模型性能的任务是为女性图像化妆,或者将她们的衣服从牛仔裤换成迷你裙,再换回来。

image/png 图片来源:Zhang et al. (2019)

由于这些系统在广告方面有明显的应用,因此对同意和代表性的考虑严重不足,每次我提出异议时,都会遭到反对——毕竟,这只是一个“基准”。

image/png 图片来源:Mo et al. (2019)

随着越来越逼真的图像生成模型的出现,女性的物化现象只会有增无减。就像用穿着比基尼吃汉堡的女性广告来推销皮卡车一样,人工智能生成的女性图片——名人,以及来自互联网的匿名人士——也经常被用来展示图像生成模型有多么出色。因为,有什么能比一个穿着炸鸡比基尼的半裸女人更能展示图像生成模型的进步呢?

image/png

图片来源:Reddit

尽管人工智能图像生成模型存在已记录的问题行为,从自发生成女性裸照模型中固有的性别和种族偏见,人工智能无疑在物化女性方面存在问题,这给好莱坞名人和像我这样的普通人带来了后果。

但并非一切都已失去——可以采取许多行动来改变现状。对于决策者而言,更多地认识到性别和权力问题可以转化为强调权力职位的多样性,例如董事会和高管职位。

对于人工智能开发者来说,这可以通过以下方式实现:避免在系统演示中隐性物化女性,不将常见的“传统上具有吸引力的年轻妙龄女性”图片用作首选示例,并获得您选择用于说明您系统的人员的明确同意。

对于整个社区,我们可以更好地支持像机器学习女性协会(我就是其董事会成员之一!)这样的组织,以扩大女性在该领域的声音,并赋能后代。

因为斯嘉丽的事件并非首次,也远非人工智能领域掌权者对女性和少数民族进行此类待遇的最后一次。而抵制这种待遇——并要求尊重、同意和拥有发言权——可以帮助扭转人工智能长期以来物化女性的传统。

社区

注册登录发表评论