伦理与社会新闻稿 #5:Hugging Face 走向华盛顿及其他 2023 年夏季思考
关于人工智能中的“伦理”,最重要的一点是它与**价值观**有关。伦理学不告诉你什么是对什么是错,它提供一套价值观词汇——透明、安全、正义——以及在这些价值观之间进行优先级排序的框架。今年夏天,我们将我们对人工智能中价值观的理解带到了欧盟、英国和美国的立法者面前,以帮助塑造人工智能监管的未来。这正是伦理学发挥作用的地方:在法律尚未到位时,帮助开辟前进的道路。
秉持 Hugging Face **开放**和**问责**的核心价值观,我们在此分享我们所说和所做的一切。这包括我们的首席执行官 Clem 向 美国国会作证 和在 美国参议院人工智能洞察论坛发表的声明;我们关于 欧盟人工智能法案 的建议;我们向 NTIA 提交的关于人工智能问责制的意见;以及我们的首席伦理科学家 Meg 向 民主党核心小组提交的意见。这些讨论中常见的许多问题都围绕着人工智能中的开放性为何有益,我们在此 分享 我们对这个问题的回答。
秉持我们**民主化**的核心价值观,我们也投入了大量时间进行公开演讲,并有幸与记者交流,以帮助解释当前人工智能领域正在发生的事情。这包括:
- 来自 Sasha 关于**人工智能能源使用和碳排放**的评论(《大西洋月刊》、《卫报》(两次)、《新科学家》、The Weather Network、《华尔街日报》(两次)),以及撰写 《华尔街日报》关于该主题的部分评论文章;关于**人工智能末日风险**的思考(彭博社、《泰晤士报》、Futurism、Sky News);关于**生成式人工智能中的偏见**的详细信息(彭博社、NBC、Vox);讨论**边缘化工人如何为人工智能创建数据**(《环球邮报》、《大西洋月刊》);强调**人工智能中性别歧视的影响**(VICE);以及在《麻省理工科技评论》中提供的关于 人工智能文本检测、开放模型发布 和 人工智能透明度 的见解。
- 来自 Nathan 关于**语言模型和开放发布**的最新进展评论(WIRED, VentureBeat, Business Insider, Fortune)。
- 来自 Meg 关于**人工智能和错误信息**的评论(CNN、半岛电视台、《纽约时报》);人工智能中**公正处理艺术家作品**的必要性(《华盛顿邮报》);**生成式人工智能**的进展及其与更大福祉的关系(《华盛顿邮报》、VentureBeat);记者如何通过报道**更好地塑造人工智能的发展**(CJR);以及解释人工智能中**困惑度**的基本统计概念(Ars Technica);并强调**性别歧视**的模式(Fast Company)。
- 来自 Irene 关于理解**人工智能监管格局**的评论(麻省理工科技评论,巴伦周刊)。
- 来自 Yacine 关于**开源与人工智能立法**的评论 (VentureBeat, TIME) 以及**版权问题** (VentureBeat)。
- 来自 Giada 关于**AI“奇点”**(Popular Mechanics)和**AI“感知”**(RFI, Radio France)概念的评论;关于**人工浪漫的危险**的思考(Analytics India Magazine);以及解释**价值对齐**(The Hindu)。
我们今年夏天发布的一些讲座包括:Giada 的 TED 演讲,探讨“伦理”生成式人工智能是否可能(自动英文字幕非常棒!);Yacine 在 Markkula 应用伦理中心 关于 科技伦理 的演讲,以及在 负责任开放基础模型研讨会 关于 负责任开放 的演讲;Katie 关于 健康领域的生成式人工智能 的交流;以及 Meg 为 伦敦数据周 做的关于 开放构建更好的 AI 的演讲。
当然,我们也在日常工作(我们的“实际工作”)中取得了进展。**亲和力**这一基本价值观贯穿于我们的工作,因为我们专注于如何以社会和人类价值观为导向,塑造一个让每个人都感到受欢迎的人工智能。这包括 Maria 和其他人的 新人工智能音频课程;Katie 关于 开放获取临床语言模型 的资源;Nazneen 和其他人的 负责任生成式人工智能 教程;我们 FAccT 论文中的 生成式人工智能发布的梯度 (视频) 和 机器学习中伦理章程、法律工具和技术文档的阐述 (视频);以及关于 以参与式、跨学科方法绘制文本到图像人工智能风险面 和 评估跨模态和社会生成式人工智能系统影响 (视频) 的研讨会。
我们还在**公平**和**正义**的目标上取得了进展,进行了 偏见和危害测试,最近已应用于新的 Hugging Face 多模态模型 IDEFICS。我们致力于如何负责任地实现**透明**,包括 更新内容政策(由 Giada 牵头)。我们通过 使用机器学习改进元数据(由 Daniel 牵头)来推进对 Hub 上语言**多样性**的支持,并通过 向数据集添加更多描述性统计数据(由 Polina 牵头)来支持人工智能的**严谨性**,以促进更好地理解人工智能学习了什么以及如何对其进行评估。
根据我们过去这个季节的经验,我们现在提供了一系列 Hugging Face 中在当前 AI 伦理讨论中特别有用的资源,可在此处获取:https://huggingface.co/society-ethics。
最后,我们惊喜地看到许多社会与伦理领域的常客获得了公众认可,包括 Irene 和 Sasha 入选 麻省理工学院 35 位 35 岁以下创新者(Hugging Face 占 AI 35 位 35 岁以下创新者的四分之一!);Meg 入选有影响力 AI 创新者榜单(WIRED, Fortune);以及 Meg 和 Clem 入选 《时代》杂志 AI 领域 100 位 100 岁以下人物。我们也非常遗憾地告别了我们的同事 Nathan,他在我们将伦理与 AI 系统的强化学习相结合的工作中发挥了重要作用。作为他的临别赠礼,他提供了关于 在 RLHF 中实现伦理 AI 面临的挑战 的更多细节。
感谢您的阅读!
-- Meg,代表 Hugging Face 的 伦理与社会常驻成员