伦理与社会新闻稿 #5:Hugging Face 走向华盛顿及其他 2023 年夏季思考

发布于 2023 年 9 月 29 日
在 GitHub 上更新

关于人工智能中的“伦理”,最重要的一点是它与**价值观**有关。伦理学不告诉你什么是对什么是错,它提供一套价值观词汇——透明、安全、正义——以及在这些价值观之间进行优先级排序的框架。今年夏天,我们将我们对人工智能中价值观的理解带到了欧盟、英国和美国的立法者面前,以帮助塑造人工智能监管的未来。这正是伦理学发挥作用的地方:在法律尚未到位时,帮助开辟前进的道路。

秉持 Hugging Face **开放**和**问责**的核心价值观,我们在此分享我们所说和所做的一切。这包括我们的首席执行官 Clem美国国会作证 和在 美国参议院人工智能洞察论坛发表的声明;我们关于 欧盟人工智能法案 的建议;我们向 NTIA 提交的关于人工智能问责制的意见;以及我们的首席伦理科学家 Meg民主党核心小组提交的意见。这些讨论中常见的许多问题都围绕着人工智能中的开放性为何有益,我们在此 分享 我们对这个问题的回答。

秉持我们**民主化**的核心价值观,我们也投入了大量时间进行公开演讲,并有幸与记者交流,以帮助解释当前人工智能领域正在发生的事情。这包括:

我们今年夏天发布的一些讲座包括:GiadaTED 演讲,探讨“伦理”生成式人工智能是否可能(自动英文字幕非常棒!);YacineMarkkula 应用伦理中心 关于 科技伦理 的演讲,以及在 负责任开放基础模型研讨会 关于 负责任开放 的演讲;Katie 关于 健康领域的生成式人工智能 的交流;以及 Meg伦敦数据周 做的关于 开放构建更好的 AI 的演讲。

当然,我们也在日常工作(我们的“实际工作”)中取得了进展。**亲和力**这一基本价值观贯穿于我们的工作,因为我们专注于如何以社会和人类价值观为导向,塑造一个让每个人都感到受欢迎的人工智能。这包括 Maria 和其他人的 新人工智能音频课程Katie 关于 开放获取临床语言模型 的资源;Nazneen 和其他人的 负责任生成式人工智能 教程;我们 FAccT 论文中的 生成式人工智能发布的梯度 (视频) 和 机器学习中伦理章程、法律工具和技术文档的阐述 (视频);以及关于 以参与式、跨学科方法绘制文本到图像人工智能风险面评估跨模态和社会生成式人工智能系统影响 (视频) 的研讨会。

我们还在**公平**和**正义**的目标上取得了进展,进行了 偏见和危害测试,最近已应用于新的 Hugging Face 多模态模型 IDEFICS。我们致力于如何负责任地实现**透明**,包括 更新内容政策(由 Giada 牵头)。我们通过 使用机器学习改进元数据(由 Daniel 牵头)来推进对 Hub 上语言**多样性**的支持,并通过 向数据集添加更多描述性统计数据(由 Polina 牵头)来支持人工智能的**严谨性**,以促进更好地理解人工智能学习了什么以及如何对其进行评估。

根据我们过去这个季节的经验,我们现在提供了一系列 Hugging Face 中在当前 AI 伦理讨论中特别有用的资源,可在此处获取:https://huggingface.co/society-ethics

最后,我们惊喜地看到许多社会与伦理领域的常客获得了公众认可,包括 IreneSasha 入选 麻省理工学院 35 位 35 岁以下创新者(Hugging Face 占 AI 35 位 35 岁以下创新者的四分之一!);Meg 入选有影响力 AI 创新者榜单(WIRED, Fortune);以及 MegClem 入选 《时代》杂志 AI 领域 100 位 100 岁以下人物。我们也非常遗憾地告别了我们的同事 Nathan,他在我们将伦理与 AI 系统的强化学习相结合的工作中发挥了重要作用。作为他的临别赠礼,他提供了关于 在 RLHF 中实现伦理 AI 面临的挑战 的更多细节。

感谢您的阅读!

-- Meg,代表 Hugging Face 的 伦理与社会常驻成员

社区

注册登录 发表评论