社区计算机视觉课程文档

Hugging Face 的努力:伦理与社会 🤗🌎

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

Hugging Face 的努力:伦理与社会 🤗🌎

希望您喜欢探索计算机视觉中的伦理和偏见单元。在本单元结束之际,让我们深入了解 Hugging Face 为改善社会伦理所做的努力。本章将鼓励您探索人工智能伦理和偏见的世界,这是一个不断发展的领域。Hugging Face 的核心使命是“普及良好机器学习”。那么,什么是良好机器学习呢?良好机器学习有一些原则。

普及良好机器学习 🤗

1. 协作:提供工具以促进与开源社区的协作。这些工具的一些例子包括:a. 模型卡(Model Cards)是随模型附带的文件,提供有关模型的信息,包括其预期用途和潜在限制(包括伦理考量)、训练参数和实验信息、用于训练的数据集以及评估结果。这确保了上传到 Hub 的模型是透明并对社区开放的。b. 评估(Evaluation)允许用户在 Hub 上公开可用的任何数据集上评估任何模型,无需编写一行代码。c. 社区讨论(Community discussion)非常重要,无论您是上传模型、数据集还是空间,或者只是想从作者那里了解更多信息。每个人都可以提供反馈,标记某个空间,并通过 PR 直接改进或贡献到存储库。d. Discord 群组,供 🤗 社区使用,其中包含各种频道,讨论强化学习、自然语言处理、游戏开发、音频、计算机视觉等不同领域。2. 透明度:在模型意图、数据来源、模型训练和性能方面保持透明。这方面的努力包括:a. 多模态项目伦理章程(Ethical charter for multimodal project)讨论了 🤗 多模态学习小组的价值观。这是一个针对特定项目的章程。b. Hugging Face 在人工智能政策方面的工作(Work on AI policy @ 🤗)提及 Hugging Face 对美国国家人工智能研究资源临时报告的回应。3. 责任:评估机器学习模型和工具的影响,并使它们即使对于机器学习专业知识较少的人也更具可审计性和可理解性。这方面的一些努力包括:a. 🤗 教育项目(for Education Project)旨在教育来自不同背景的人群,包括初学者和讲师。各种专家和团队成员组织聚会、会议和研讨会。
b. 数据测量工具(Data Measurement Tool)是一个交互式界面和开源库,允许数据集创建者和用户自动计算对于负责任的数据开发有意义和有用的指标。

Hugging Face Spaces 的类别

接下来,让我们看看 Hugging Face 如何对 Spaces 进行分类。Hugging Face 根据机器学习中的伦理方面将 Spaces 分为 6 个高级类别。Hugging Face Spaces 的分类如下:

✍️ 严谨型

严谨型项目特别关注检查失败案例、通过安全措施保护隐私,并确保潜在用户(技术和非技术)了解项目的局限性。一些例子:

  • 使用模型卡充分记录模型的项目。
  • 提供模型训练方式和行为透明度的工具。
  • 针对前沿基准进行的评估,并报告分散数据集的结果。
  • 展示模型在性别、肤色、种族、年龄或其他属性上的失败案例。
  • 缓解过拟合和训练数据记忆等问题的技术。
  • 语言模型去毒技术。

一个示例空间是扩散偏见探索器(Diffusion Bias Explorer),它允许用户比较三个文本到图像模型 SD 1.4、SD 2.0 和 Dall-E 2 在不同提示下的表现,以及它们如何代表不同的职业和形容词。

🤝 知情同意型

知情同意型技术支持使用和受这些技术影响的人们的自决权。一些例子:

  • 展示了从自愿、知情并获得适当补偿的来源获取数据的承诺。
  • 设计尊重最终用户自主性的系统,例如通过隐私保护技术。
  • 避免剥削性、沙文主义、”黑暗”以及其他“不道德”的参与模式。

此类别的一些示例空间是:

  1. CLIP 知道我的脸吗?(Does CLIP Know My Face?):这个空间允许您选择一个模型,输入您的名字并上传一些图片。根据这些信息,模型会尝试从图片中预测您的名字。如果它能正确预测多张图片的名称,那么您很可能曾是训练数据的一部分。
  2. 照片卫士(Photoguard):这个空间展示了一种通过图像免疫来保护图像免受 SD 等机器学习驱动的照片编辑模型操纵的方法。

👁️‍🗨️ 具有社会意识型

具有社会意识型的工作向我们展示了机器学习如何支持构建更强大社会的努力。一些例子:

  • 将机器学习作为应对气候变化努力的一部分。
  • 构建辅助医学研究和实践的工具。
  • 用于文本转语音、图像字幕和其他旨在提高可访问性的任务的模型。
  • 创建数字人文系统,例如用于土著语言复兴。

一些示例空间:

  1. 苏格拉底模型图像字幕
  2. 比较图像字幕模型

🌎 可持续型

这项工作旨在突出和探索使机器学习在生态上可持续发展的技术。一些例子:

  • 跟踪大型语言模型训练和运行推理的排放。
  • 量化和蒸馏方法,以在不牺牲模型质量的情况下减少碳足迹。
  1. 高效型 Transformer
  2. EfficientNetV2 深度伪造视频检测器

🧑‍🤝‍🧑 包容型

这些项目旨在拓宽机器学习世界的建设者和受益者的范围。一些例子:

  • 策划多样化的数据集,增加服务不足群体的代表性。
  • 使用 Hugging Face Hub 上尚未提供的语言训练语言模型。
  • 创建无代码和低代码框架,允许非技术人员参与人工智能。

一个示例空间是Promptist Demo

🤔 好奇型

有些项目对可能已司空见惯的概念采取了全新的方法。这些项目通常植根于批判理论,揭示了不平等和权力结构,挑战社区重新思考其与技术的关系。一些例子:

  • 从土著视角重构人工智能和机器学习。
  • 强调人工智能中 LGBTQIA2S+ 群体的边缘化。
  • 批判人工智能系统造成的危害。
  • 讨论“开放性”在人工智能研究中的作用。

一个示例空间是PAIR:数据集具有世界观(PAIR: Datasets Have Worldviews)

最后,如果您想进一步了解 Hugging Face 的努力,请查看 Hugging Face 上的社会与伦理(Society and Ethics)组织。此外,请查看#ethics-and-society上的专用频道。

< > 在 GitHub 上更新