AI 政策 @🤗:对白宫 AI 行动计划信息请求的回应
3 月 14 日,我们提交了 Hugging Face 对白宫科技政策办公室关于白宫 AI 行动计划信息请求的回应。我们借此机会(再次)强调了开放 AI 系统和开放科学在使技术更高效、更可靠地被广泛采用,并达到最高安全标准方面的基础作用。本博客文章提供了我们回应的摘要,全文可在此处查看。
背景:不要忽视(强)开放模型的潜力
开放的 AI 开发方法不仅通常更透明、适应性更强、科学性更高,而且在许多任务上持续复制或超越了广泛使用的仅限 API 商业产品的性能;并且越来越多地在更短的时间内、以更高的资源效率实现这一点。我们团队最近的OlympicCoder 以 7B 参数和开源后训练配方超越 Claude 3.7 在复杂编码任务上的表现,或者 AI2 完全开放的OLMo 2 模型(带有开放训练数据)匹配 o1-mini 的性能,是最近两个引人注目的例子。这些成功表明,强大的 AI 战略必须利用开放和协作开发,以最佳地推动技术的性能、采用和安全性。我们在这方面提出了三项主要建议。
建议 1:将开源和开放科学视为 AI 成功的基石
迄今为止最先进的 AI 系统都建立在强大的开放研究(注意力机制、Transformer 架构、更便宜的后训练算法)和开源软件(PyTorch、Hugging Face 库、超级计算机操作系统)的基础上——这表明持续支持开放性对于维持进一步进展至关重要。事实也证明,对可自由重用和改编的系统的投资具有强大的经济乘数效应,推动了各国 GDP 的显著百分比增长。随着具有开放权重和训练技术的 AI 系统在性能和成本方面都越来越成为开发者的有吸引力的选择,优先发展公共研究基础设施和广泛访问计算资源、可定制模型和可信赖的开放数据集——特别是对于小型开发者和研究人员而言——将对 AI 技术的进一步技术和经济成功至关重要。
建议 2:优先考虑效率和可靠性以释放广泛创新
解决组织采纳和调整 AI 技术时面临的资源限制对于支持其传播和促进整个开发链中采用者的创新至关重要。更小的模型(甚至可以在边缘设备上使用)、减少推理计算需求的技术,以及促进中等规模训练的努力,都支持开发满足其使用环境特定需求的模型,尤其是在高风险环境中,例如医疗保健,其中通用模型已被证明不可靠。更高效、更具目的性设计的 AI 系统有助于更好的上下文评估、更好的资源利用,并使组织能够在 AI 开发链的所有阶段建立技术能力,以确保所有用户都能利用最符合其需求的系统。
建议 3:通过开放、可追溯和透明的系统保障 AI 安全
最后,如果几十年来开源软件的信息安全和网络安全经验有任何启示,开放和透明的 AI 系统将在保障 AI 开发和部署方面发挥基础性作用,尤其是在最关键的设置中——不同的安全要求需要不同程度的开放性。完全透明的模型提供对其训练数据和程序的访问,可以支持最广泛的安全认证。开放基础设施和实现最新训练技术的开源工具可以使组织能够在完全受控的环境中训练他们所需的模型。可在气隙环境中运行的开放权重模型可以成为管理信息风险的关键组成部分。优先采用最透明的系统,支持开发所概述的开放资源,并培养在 AI 采用的关键设置中利用它们的能力,对于实现更安全的 AI 采用至关重要。
请参阅完整回应以获取我们更详细的建议!