🌁#86:真正开放的AI的四大自由

社区文章 发布于2025年2月3日

– 它们是什么?定义未来


本周图灵邮报

  • 周三,AI 101,方法:我们将讨论时间测试计算
  • 周五,独角兽系列:我们将介绍ElevenLabs

🔳 Turing Post 在 🤗 Hugging Face 上驻扎 -> 点击关注!


主要议题 – 人工智能不再仅仅是软件。什么是AI的开源,什么是OpenAI的四大自由?

我在这里所说的开放AI,是指真正开放的AI——而不是那家公司。但实际上是Sam Altman让我开始思考开放AI的自由。

看这张照片。右侧(从右到左)是Paul Graham、Sam Altman,他旁边穿着灰色T恤,面带微笑的是Aaron Swartz。

image/png

图片来源:Flaming Hydra

Aaron Swartz 因争取信息自由而闻名。他帮助开发了 RSS 标准并与 Creative Commons 合作,所有这些都源于他坚信信息——尤其是纳税人资助的研究——应该属于所有人。2010 年,Swartz 确信学术付费墙阻碍了进步,通过麻省理工学院的网络下载了数百万份 JSTOR 学术论文。尽管他的动机源于自由获取信息的原则,但联邦当局对他提出了可能面临数十年监禁的指控。

他无法忍受,于 2013 年自杀了。

两年后,2015 年,Sam Altman 联合创立了一家名为 OpenAI 的公司。起初,OpenAI 看起来像是 Aaron 争取信息自由的理所当然的继承者。我们都知道后来发生了什么:专有代码、受限访问、付费墙、营利结构等。最近 Sam Altman 承认他可能站错了历史的一边

image/png

图片来源:Reddit 上的 AMA(顺便说一句,Reddit 是 Aaron Swartz 联合创立的)

但我们现在看到的仍然一样:他(或更普遍地说,OpenAI)指责竞争对手做的正是他公司之前多次做过的事情。

2025 年 1 月,DeepSeek 通过开源(准确地说,是“开放权重”)其最佳模型 R1 震惊了所有人,该模型在数学、代码和推理任务上的性能可与 OpenAI-o1 相媲美。

OpenAI 做了什么?它声称中国 AI 初创公司 DeepSeek 未经授权使用了一种名为“蒸馏”的技术来复制其专有模型。这次打击引发了关于 AI 训练中双重标准的问题。批评者认为,OpenAI 自己在未经许可的情况下使用了大量网络数据进行训练——但现在却试图阻止竞争对手使用其输出。

然后我们有 Anthropic 的 Dario Amodei 发表的宣言,基本上认为中国必须通过收紧美国芯片出口管制来阻止其获得先进 AI。

“这是我的,我告诉你。我自己的。我的宝贝。是的,我的宝贝。”比尔博·巴金斯,在魔戒日益增长的影响下,《指环王:护戒使者》

所以,这让我思考:我们经常谈论人工智能的开源,但老实说——它与软件的开源不同。在软件领域,开源不仅仅是共享代码;它是一种哲学,以四大自由为核心,重新定义了技术的构建、所有权和控制方式。真正的自由——那种塑造整个时代的自由——从来都不是偶然的。它需要一个基础,一个使其成为现实的结构。

人工智能现在正处于那个转折点。它需要的不仅仅是更多的开放模型或更好的许可——它需要自己的哲学,一套核心自由,来定义它的创建、共享和治理方式。我们正处于必须撰写人工智能版本四大自由的时刻。问题是

开放AI的自由是什么?以及我们如何在权力巩固到无法触及之前确立这些自由, 在“魔戒日益增长的影响”毁掉承载者之前?

我来这里是为了开启对话,所以我建议了六项自由。选择你认为最重要的四项:你可以在下方评论中留下你选择的四大主要自由

  • 访问自由 – 开放AI应向所有人开放,确保研究、模型和数据集保持可访问性,以促进创新并防止垄断。
  • 理解自由 – AI系统应透明且可解释,允许用户理解决策是如何做出的,并避免黑箱依赖。
  • 遗忘自由 – AI不应成为人类行为的永久记录者。您应有能力在必要时删除、遗忘或丢弃信息——无论是出于隐私、道德考虑,还是仅仅为了防止学习停滞。
  • 溶解自由 – AI应无缝融入人类生活,而不是主导或取代它。
  • 免于过拟合的自由 – AI不应被困在试图预先确定所有可能输入的静态世界模型中。相反,它应保持适应性,从交互中学习,而不是依赖不可避免地失去相关性的详尽预训练。
  • 免于过度的自由 – AI不应被过度训练、过度对齐或过度监管,以至于失去其有效性。

历史背景:四大自由

1941 年,当世界基本上处于水深火热之中时,富兰克林·D·罗斯福提出了他的四大自由

image/png

  • 言论自由 – 不受政府约束表达意见的权利。
  • 信仰自由 – 不受迫害地信奉任何宗教(或不信)的权利。
  • 免于匮乏的自由 – 所有人的经济保障和体面生活水平。
  • 免于恐惧的自由 – 一个没有战争和压迫的世界。

当然,它们是美国价值观,但罗斯福明确表示这些权利属于所有地方的每一个人。对他来说,这关乎保护人类尊严的核心。

他的四大自由融入了他的新政思想,新政旨在赋予公民经济保障和个人自由。他还面临纳粹德国和帝国日本的威胁——他们都在扼杀自由思想和言论。罗斯福的号召塑造了后来联合国和《世界人权宣言》的成立,将他的四大自由转变为一项全球使命声明。

快进 45 年,斗争转移到了软件世界。到 80 年代中期,技术被锁定得比亿万富翁的钱包还紧。公司控制着程序的用途、共享,甚至窥探。麻省理工学院的程序员 Richard Stallman 不喜欢“付钱否则闭嘴”的新趋势,因此在 1985 年,他创办了自由软件基金会。为了向罗斯福致敬,Stallman 也提出了自己的四大自由

  • 自由 0 – 运行程序的自由,无论出于何种目的。
  • 自由 1 – 研究程序如何工作并修改它的自由。
  • 自由 2 – 重新分发程序副本的自由。
  • 自由 3 – 分发修改后的程序版本的自由。

Stallman 的策略点燃了开源运动的导火索,催生了 Linux,并为从服务器到智能手机的一切提供动力——同时引发了关于数字权利和在线自治的无休止辩论。

现在,我们来到了人工智能时代。大公司想要掌握新数字王国的钥匙。这种设置充满了新的压迫的可能性——我们无法质疑的算法,永无止境的监控,人工智能偏见强化旧有不公。

如果罗斯福阐明了指导战后世界的自由,施塔曼为数字时代做了同样的事情,那么我建议现在是时候思考并定义人工智能的自由了。


这篇文章对我非常重要。请投票、评论、转发给您的同事,并在社交媒体上分享。


我们感谢人工智能从业者 Will Schenk 就四大自由进行了启发性的对话。当我开始谈论人工智能的开源时,这是他的建议


精选合集

image/png


您喜欢 Turing Post 吗?——> 点击“关注”!并订阅以直接发送到您的收件箱 -> https://www.turingpost.com/subscribe


来自“常客”的新闻 ©

  • 人工智能安全报告:进展、危险与追赶竞赛 首份国际人工智能安全报告——由 Yoshua Bengio 和 96 位专家主导——警告称人工智能发展速度已超越我们的控制能力。网络威胁、偏见和劳动力中断迫在眉睫,这让政策制定者面临艰难抉择:现在就进行监管还是冒着未来陷入混乱的风险。唯一的希望是:人工智能仍掌握在人类手中。

  • ElevenLabs 发声——并获得 1.8 亿美元融资以扩大声量 ElevenLabs 刚刚完成 1.8 亿美元的 C 轮融资,由 a16z 和 ICONIQ 领投。他们的 AI 语音技术正掀起波澜,在 NEA、WiL 和德国电信等新投资者的支持下,他们正准备全球扩张。在一个人工智能驱动的世界里,保持沉默是不可能的。

  • OpenAI 的深度研究和与美国国家实验室的合作

    1. 他们正在[推出一款 用于深度研究的 AI 代理——这与 Google 已有的工具同名。
    2. 与美国国家实验室合作,OpenAI 正在将人工智能推向清洁能源、网络安全和核安全领域——背后有着强大的计算能力。
  • Madrona 庆祝 30 周年,筹集 7.7 亿美元 西雅图的 Madrona 庆祝三十周年,并筹集了 7.7 亿美元新资金,以支持有远见的创始人及应用型人工智能。这不是一份糟糕的生日礼物。

我们正在阅读/收听

  • China Talk 对 Kevin Xu 的采访 – 对中国开源 AI 的深刻见解。DeepSeek 体现了快速、学术化的创新,由“开源情怀”驱动。工程师们旨在与西方技术匹敌,但透明度与国家利益之间的紧张关系可能会影响政策。
  • 将于2025年4月推出,但已在线上可获取 – CMU 关于生产中机器学习的杰出书籍。请在此处查看:ML in Production
  • 人工智能如此热门,以至于 Lex Fridman 刚刚采访了我们最喜欢的 Nathan Lambert (来自 Interconnect.AI) 和 Dylan Patel (来自 SemiAnalysis) 连续五个小时。

值得关注的顶级模型

  • 阿里云的Qwen2.5-Max 在 20T token 上训练了一个专家混合模型,在推理和竞争性基准测试中表现出色。未来的改进目标是强化学习和智能扩展。
  • 百川-Omni-1.5,技术报告,详细介绍了他们的全模态模型,该模型集成了文本、音频和视觉,通过实时双语语音系统在主要多模态基准测试中表现出色。
  • OpenAI o3-mini 是一款成本效益高的推理模型,针对 STEM 任务进行了优化。它令人印象深刻,并且——就我个人使用而言——性能优于 Gemini Deep Research。
  • Mistral Small 3 推出了一款 24B 参数模型,专注于低延迟推理,与大型模型竞争,同时运行速度快 3 倍并支持本地部署。
  • 艾伦人工智能研究所的 Tülu 3 405B 利用可验证奖励强化学习 (RLVR) 优于 DeepSeek V3 和 GPT-4o,尽管计算能力有限,但仍推动了扩展潜力。

最新研究论文,分类方便查阅

本周有相当多非常有趣的研究论文,我们在每个部分都用 🌟 标记了我们最推荐的论文。

强化学习与泛化

  • 🌟 迈向通用无模型强化学习 开发了 MR.Q,一种无模型强化学习算法,无需环境特定调整即可在不同任务中泛化,提高了样本效率并在连续控制和 Atari 中优于基线
  • RL + Transformer = 通用问题解决器 使用强化学习对预训练的 LLaMA 3.1 Transformer 进行微调,实现上下文强化学习,允许模型无需再训练即可通过拼接技能和动态适应来解决未知问题

微调 vs 强化学习

OpenAI 的 O 系列模型:能力与安全性

护栏及其破坏者

新颖的架构与训练范式

高效模型扩展与优化

今天就到这里。感谢您的阅读!


如果本文能帮助您的同事增进对人工智能的理解并保持领先,请分享给他们。

image/png

社区

注册登录 以评论