🌁#86:真正开放的AI的四大自由
– 它们是什么?定义未来
本周图灵邮报
- 周三,AI 101,方法:我们将讨论时间测试计算
- 周五,独角兽系列:我们将介绍ElevenLabs
🔳 Turing Post 在 🤗 Hugging Face 上驻扎 -> 点击关注!
主要议题 – 人工智能不再仅仅是软件。什么是AI的开源,什么是OpenAI的四大自由?
我在这里所说的开放AI,是指真正开放的AI——而不是那家公司。但实际上是Sam Altman让我开始思考开放AI的自由。
看这张照片。右侧(从右到左)是Paul Graham、Sam Altman,他旁边穿着灰色T恤,面带微笑的是Aaron Swartz。
图片来源:Flaming Hydra
Aaron Swartz 因争取信息自由而闻名。他帮助开发了 RSS 标准并与 Creative Commons 合作,所有这些都源于他坚信信息——尤其是纳税人资助的研究——应该属于所有人。2010 年,Swartz 确信学术付费墙阻碍了进步,通过麻省理工学院的网络下载了数百万份 JSTOR 学术论文。尽管他的动机源于自由获取信息的原则,但联邦当局对他提出了可能面临数十年监禁的指控。
他无法忍受,于 2013 年自杀了。
两年后,2015 年,Sam Altman 联合创立了一家名为 OpenAI 的公司。起初,OpenAI 看起来像是 Aaron 争取信息自由的理所当然的继承者。我们都知道后来发生了什么:专有代码、受限访问、付费墙、营利结构等。最近 Sam Altman 承认他可能站错了历史的一边
图片来源:Reddit 上的 AMA(顺便说一句,Reddit 是 Aaron Swartz 联合创立的)
但我们现在看到的仍然一样:他(或更普遍地说,OpenAI)指责竞争对手做的正是他公司之前多次做过的事情。
2025 年 1 月,DeepSeek 通过开源(准确地说,是“开放权重”)其最佳模型 R1 震惊了所有人,该模型在数学、代码和推理任务上的性能可与 OpenAI-o1 相媲美。
OpenAI 做了什么?它声称中国 AI 初创公司 DeepSeek 未经授权使用了一种名为“蒸馏”的技术来复制其专有模型。这次打击引发了关于 AI 训练中双重标准的问题。批评者认为,OpenAI 自己在未经许可的情况下使用了大量网络数据进行训练——但现在却试图阻止竞争对手使用其输出。
然后我们有 Anthropic 的 Dario Amodei 发表的宣言,基本上认为中国必须通过收紧美国芯片出口管制来阻止其获得先进 AI。
“这是我的,我告诉你。我自己的。我的宝贝。是的,我的宝贝。”比尔博·巴金斯,在魔戒日益增长的影响下,《指环王:护戒使者》
所以,这让我思考:我们经常谈论人工智能的开源,但老实说——它与软件的开源不同。在软件领域,开源不仅仅是共享代码;它是一种哲学,以四大自由为核心,重新定义了技术的构建、所有权和控制方式。真正的自由——那种塑造整个时代的自由——从来都不是偶然的。它需要一个基础,一个使其成为现实的结构。
人工智能现在正处于那个转折点。它需要的不仅仅是更多的开放模型或更好的许可——它需要自己的哲学,一套核心自由,来定义它的创建、共享和治理方式。我们正处于必须撰写人工智能版本四大自由的时刻。问题是
开放AI的自由是什么?以及我们如何在权力巩固到无法触及之前确立这些自由, 在“魔戒日益增长的影响”毁掉承载者之前?
我来这里是为了开启对话,所以我建议了六项自由。选择你认为最重要的四项:你可以在下方评论中留下你选择的四大主要自由
- 访问自由 – 开放AI应向所有人开放,确保研究、模型和数据集保持可访问性,以促进创新并防止垄断。
- 理解自由 – AI系统应透明且可解释,允许用户理解决策是如何做出的,并避免黑箱依赖。
- 遗忘自由 – AI不应成为人类行为的永久记录者。您应有能力在必要时删除、遗忘或丢弃信息——无论是出于隐私、道德考虑,还是仅仅为了防止学习停滞。
- 溶解自由 – AI应无缝融入人类生活,而不是主导或取代它。
- 免于过拟合的自由 – AI不应被困在试图预先确定所有可能输入的静态世界模型中。相反,它应保持适应性,从交互中学习,而不是依赖不可避免地失去相关性的详尽预训练。
- 免于过度的自由 – AI不应被过度训练、过度对齐或过度监管,以至于失去其有效性。
历史背景:四大自由
1941 年,当世界基本上处于水深火热之中时,富兰克林·D·罗斯福提出了他的四大自由
- 言论自由 – 不受政府约束表达意见的权利。
- 信仰自由 – 不受迫害地信奉任何宗教(或不信)的权利。
- 免于匮乏的自由 – 所有人的经济保障和体面生活水平。
- 免于恐惧的自由 – 一个没有战争和压迫的世界。
当然,它们是美国价值观,但罗斯福明确表示这些权利属于所有地方的每一个人。对他来说,这关乎保护人类尊严的核心。
他的四大自由融入了他的新政思想,新政旨在赋予公民经济保障和个人自由。他还面临纳粹德国和帝国日本的威胁——他们都在扼杀自由思想和言论。罗斯福的号召塑造了后来联合国和《世界人权宣言》的成立,将他的四大自由转变为一项全球使命声明。
快进 45 年,斗争转移到了软件世界。到 80 年代中期,技术被锁定得比亿万富翁的钱包还紧。公司控制着程序的用途、共享,甚至窥探。麻省理工学院的程序员 Richard Stallman 不喜欢“付钱否则闭嘴”的新趋势,因此在 1985 年,他创办了自由软件基金会。为了向罗斯福致敬,Stallman 也提出了自己的四大自由
- 自由 0 – 运行程序的自由,无论出于何种目的。
- 自由 1 – 研究程序如何工作并修改它的自由。
- 自由 2 – 重新分发程序副本的自由。
- 自由 3 – 分发修改后的程序版本的自由。
Stallman 的策略点燃了开源运动的导火索,催生了 Linux,并为从服务器到智能手机的一切提供动力——同时引发了关于数字权利和在线自治的无休止辩论。
现在,我们来到了人工智能时代。大公司想要掌握新数字王国的钥匙。这种设置充满了新的压迫的可能性——我们无法质疑的算法,永无止境的监控,人工智能偏见强化旧有不公。
如果罗斯福阐明了指导战后世界的自由,施塔曼为数字时代做了同样的事情,那么我建议现在是时候思考并定义人工智能的自由了。
这篇文章对我非常重要。请投票、评论、转发给您的同事,并在社交媒体上分享。
我们感谢人工智能从业者 Will Schenk 就四大自由进行了启发性的对话。当我开始谈论人工智能的开源时,这是他的建议
精选合集
您喜欢 Turing Post 吗?——> 点击“关注”!并订阅以直接发送到您的收件箱 -> https://www.turingpost.com/subscribe
来自“常客”的新闻 ©
人工智能安全报告:进展、危险与追赶竞赛 首份国际人工智能安全报告——由 Yoshua Bengio 和 96 位专家主导——警告称人工智能发展速度已超越我们的控制能力。网络威胁、偏见和劳动力中断迫在眉睫,这让政策制定者面临艰难抉择:现在就进行监管还是冒着未来陷入混乱的风险。唯一的希望是:人工智能仍掌握在人类手中。
ElevenLabs 发声——并获得 1.8 亿美元融资以扩大声量 ElevenLabs 刚刚完成 1.8 亿美元的 C 轮融资,由 a16z 和 ICONIQ 领投。他们的 AI 语音技术正掀起波澜,在 NEA、WiL 和德国电信等新投资者的支持下,他们正准备全球扩张。在一个人工智能驱动的世界里,保持沉默是不可能的。
OpenAI 的深度研究和与美国国家实验室的合作
- 他们正在[推出一款 用于深度研究的 AI 代理——这与 Google 已有的工具同名。
- 与美国国家实验室合作,OpenAI 正在将人工智能推向清洁能源、网络安全和核安全领域——背后有着强大的计算能力。
Madrona 庆祝 30 周年,筹集 7.7 亿美元 西雅图的 Madrona 庆祝三十周年,并筹集了 7.7 亿美元新资金,以支持有远见的创始人及应用型人工智能。这不是一份糟糕的生日礼物。
我们正在阅读/收听
- China Talk 对 Kevin Xu 的采访 – 对中国开源 AI 的深刻见解。DeepSeek 体现了快速、学术化的创新,由“开源情怀”驱动。工程师们旨在与西方技术匹敌,但透明度与国家利益之间的紧张关系可能会影响政策。
- 将于2025年4月推出,但已在线上可获取 – CMU 关于生产中机器学习的杰出书籍。请在此处查看:ML in Production。
- 人工智能如此热门,以至于 Lex Fridman 刚刚采访了我们最喜欢的 Nathan Lambert (来自 Interconnect.AI) 和 Dylan Patel (来自 SemiAnalysis) 连续五个小时。
值得关注的顶级模型
- 阿里云的Qwen2.5-Max 在 20T token 上训练了一个专家混合模型,在推理和竞争性基准测试中表现出色。未来的改进目标是强化学习和智能扩展。
- 百川-Omni-1.5,技术报告,详细介绍了他们的全模态模型,该模型集成了文本、音频和视觉,通过实时双语语音系统在主要多模态基准测试中表现出色。
- OpenAI o3-mini 是一款成本效益高的推理模型,针对 STEM 任务进行了优化。它令人印象深刻,并且——就我个人使用而言——性能优于 Gemini Deep Research。
- Mistral Small 3 推出了一款 24B 参数模型,专注于低延迟推理,与大型模型竞争,同时运行速度快 3 倍并支持本地部署。
- 艾伦人工智能研究所的 Tülu 3 405B 利用可验证奖励强化学习 (RLVR) 优于 DeepSeek V3 和 GPT-4o,尽管计算能力有限,但仍推动了扩展潜力。
最新研究论文,分类方便查阅
本周有相当多非常有趣的研究论文,我们在每个部分都用 🌟 标记了我们最推荐的论文。
强化学习与泛化
- 🌟 迈向通用无模型强化学习 开发了 MR.Q,一种无模型强化学习算法,无需环境特定调整即可在不同任务中泛化,提高了样本效率并在连续控制和 Atari 中优于基线
- RL + Transformer = 通用问题解决器 使用强化学习对预训练的 LLaMA 3.1 Transformer 进行微调,实现上下文强化学习,允许模型无需再训练即可通过拼接技能和动态适应来解决未知问题
微调 vs 强化学习
- 批评微调:学习批评比学习模仿更有效 提出批评微调(CFT)作为监督微调(SFT)的优越替代方案,训练模型批评错误而不是模仿响应,显著增强推理能力
- 🌟 SFT 记忆,RL 泛化:基础模型后训练的比较研究 比较了 LLM 后训练的 SFT 和 RL,表明 RL 在分布外泛化方面表现出色,而 SFT 主要记忆数据,RL 也改善了视觉识别能力(Quoc V. Le 和 Sergey Levine 是作者之一)
OpenAI 的 O 系列模型:能力与安全性
- 🌟 O3-mini vs DeepSeek-R1:哪个更安全? 评估了 O3-mini 和 DeepSeek-R1 的安全性,显示 O3-mini 的不安全响应率显著低于后者,尤其是在金融犯罪和恐怖主义相关提示方面
- OpenAI O3-mini 的早期外部安全测试:部署前评估的见解 评估了 O3-mini 的安全机制,发现比以前的 OpenAI 模型有所改进,但在争议话题、犯罪和恐怖主义相关查询中发现了漏洞
- 关于类似 O1 的大型语言模型思维不足的研究 发现类似 O1 的大型语言模型过快地放弃推理路径,导致问题解决效率低下,并提出了一种思维切换惩罚机制,以在不进行微调的情况下提高准确性
- 🌟 大型语言模型思考过快,无法有效探索 在游戏设置中测试了大型语言模型,揭示 OpenAI 的 O1 模型在探索方面优于人类,而其他大型语言模型则由于过早的不确定性处理而失败
护栏及其破坏者
- GuardReasoner:迈向基于推理的大型语言模型安全护栏 开发了 GuardReasoner,一种利用推理微调和硬样本优化来提高模型安全性的护栏,其 F1 分数优于 GPT-4o+CoT 和 LLaMA Guard 3
- 病毒:绕过护栏审查的有害微调攻击大型语言模型 引入了病毒,一种对抗性微调攻击,可绕过护栏审查,实现 100% 的泄漏率并显著增加大型语言模型响应的有害性
新颖的架构与训练范式
- 🌟 Mamba 混合:通过模态感知稀疏性增强多模态状态空间模型 将稀疏性与状态空间模型相结合,实现多模态学习
- ARWKV:我们不需要预训练,一种源自 Transformer 的基于 RNN-Attention 的语言模型 用基于 RNN 的方法取代 Transformer 的自注意力机制,以减少计算需求
- IFormer:集成 ConvNet 和 Transformer 用于移动应用 将卷积网络与 Transformer 合并,以提高移动视觉模型的效率
- 过度标记的 Transformer:词汇量通常值得扩展 通过扩大词汇量来重新定义标记化,以提高大型语言模型训练效率
高效模型扩展与优化
- 🌟 Sana 1.5:线性扩散 Transformer 训练和推理计算的有效扩展 引入了一种线性扩散 Transformer,可降低训练成本并实现文本到图像生成的高效扩展
- 🌟 s1:简单测试时扩展 提出了测试时扩展技术,可在不进行额外训练的情况下提高推理效率
- 🌟 带重叠通信的流式 DiLoCo:迈向分布式免费午餐 通过减少带宽需求和重叠同步与计算来优化分布式训练
今天就到这里。感谢您的阅读!
如果本文能帮助您的同事增进对人工智能的理解并保持领先,请分享给他们。