🌁#84: 程序合成能否解锁AGI?
我们将讨论弗朗索瓦·肖莱特(François Chollet)实现AGI的组合方法,并为您提供一系列有趣的文章、相关新闻和必读的研究论文。深入了解吧!
🔳 Turing Post 在 🤗 Hugging Face 上常驻 -> 点击关注!
现在,进入主要议题:
最近,我们看到许多有前景的理念重新回归,进一步推动我们向超智能计算机和推理机器人发展的不可阻挡的竞赛。今天,让我们来谈谈**程序合成及其为何可能是实现AGI的关键缺失环节。**
程序合成首次引起我们关注是在2019年,当时弗朗索瓦·肖莱特(François Chollet)发表了他出色的论文《论智能的衡量》。在该论文中,他介绍了抽象与推理语料库(ARC),这是一个旨在评估类人通用智能的基准。他强调了深度学习在推理和泛化方面的局限性,并认为程序合成可以作为创建真正智能系统的关键一步。通过让AI动态生成解决方案——编写针对特定任务的小程序——程序合成将重点从静态任务性能转移到适应性和推理能力。
快进到2025年,ARC-AGI已成为评估志在AGI模型的主要基准之一。弗朗索瓦·肖莱特正在进一步推进他的思想:他创立了**Ndea**,一个致力于通过探索深度学习和程序合成的迷人**混合体**来推进AGI的实验室。他相信,这种组合可以释放新的效率,使人工智能能够进行抽象推理,从极少数据中学习,并解决比以往更广泛的问题。让我们看看程序合成是什么,它从何而来,以及如何与深度学习结合。
历史:当然,我们可以追溯程序合成的起源……
追溯到我们最敬爱的艾伦·图灵。
- 形式化基础(20世纪60年代 - 80年代): 随着布奇(Büchi)和兰德韦伯(Landweber)(1969年)的自动机理论方法以及曼纳(Manna)和沃尔丁格(Waldinger)(约1980年)的工作,该领域获得了更坚实的理论基础。这一时期主要关注开发程序合成的形式化方法,通常基于逻辑推理和演绎技术。
- 实用化演进(20世纪90年代-2010年代): 程序合成发展到纳入更实用的方法,包括素描(由阿曼多·索拉尔-莱扎马(Armando Solar-Lezama)在2006年随SKETCH系统引入,程序员提供带有可自动填充空洞的部分程序),以及编程示例(PBE)(在2010年代随着Excel中的Flash Fill等工具而流行,由萨米特·古尔瓦尼(Sumit Gulwani)开发,通过从用户提供的输入-输出示例中学习模式来自动化数据转换)。
- 现代复兴(2010年代-2020年代): 21世纪见证了程序合成的重新兴起,特别是在形式验证领域。这促成了诸如语法引导合成(SyGuS)等进步,它将逻辑规范与语法约束相结合,以指导合成过程。
多年来,程序合成和机器学习各自独立发展,但现在我们看到它们的协作势头强劲。有几个因素使得它们的整合更加可行和有前景:
- 计算能力增强: GPU!提供足够(以及更多更多更多)的计算资源来处理程序合成和机器学习算法的复杂性,使研究人员能够探索更复杂的技术并解决更大的问题。
- 大型数据集的可用性: 大数据和在线代码库的激增为训练用于程序合成的机器学习模型提供了原始材料。这些数据集促成了数据驱动方法的开发,以指导搜索过程,从示例中学习,并推广到新情况。
- 思想的交叉融合: 软件开发人员进入机器学习领域,带来了他们的专业知识和热情,并将其应用于各个领域。
例如,2023年,麻省理工学院开设了一门名为“程序合成导论”的课程,并将其描述为“一个编程语言、形式化方法和人工智能交叉的新兴领域”。
肖莱特的愿景:程序合成的案例
弗朗索瓦·肖莱特(François Chollet)长期以来一直主张程序合成是实现通用人工智能(AGI)的关键一步。他批判了深度学习的局限性——对海量数据集的依赖、其脆弱性以及在推理和泛化方面的困难。与深度学习擅长识别模式但往往无法适应新问题不同,程序合成允许AI通过**抽象推理**生成解决方案,提供了一种更具适应性和可扩展性的方法。
在他的里程碑式著作《论智能的衡量》中,肖莱特强调将**智能过程**(生成解决方案的系统)与**输出**(特定解决方案本身)分开。他认为程序合成——一种AI创建小型、特定任务程序的方法——是评估智能的理想方式。这种方法将重点从静态任务性能转移到动态适应未知挑战的能力。
深度学习与程序合成的交汇
肖莱特设想程序合成是深度学习的补充方法,而非替代。深度学习模型可以通过缩小搜索空间和处理大规模模式识别来指导程序合成,而程序合成则带来了推理和抽象能力。这种混合方法可以提高效率并解决目前AI无法触及的问题。
为了实现这一愿景,弗朗索瓦·肖莱特(François Chollet)和迈克·克诺普(Mike Knoop)共同创立了Ndea,一个专注于通过程序合成推进AGI的AI研究实验室。Ndea植根于肖莱特对**抽象是智能关键**的信念,旨在开发适应性强的AI系统,通过利用符号操作和代码生成来实现灵活的推理和泛化,从而克服深度学习的局限性。
我们将密切关注Ndea,因为AGI并非一个可以从单一角度解决的挑战。它需要跨不同科学领域的整合与协作。看到AGI的新方面正以新方法得到解决,令人兴奋。
精选集
您喜欢 Turing Post 吗?——> 点击“关注”!并订阅以直接发送到您的收件箱 -> https://www.turingpost.com/subscribe
来自“常客”的新闻©
- AI的新宠儿:新闻业 Mistral AI与法新社合作,获取逾40年新闻档案以支持其聊天机器人Le Chat。OpenAI不甘示弱,与Axios联手,支持其在美国四个城市扩展地方新闻编辑室。谷歌的Gemini应用也力求跟上,利用美联社的实时资讯以提供更即时、更可信的内容。
从档案到实时更新,AI与新闻业的联姻正在改写新闻传播的规则。我对此感到满意。
- 语境化人工智能:RAG回归 “检索增强生成”(RAG)的创建者们带着Contextual AI新平台回来了,该平台旨在解决最复杂、知识密集型任务。凭借其统一的RAG 2.0架构,它通过提供更高的准确性、更少的错误和现实世界的可靠性,优于碎片化系统。看到一个概念的创始人将其带到真正可生产的阶段,总是令人着迷。
- Hugging Face推出免费AI智能体课程 Hugging Face推出了一门免费的认证课程,旨在揭开AI智能体的神秘面纱。参与者将学习如何使用LangChain和LlamaIndex等框架构建智能体,探索实际应用,并通过完成动手任务获得认证。无论您是开发人员还是仅仅好奇,该课程都将为这个快速发展的领域奠定坚实基础。
- 微软的AI机器持续运转 MatterGen:身披白大褂的AI 微软研究院揭示了MatterGen,这是一种从零开始设计新材料的生成式AI工具。通过跳过传统的筛选过程,它已经能够创建具有磁性和耐久性等稳定特性的化合物。电池、太阳能电池、二氧化碳捕获——MatterGen可能成为可持续技术突破的关键。不久前,我们曾发表了一篇对MatterGen合著者之一的采访 → 阅读它。 AutoGen 0.4:构建更智能的智能体 AutoGen的最新版本完善了微软的智能体框架,推进了开发主动、任务驱动AI系统的工具。 新AI工程部门 微软招募前Meta重量级人物Jay Parikh领导其新AI工程部门。Parikh的任务是扩展超级计算机和平台,他体现了纳德拉的使命:“三十年的变革在三年内完成。”这是一个非常有趣的发展!
- 谷歌的泰坦巨兽咆哮 谷歌研究院发布了Titans,一个在测试时具有动态“长期记忆”的AI模型,声称其对长输入具有线性扩展能力。这可能打破Transformer的二次方限制,并将AI推向类人认知。尽管怀疑者们指出计算成本和内存瓶颈,但爱好者们仍在等待基准测试。Titans或许将重新定义2025年“注意力”的真正含义。
- OpenAI:服务新任总统 在就职典礼前几天,OpenAI公布了其类似宣言的经济蓝图,敦促投资于芯片、能源和人才以推动AI驱动的增长,同时保障民主——与新任总统的路线保持一致以保持相关性。同时,ChatGPT在测试版中通过“任务”变得更智能。现在,它作为一个主动的助手,处理从提醒到自动化重复操作的一切——让您的待办事项少一件需要思考的事情。 任务: “嘿,聊天,等所有人都停止虚伪时叫醒我。”
我们正在阅读
- 对抗性扰动简介 作者:Devansh – 一篇引人入胜的读物,清晰地阐述了对抗性扰动,强调了它们在人工智能中的颠覆性潜力及未开发的机会。
最新研究论文,方便您分类查阅
本周有不少顶级研究论文,我们将用🌟在每个部分进行标记。 注意力和Transformer创新
- 🌟 Transformer2: 自适应大型语言模型 通过微调权重矩阵和任务特定专业知识,动态适应未见任务,实时提升性能。
- 🌟 张量积注意力是你所需要的一切 通过张量分解减少注意力机制中的内存使用,有效扩展以提升扩展上下文中的性能。
推理、思维与知识拓展
- 走向大型推理模型:大型语言模型推理能力扩展综述 通过强化学习和测试时扩展等技术,提升大型语言模型的推理能力,实现结构化问题解决。
- 使用Graph-PReFLexOR进行现场图推理和知识扩展 将基于图的推理与符号抽象相结合,以增强适应性和跨学科问题解决能力。 🌟 OmniThink:通过思考扩展机器写作的知识边界 模仿人类认知在机器写作中,动态检索和扩展知识以生成全面的内容。
基础模型扩展
- 🌟 MiniMax-01:利用闪电注意力扩展基础模型 通过闪电注意力和专家混合模型高效扩展,实现长上下文处理和多模态集成,以增强任务性能。
- 视觉分词器在重建和生成方面的扩展学习 有效扩展Vision Transformers,通过降低计算成本在图像和视频应用中实现最先进的结果。
- 扩散模型的推理时间扩展超越去噪步骤的扩展 通过优化噪声选择来改进生成扩散模型,提高图像质量和多样性。
数据集最佳实践
- 🌟 大型语言模型训练开放数据集最佳实践 建立数据集创建的透明度和多样性原则,以伦理和有效的方式实现人工智能的民主化。
基准和评估
- HALOGEN:大型语言模型奇妙的幻觉及其发现之地 通过详细基准分析大型语言模型的幻觉模式,对错误进行分类以指导缓解策略。
- PokerBench:训练大型语言模型成为专业扑克玩家 评估大型语言模型在战略游戏中的能力,揭示不完全信息任务的复杂性。
增强训练和可解释性
- SPAM:带有动量重置的尖峰感知Adam,用于稳定大型语言模型训练 通过尖峰感知优化增强训练稳定性,解决梯度尖峰问题,提高效率和性能。
- 通过以输出为中心特征描述增强自动化可解释性 专注于基于输出的特征分析,以完善可解释性并重新激活未充分利用的神经特征。
未指定
- CityDreamer4D:无界4D城市组合生成模型 通过组合设计生成无界4D城市环境,融合真实世界数据和可扩展性,用于城市模拟。
- 可信机器学习模型为目前密码学无法解决的问题解锁私有推理 启用安全的AI驱动协作,作为密码学解决方案的替代方案,使用可信环境。
今天就到这里。感谢您的阅读!
如果本文能帮助您的同事增进对人工智能的理解并保持领先,请分享给他们。