🦸🏻#10: 当今的生成式人工智能真的会推理吗?
我们将讨论“推理”的实际含义以及我们为接近通用人工智能(AGI)应努力的思维模式
OpenAI 的 o1 和 o3、DeepSeek 的 R1 以及 Google 的 Gemini 2.0 等人工智能模型的最新进展引发了一场持续的争论:这些系统真的具备推理能力吗?
本文旨在与两位 Turing Post 读者进行一次虚拟对话:课程设计中心创始人兼主席 Charles Fadel,以及《休闲人工智能》作者和即将出版的《通向通用人工智能之路》作者 John Thompson。我们讨论的主题是推理——一个广阔而复杂的主题。
然而,关于模型和代理系统中推理和规划的技术细节,我们将在下周五再讨论。今天,我们将重点关注我们所说的推理是什么,探讨其不同类型以及我们思考和处理信息的各种方式。
为了回答这个问题,我们必须首先明确定义我们的术语。通过借鉴机器学习、哲学和心理学中的见解,我们旨在阐明推理是什么——以及它不是什么——然后评估人工智能模型的“思考”与人类思维的比较。
🔳 Turing Post 在 🤗 Hugging Face 上驻扎 -> 点击关注!
这一切都始于 Charles Fadel 写信给我,问我是否愿意以他的论文《当今生成式人工智能真的会推理吗?》为基础写一篇文章。在那篇论文中,Charles 旨在阐明两个基本问题:
人类推理涉及哪些认知过程?
生成式人工智能能在多大程度上复制或模仿这些过程?
我同意了,不久之后,我看到了 John Thompson 的一条富有洞察力的评论:
“我们必须谨慎使用术语。许多人一直在谈论模型的推理。推理(至少对我而言)意味着某种程度的原创性思维或思想。大型语言模型不会推理。它们以令人难以置信的速度进行推断,但它们不会推理。
现在我们听到诸如模型在有更多时间‘思考’时会变得更好之类的说法。这不是思考。这是循环直到满足条件。这是目标导向,而不是思考。”
约翰的观点强调了一个关键问题——我们所说的推理到底是什么?查尔斯在他的论文中承认了这一挑战:
"解决这些问题的一个主要挑战是,文献中缺乏对推理甚至‘思维模式’的单一、普遍接受的定义。认知科学承认多种思维形式,从分析性、演绎性推理到创造性和直觉过程。然而,这些模式之间的定义和界限往往模糊不清。"
为澄清起见,查尔斯提出了以下推理定义:
- 一种有意识的认知过程。
- 根据前提、事实或证据形成结论、进行推断或生成解释的能力。
- 通常遵循结构化的逻辑原则,但不限于形式逻辑。
在审查了词典和基于研究的定义后,他将推理综合为一个简洁的描述:
"推理是根据事实或前提进行思考,从而形成解释、得出推论或做出决策的过程。"
推理是任何代理系统关键构建块之一。
思维模式
随后,查尔斯与合著者 Alexis Black 博士一起,承担了一项艰巨的任务,进一步阐述了人类推理和思维模式的分类,这为评估人工智能的推理能力奠定了基础:
“我们论文的核心贡献是对人类思维模式的分类,它为评估人工智能推理能力奠定了基础。我们借鉴了认知科学、心理学和人工智能领域的大量文献来定义和分类这些模式。这些模式包括结构化推理方法(如演绎推理和归纳推理)、创造性和直觉过程,以及人类在决策和问题解决中使用的认知策略。”
这是他们得出的列表:
理解这些思维模式有助于我们确定人工智能系统与人类推理的比较情况以及它们存在的不足。
哪些思维模式符合推理的定义?
根据查尔斯的说法:“并非所有思维模式都构成推理。有些,如演绎、归纳和溯因思维,明确是推理的形式。其他模式,如创造性、联想性和情感性思维,与推理部分相关,但不能完全满足其标准。
例如:
联想思维——与推理部分相关,因为它连接思想但不遵循逻辑原则。
创造性思维——部分相关,因为它涉及创新性问题解决,但并非总是依赖逻辑推断。
情感思维——不是推理,因为它受主观情感而非客观评估的引导。
这种分类使我们能够系统地评估人工智能可以复制推理的哪些方面。”
生成式人工智能在多大程度上能够复现人类推理?
有了所有这些模式,就非常清楚了,正如查尔斯所说,“生成式人工智能在某些领域表现出色,但在其他领域则表现不佳”。他分析了生成式人工智能复制不同推理模式的能力:
生成式人工智能擅长的模式(认知处理):
- 计算思维——人工智能在结构化、算法式问题解决方面效率极高。
- 模式识别——人工智能能够识别海量数据集中的趋势和关系。
- 聚合思维——人工智能能够为给定问题确定最优解决方案。
- 序列思维——人工智能以结构化、按部就班的方式处理信息。
生成式人工智能可部分执行的模式(认知推理):
- 归纳推理——人工智能可以从数据中进行概括,但在细微差别和偏见方面存在困难。
- 演绎推理——人工智能可以应用形式逻辑,但仅限于明确编程的情况。
- 溯因推理——人工智能可以生成合理的解释,但缺乏直觉和创造力。
- 类比思维——人工智能可以识别相似之处,但不能像人类那样跨领域进行概括。
- 战略思维——人工智能可以协助规划,但缺乏适应性。
发展认知推理的一个潜在途径是将大型语言模型与符号规划器结合起来——这些系统依赖明确的逻辑规则而非统计模式。与大型语言模型不同,后者基于概率推断关系,而符号规划器则遵循结构化的推理过程,确保决策的一致性和可靠性。通过将符号推理技术与神经网络相结合,我们可以开发出不仅能根据数据驱动的推断生成响应,还能遵守严格逻辑约束的人工智能模型,从而使其推理更加稳健和可解释。
生成式人工智能表现不佳或无法执行的模式(非逻辑思维):
- 反思性思维——人工智能缺乏自我意识和真正的内省。
- 整体思维——人工智能无法灵活地整合不同视角。
- 情感思维——人工智能无法体验情感,也无法进行情感思考。
- 创造性思维——人工智能缺乏原创性,因为它只是现有思想的重新组合。
- 整合思维——人工智能无法有效地综合相互冲突的观点。
人工智能推理的主要局限性:
- 缺乏真正的理解:人工智能处理模式而不理解其含义。
- 依赖训练数据:人工智能无法超越其所学进行推理。
- 无自我反思:人工智能无法评估自身的推理过程。
- 有限的适应性:人工智能在动态的现实世界推理中表现困难。”
在论文的最后,查尔斯总结道:
“生成式人工智能表现出一些类似推理的行为,但并未真正以人类的方式进行推理。尽管人工智能可以模拟逻辑操作、识别模式和生成推断,但它是在没有深入理解或意识的情况下完成的。
- 人工智能擅长结构化、计算式推理。
- 人工智能在整体性、反思性和情感性推理方面存在困难。
- 人工智能无法像人类那样自主生成新见解或重新诠释知识。
最终,生成式人工智能以结构化、基于模式的方法运作,而人类推理则具有适应性、自我意识和情境敏感性。随着人工智能的不断发展,未来的模型在推理方面可能会有所改进,但当前的系统距离实现类人认知能力还很遥远。
为什么理解这些思维模式对于大型语言模型的推理很重要?
大型语言模型在海量文本数据上进行训练,这使它们能够识别和模仿不同的推理模式。然而,与人类认知不同,它们的推理并非基于真正的理解,而是基于统计关联。
通过将推理分解为不同的思维形式,我们可以更好地分析大型语言模型如何处理信息,它们擅长哪些方面,以及它们在哪方面存在不足。这种理解还可以指导人工智能模型的改进——无论是通过完善其应用逻辑结构的能力、提高其对因果关系的理解,还是使其推论更加透明和可解释。
有趣的是,认知处理中的思维模式发展良好,而认知推理中的模式是研究人员旨在将大型语言模型提升到新“推理”水平的最热门话题。然而,非逻辑思维中的模式仍然遥不可及。如果你真的想突破界限,这正是你应该将研究方向引导的地方——弄清楚如何实现这些难以捉摸的思维模式(如果可能的话)。
最终,探索不同形式的推理有助于我们评估大型语言模型如何模拟思维,以及这对它们在决策、问题解决和沟通中的应用意味着什么。
你认为呢?你有什么补充吗?请在下方留言。
作者:Charles Fadel 和 Ksenia Se
📨 如果您想直接在收件箱中收到我们的文章,请在此订阅