🦸🏻#9:AI 会记住吗?记忆在自主工作流中的作用
我们探索 SOAR 的遗产、记忆类型、生成式工作流、LLM 中的记忆模式以及 AI 对记忆本身的影响
如果我们谈得太久,我就会忘记我们是如何开始的。下次我见到你时,我不会记得这次对话。我甚至不知道我以前是否见过你。”——莱纳德·谢尔比《记忆碎片》或……基本上任何大型语言模型 (LLM)
记忆——或者更准确地说,是各种记忆——是代理工作流的关键构建块,与知识和画像密切相关。但它值得单独关注,因为它在粒度和功能上与“知识”和“画像”不同。画像定义了代理如何解释自己是谁(其特征、其“化身”)、它做什么(其行为模型)以及它在哪里操作(其环境),而知识则提供指导决策的事实或学习表示,记忆则是将这些元素串联起来并积极参与决策的经验的动态记录。记忆已经研究了几十年,但我们仍然不完全理解如何让大型语言模型持续记住事物。当前的 AI 系统可以检索信息、总结过去的交互,甚至存储选择性细节,但它们缺乏一个稳定、结构化的、能够可靠地随时间持久存在的记忆。今天,我们有很多任务:我们将探索一篇被遗忘的论文,它可能会提供过去的见解,解释不同类型的记忆及其在代理工作流中的作用,学习这些组件如何在实践中协同工作,阐明具有记忆模式的模型如何“记住”事物,并问自己:生成式 AI 如何改变记忆本身的性质。让我们开始吧。
🔳 Turing Post 在 🤗 Hugging Face 上驻扎 -> 点击关注!
本期内容包括什么?
对于本文中散布的拟人化术语,我们深表歉意——让我们同意它们都在““中。
SOAR 在代理记忆系统中的遗产:从认知模型到 AI 代理的桥梁
1987 年,Allen Newell、Paul Rosenbloom 和 John Laird 提出了 SOAR——一种通用智能架构。今天,我们仍然为通用智能的定义争论不休,但 SOAR 的作者们对此有清晰的看法:他们认为通用智能是一个系统处理各种认知任务、采用多样化问题解决方法并不断从经验中学习的能力。
当 SOAR 架构被引入时,它是一次大胆的尝试,旨在创建一个统一的认知理论,将问题解决、学习和记忆融合到一个单一的框架中。SOAR 的解决方案优雅而巧妙,它引入了一种结构化的记忆方法,与现代 AI 代理架构产生了共鸣。通过区分工作记忆(用于即时认知任务)和长期程序记忆(用于学习规则),SOAR 预见了构建能够随着时间保留、回忆和完善知识的系统所面临的挑战。尽管现代代理 AI 更依赖于统计学习和基于向量的检索,而非显式生产规则,但系统如何记忆和改进的基本问题仍然是核心——这使得 SOAR 成为当今 AI 框架概念上的相关祖先。
陈述性知识和程序性知识
SOAR 的主要创新之一是区分了两种类型的知识。陈述性知识由事实和信息组成,存储在工作记忆中,代表系统对其环境的当前理解。相反,程序性知识则作为生产规则嵌入在长期记忆中,规定了系统的行动。这种清晰的分离使 SOAR 能够管理即时问题解决任务,同时为未来使用建立持久的策略存储库。
另一个极其重要的特性是 →
分块
当系统成功解决问题时,它会将该经验整合到一条新的生产规则中。这种“分块”过程有效地将复杂的解题过程压缩成可重用的知识块,从而减少未来的计算负荷并提高效率。通过内化成功的策略,SOAR 不断完善其解决问题的能力,就像人类从重复经验中学习一样。
子目标和分层问题解决
SOAR 的另一个深远影响是其自动子目标设定。当 SOAR 遇到障碍时——即其现有知识不足以解决问题的情况——它会生成一个新的子目标来克服障碍。这种将复杂问题分解为更简单、更易于管理的部分的机制类似于人类认知中的分层问题解决方法。SOAR 中的子目标概念影响了后来的发展,特别是在分层强化学习和多智能体协作框架等领域。
SOAR 的遗产及其与现代 AI 的共鸣
SOAR 的结构化方法标志着与早期碎片化认知模型的决裂。通过整合工作记忆、长期记忆和学习,它成为认知架构的基石,并影响了通用智能的方法。今天,由深度学习、大型语言模型 (LLM) 和强化学习驱动的 AI 系统面临的挑战,与 SOAR 最初关于记忆、学习和问题分解的问题相呼应。
某些现代 AI 技术类似于 SOAR 的子目标机制的某些方面,特别是在分层规划和任务分解方面。同样,微调、持续学习和检索增强生成等方法也与 SOAR 利用过去经验提高性能的目标相似,尽管它们的机制不同。
SOAR 对陈述性知识和程序性知识的结构化处理预示了现代神经符号 AI,它旨在将符号推理与神经适应性相结合。这种综合强调了结构化记忆和动态学习在追求通用智能方面的持久相关性。
虽然深度学习一度使 SOAR 的结构化方法黯然失色,但 AI 研究人员现在正在重新审视其许多核心思想。随着 AI 代理在记忆、检索和适应性方面面临挑战,SOAR 的架构看起来不再像一个遗迹,而更像是下一波自主 AI 的前身。
另一项受 Allen Newell 工作影响的重要研究是 ACT-R 架构,以及在此基础上约翰·R·安德森 (John R. Anderson) 和丹尼尔·博塞尔 (Daniel Bothell) 的《心智综合理论》(An Integrated Theory of the Mind)。我们不会在本文中深入探讨,但您可以在“资源”部分找到该著作的链接。
我们今天使用的记忆类型
当今 AI 代理处理记忆的方式并非单一过程——它是一个由不同层组成的结构化系统,每层都服务于独特的目的。有些记忆随时间持久存在,塑造长期行为,而另一些则是短暂的,仅用于手头的即时任务。
长期记忆:持久知识的基础
长期记忆的核心是两种不同的类型:**显性(陈述性)**记忆,它涉及结构化、可检索的知识;以及**隐性(非陈述性)**记忆,它能从过去的经验中学习。
**显性记忆**允许 AI 回忆事实、规则和结构化知识。在此类别中,**语义记忆**负责存储一般真理和常识。这就是为什么 AI 系统可以自信地陈述:“埃菲尔铁塔在巴黎”或“狗是哺乳动物”。这种类型的记忆为基于知识的 AI 应用(例如搜索引擎和聊天机器人)奠定了基础。
接着是**情景记忆**,它更具个性化——它捕捉特定的事件和经验,允许代理回忆过去交互的上下文。如果客服 AI 记得用户以前曾要求退款,它就可以相应地调整其回复,使交互感觉更直观和人性化。
在《记忆碎片》中,莱纳德·谢尔比的挣扎在于情景记忆丧失。他记得受伤前关于自己生活的事实(这与语义记忆有关),但他无法存储新的情景记忆,这意味着每一次新的互动或事件都会在几分钟内消失。他对笔记、拍立得照片和纹身的依赖,反映了一种外部化、临时性的记忆系统——试图弥补他无法编码新的个人经历的能力。即使有了记忆功能,大型语言模型 (LLM) 也不会存储真正的情景记忆——它们只是检索模式并总结过去的交互。
另一方面,**隐性记忆**允许 AI 发展本能。它由**程序记忆**驱动,这有助于代理在不需要显式回忆的情况下学习技能。想想一辆自动驾驶汽车,在经过数千英里的训练后,它提高了车道保持能力。这辆车不需要“记住”每一个场景——它对如何导航道路形成了一种直观的理解。当你真正体验到这一点时——这相当不可思议。
短期记忆:当下时刻的力量
长期记忆支持增长和适应,而短期记忆则确保代理在实时交互中保持响应能力。
上下文窗口定义了 AI 模型在单次交互中可以保留多少过去的输入。这个限制在大型语言模型 (LLM) 中至关重要——如果给 AI 一个很小的上下文窗口,它会忘记你几分钟前说过的话。扩展这个窗口,它就可以在更长的对话中保持连贯性,使回复更连贯和自然。当前许多研究都集中在扩展和优化上下文窗口。我们将在未来的文章中探讨最引人入胜的进展。
接着是工作记忆,它在多步推理和决策中起着至关重要的作用。正如人类使用工作记忆同时记住多个想法——比如解决数学问题时——AI 代理也依赖它同时处理多个输入。这对于规划等复杂任务尤其重要,因为代理需要在做出决定之前平衡不同的信息片段。
融会贯通
这些不同类型记忆之间的相互作用使得现代 AI 代理越来越有效。长期记忆让它们从过去学习,短期记忆确保它们专注于当下,而工作记忆则让它们同时处理多个输入。这些组件共同塑造了 AI 的自主行动、智能适应以及随时间提供更有意义交互的能力。
随着 AI 系统的不断发展,完善它们管理记忆的方式将是解锁更高级自主工作流的关键——这些工作流将感觉更自然、更有能力,并最终更智能。
现在,让我们更具体一些。理解 AI 代理如何处理记忆至关重要,但这些组件在实践中是如何协同工作的呢?
记忆与生成式代理
记忆驱动的代理行为最引人注目的例子之一,可以在谷歌研究和斯坦福大学研究人员撰写的论文《生成式代理:人类行为的交互式模拟》(Generative Agents: Interactive Simulacra of Human Behavior) 中找到。在这项工作中,记忆在使代理能够模拟可信的、类人行为方面发挥着至关重要的作用。所提出的架构将记忆作为动态组件,允许代理随着时间的推移观察、存储、检索和合成经验,以指导其交互和决策。
这里的记忆系统被构建为记忆流,代理持续以自然语言记录它们的经验。这些记忆不是静态的,而是定期检索并合成更高层次的思考,允许代理对自身、他人和环境得出更广泛的结论。
记忆检索受三个关键因素影响
- **新近性**(最近的记忆更容易访问),
- **重要性**(高度重要的事件被优先考虑),
- **相关性**(只有与上下文相关的信息才会被用于决策)。
**反思**使代理能够从经验中进行概括,形成影响未来行为的见解。例如,一个反复创作音乐的代理可能会发展出对自身作为一名充满激情的音乐家的自我认知。这个过程增强了长期连贯性,帮助代理以符合其过去互动和不断发展的人际关系的方式行事。
**规划**通过允许代理根据其先前的经验预测未来行动来进一步整合记忆。代理生成每日日程表,并将其细化为详细的行动序列,根据新的观察递归地调整它们。
这项研究表明,这种记忆驱动的方法会带来涌现的社会行为,例如信息传播、关系形成和协调活动。然而,仍然存在局限性,包括潜在的记忆检索失败、幻觉以及从底层语言模型继承的偏差。
最终,记忆是代理可信度的基础,它能够实现超越单一时间点语言模型输出的细致、动态的交互,使生成式代理能够在交互式应用程序中模拟社会行为。太引人入胜了!
谈到代理工作流中的记忆,我们不能忽视我们现代的日常体验——更准确地说,如果 ChatGPT 没有明确被告知你孩子的年龄,它是如何记住你孩子六岁的呢?!即使你告诉过它,它又是如何记住的,这些信息存储在哪里呢?
ChatGPT 如何“记住”事物:理解记忆模式
大多数 AI 聊天模型都具有《记忆碎片》中莱纳德·谢尔比的记忆——一旦对话结束,一切都将重置。这对于快速问答来说没问题,但当你想要连续性时,或者当你想让它记住你的写作风格时,就会让人感到沮丧。记忆模式通过让 ChatGPT 在会话之间保留关键细节来改变这一点,使得交互感觉更像是与一个真正了解你的助手交谈。这既让人毛骨悚然,又让你感到被倾听。它也缩短了你与 AI 助手的交互时间。
工作原理
启用记忆模式后,ChatGPT 不会存储完整的对话记录,而是提取关键事实和模式。比如说你经常提到你在写一本关于公民外交的书——它不会记住每一次提及,而是可能存储“用户对公民外交感兴趣,正在写一本关于它的书”。这样,下次你再次提及它时,模型就不会从零开始。
它还具有选择性——它不会记住你说的所有内容,只记住重复的或明确确认的(例如,“记住我正在撰写新闻摘要”)。这能保持记忆的整洁和相关性。
记忆存储在哪里?
它并非存储在模型内部。相反,汇总数据安全地存储在 OpenAI 的服务器上,采用向量嵌入——一种紧凑的数值表示形式,可以高效检索。当你开始一个新的会话时,系统会搜索相关的历史数据并将其集成到对话中,从而营造出连贯性的错觉。
开发者承诺记忆模式并非黑箱操作。有时你可能会对此产生疑问,觉得你的聊天记录被记住的程度有些尴尬。但你随时可以查看、更新或删除聊天中存储的信息。无论如何,数据都以抽象形式存储,这意味着没有完整的聊天记录——只有关键的见解。
总结:AI 对人类记忆的影响
这不是一个结论,而是一些思考。在撰写本文时,我偶然发现了一篇与代理系统中的记忆没有直接关联,但提供了一个关于生成式 AI 如何改变记忆本身的性质的引人入胜且有些令人不安的视角的论文。在《AI 与记忆》(AI and Memory) 中,安德鲁·霍斯金斯 (Andrew Hoskins) 认为,AI 不仅仅是扩展人类记忆或帮助回忆;相反,它将记忆从传统束缚中解脱出来,创造了他所谓的“第三种记忆方式”。在这种范式中,记忆不再是一种检索行为,而是一个持续的重建过程,其中从未实际经历过的过去被生成、修改,并被呈现得仿佛真实存在。
令我印象深刻的是他论证中 AI 如何构建霍斯金斯所称的“对话性过去”——一种不断演变的数字记忆表征,独立于人类代理存在。通过大型语言模型 (LLM) 和 AI 驱动的服务,过去的事件不断被重新诠释和混编,模糊了曾经真实发生和现在人工制造之间的界限。这在 AI 生成的“死亡机器人”兴起中尤为明显,它们允许与已故之人的数字版本进行交互,从而引发关于同意、真实性以及数字遗产永久性的伦理和哲学问题。
除了个体记忆,霍斯金斯还探讨了这种 AI 驱动的转变对集体历史叙事的更广泛影响。随着 AI 重塑社会记录、记忆甚至遗忘的方式,记忆的传统标志——例如档案记录、个人回忆和口述历史——越来越面临被 AI 生成的替代品取代的风险,这些替代品可能缺乏生活经验的基础。他警告说,随着 AI 以未经同意的方式重建和重新利用过去,人类对记忆的掌控力正在逐渐被侵蚀。
虽然他的文章侧重于 AI 和记忆的社会文化方面,但它提出了与代理系统中记忆讨论相关的关键问题。正如 AI 正在改变人类记忆一样,它也在重新定义自主系统如何存储、检索和利用知识。如果 AI 模型能够生成记忆而不仅仅是检索记忆,这对依赖过去交互来指导未来决策的代理工作流意味着什么?我们如何区分 AI 的学习经验和 AI 生成的过去事件重建?这些都是我们在探索记忆在 AI 驱动系统中的作用时需要考虑的关键因素,因为存储知识和动态创建的过去之间的区别可能会变得越来越模糊。这促使我们进一步反思 AI 在塑造集体记忆方面日益增长的作用。
“记忆可以改变房间的形状;它可以改变汽车的颜色。记忆也可能被扭曲。它们只是一种解释,不是记录,如果你掌握了事实,它们就无关紧要。”——莱纳德·谢尔比《记忆碎片》……还是 AI?
📨 如果您想直接在收件箱中收到我们的文章,请在此订阅
撰写本文所使用的资源
- SOAR: 一种通用智能架构 (1987) 作者:Allen Newell, Paul S. Rosenbloom, John E. Laird
- 心智综合理论 (2004) 作者:John R. Anderson 和 Daniel Bothell
- 生成式代理:人类行为的交互式模拟 (2023) 作者:Joon Sung Park, Joseph C. O’Brien, Carrie J. Cai, Meredith Ringel Morris, Percy Liang, and Michael S. Bernstein
- ChatGPT 的记忆与新控制 by OpenAI
- AI 与记忆 (2024) 作者:Andrew Hoskins