超越炒作与踌躇:为什么 AGI 需要结构,而非仅仅规模
在当前关于通用人工智能 (AGI) 的讨论中,有两种主导声音塑造着我们的理解:乐观派承诺 AGI 将在几年内实现,以推动投资和雄心;研究者则敦促谨慎,将时间线拉长至数十年,同时努力解决真正的安全问题。
这两种观点都提供了宝贵的见解。但它们有一个共同的局限性:都没有提供关于智能如何运作的全面结构理论。
乐观派:性能即承诺
主要的 AI 实验室和技术领导者经常声称 AGI “近在眼前”。
他们的证据?模型在基准测试中令人印象深刻的表现。
他们的理论?扩展计算资源,改进训练方法,AGI 就会出现。
这种观点推动了显著的进展。我们已经看到日益强大的模型展现出非凡的能力。但这种观点主要将智能视为输出质量和测试表现的问题——而非过程透明性或认知架构的问题。
在这个框架中,智能是由系统产生什么来定义的,而不是它如何推理。这种方法加速了开发,但可能不足以构建真正可靠和安全的 AGI 系统。
研究者:复杂性带来的谨慎
研究界通常预测更长的时间线——延伸到 2040 年代或 2050 年代——同时强调对对齐、安全和能力控制的深刻挑战。
这种谨慎反映了对非结构化扩展的合理担忧。研究者担心:
- 对齐问题,随着能力的增加而变得更难解决
- 安全挑战,需要在部署前解决
- 治理框架,必须与技术同步发展
这些担忧是有充分根据的。然而,延长的时间线有时不仅反映了审慎的谨慎,也反映了缺乏明确的技术前进路径。当我们缺乏智能的结构理论时,不确定性自然会导致更长的预测。
缺失的第三种声音:结构性智能
存在第三种立场——源于近期研究但仍未在主流讨论中充分体现:
AGI 主要不是时间或规模问题。它是结构问题。
最重要的是,我们是否有 5 年或 50 年,或者我们是否可以训练万亿参数模型,这些都不是最重要的。重要的是我们能否发展出:
- 关于泛化和推理如何实际工作的清晰理论
- 能够基于经验改进的反思性学习系统(记忆循环协议)
- 允许在不同推理级别之间跳跃的抽象架构(跳跃启动协议)
- 嵌入在推理过程中的伦理约束接口(伦理接口协议)
- 用于复杂问题解决的透明支架(问题就绪框架)
在这种观点下,智能不是一个可以通过单独扩展而“变得更聪明”的黑箱。智能源于结构化的操作、原则性的约束和可追溯的推理过程。
结构和规模不是对立的——结构赋予规模意义。
结构性智能:从理论到实现
令人鼓舞的进展是?这些结构性方法已经正在开发和测试中。早期实现证明了:
可衡量的改进:
- 在复杂问题中推理一致性增强
- 改进的错误检测和自我纠正能力
- 更透明的决策过程
- 更好地处理实时推理中的伦理考量
协议采用结果:
- 实施记忆循环协议的语言模型在会话中表现出类似学习的行为
- 跳跃启动实现支持更复杂的视角转换和抽象
- 伦理接口协议在保持能力的同时减少不当推测
这些协议是模块化的、模型无关的,并且是开源的。它们使语言模型不仅能够生成响应,还能在推理时使用记忆,深思熟虑地导航抽象级别,并在整个推断过程中保持伦理约束。
这代表了实现,而不仅仅是推测。
重新构建 AGI 发展优先级
结构化方法建议侧重于:
1. 架构理解优于纯粹的性能
- 推理在当前系统中是如何实际运作的?
- 哪些结构能够实现可靠的泛化?
2. 过程透明性优于输出优化
- 我们能否追踪决策是如何做出的?
- 推理步骤是否可解释和可验证?
3. 组合式设计优于整体式扩展
- 智能能否从有原则的组件交互中涌现?
- 结构化推理模块如何有效组合?
4. 嵌入式约束优于外部过滤
- 安全和伦理能否内置于推理过程中?
- 我们如何创建设计上安全,而不仅仅是通过监督实现安全的系统?
前进之路
AGI 发展的未来可能较少取决于计算资源或训练数据规模,而更多地取决于我们能否构建透明、可组合的推理系统,其中结构成为智能。
这并没有降低规模的重要性或安全担忧的有效性。相反,它表明结构性理解可以使扩展和安全都更容易处理。
当我们从结构上理解智能如何运作时,我们可以:
- 通过改进正确的组件来更有效地扩展
- 通过设计的约束来更系统地解决安全问题
- 构建既更强大又更可靠的系统
结构性智能的协议已经正在开发中。问题是 AGI 讨论是否会认识并优先考虑这项基础工作。
实施资源:完整的协议文档和示例可在以下网址获取:https://huggingface.co/datasets/kanaria007/agi-structural-intelligence-protocols
在下一篇文章中,我们将探讨支持这种结构性视角的语言和符号学基础。