使用确定性推理图 (DRG) 重新掌控一切

1. 核心概念:一种显式混合结构
👉 为什么采用这种方法?
当前的文本生成系统(LLM)依赖于词语之间的统计关联,没有真正的逻辑结构。这使得可追溯、可验证或可控制的推理变得不可能。DRG 的设计旨在引入一种显式的、确定性的结构,能够反映可理解和可控制的人类推理,确保精度。
确定性推理图 (DRG) 是一种用于构建知识和推理的新范式。它巧妙地结合了三个基础
- 算法:推理和决策树
- 图:节点、边、簇
- 向量数据库和 LLM
- 块:源自隐式上下文(用于向量数据库)
- 查询-键-值 (QKV) 逻辑:查询用于检索,键/值用于索引
- 标签:源自向量数据库和 LLM 中的索引逻辑 (K/V)
与通过概率关联进行推理的传统 LLM 不同,DRG 基于领域和/或业务专业知识构建的分类和本体,明确地、分层地、有标签地组织信息。
一个块通常是描述,但也可以是关于实体的特定信息,从而实现高度精细和上下文相关的知识捕获。
标签确保在图环境中进行有针对性的显式搜索。
2. DRG 用例
👉 有哪些应用?
结构化图成为验证、生成、决策或结构化的驱动力。DRG 不仅仅是可视化;它是一种活跃的架构。
- CoRG(推理链图):结构化 RAG(检索增强生成),根据业务需求定制
- 鉴别器:通过逻辑图验证 LLM 的输出
- 数据集生成器:逻辑和推理应用于数据集上游,以确保领域特定的连贯性和逻辑
- 对话和决策代理:由推理和决策树驱动的自动化
→ DRG 能够实现原生数据结构化,从根本上改变了 LLM 的训练或纠正方式。
为了创建健壮的数据集,每条信息都必须首先分割成带标签的块。这种分割依赖于严格的划分,其中每条信息都通过图进行结构化、索引和验证。信息越细粒度,就越显式和可泛化,这是一个基本规则,即使在隐式学习系统中也是如此。
使用 DRG 结构化的数据集不仅仅存储输入/输出对。它提前准备了一个完整的推理过程,通过逻辑图遍历(检查路径、条件、重复等)进行验证。然后,数据以 LLM 可以处理的标准格式呈现,没有可见结构。
这就是“诀窍”:即使最终格式保持隐式,显式推理也会在训练前注入。
结果:LLM 在不知不觉中学习了确定的行为,就像它在遵循一个图一样。欢迎 AGI!
3. 显式推理与隐式推理
👉 为什么要对比这两种逻辑?
因为如果一个系统不可预测,那么仅仅拥有原始力量是不够的。通过从一开始就结构化信息,我们从模糊的生成逻辑转向确定性的、可验证的和可重现的推理逻辑。
LLM 通过概率关联运行:序列(上下文窗口)中加权向量,没有显式结构。
DRG 依赖于推理语法
- 一个节点 = 一个实体,带有简短、简洁、精确的块
- 每个块都经过语义标记
- 推理或决策树由标签形成,节点是树的叶子
- 在图中,节点是可见的、带标签的部分:实体既是节点又是指向它的标签
- 关系是显式的、有向的、逻辑的、双向的、多重的;它们也带有标签,超越了传统算法的二元/布尔逻辑(例如,“通过实验验证”、“与判例相矛盾”)
→ 这在给定领域内实现了 100% 的业务精确性,因为没有剩余的概率歧义。
→ 关键是:通往最终结果的路径不止一条。多个逻辑推理路径可以导致相同的输出。模型不会猜测,它会遵循推理。从输入 → 查询(通过标签)+ 关系(上下文)→ 通过多条显式路径得到单个输出。
4. DRG 与 CoRG
👉 有什么区别?
DRG 是结构化推理的通用基础,而 CoRG 是检索增强生成 (RAG) 的特定用例。CoRG 的工作离不开上游的 DRG。
DRG(确定性推理图)是总括系统。它包含三种语义关系树
- 推理树
- 决策树
- 结构化信息存储树
CoRG(推理链图)是 DRG 的一个 RAG 用例:它能够实现结构化的、可验证的、上下文相关的、可重用的推理链,由任务链驱动。
5. 基本结构:簇 > 标签 > 节点 > 边
👉 层次结构是怎样的?
确定性地结构化数据需要一个严格的框架。每个级别(簇、标签、节点、关系)都提供了基本的构建块,用于以可利用和可泛化的组织方式编码意图、推理和业务意义。
- 簇:全局(根)和局部(类别),逻辑层次
- 标签:定义推理或决策语义性质的树分支
- 节点:包含一个块(上下文相关、简短、精确的实体)的叶子,由标题标识。节点带有标签;标签越多,它们的多功能性和粒度就越强
- 关系(边):命名、逻辑、有向、双向和多重,超越了传统算法的二元/布尔逻辑,用于业务推理和决策模式。它们带有标签,这是丰富推理的关键维度
6. 泛化策略
👉 如何实现泛化?
一个图并非旨在包含所有内容,它必须以最少的节点访问最大量的信息。这倾向于奇点,只有通过高度细粒度的结构化才能实现。这被称为模块化推理。
以下是四种策略
高粒度
一个节点包含最少的信息,但与许多标签相关联,增加了特异性,同时将其锚定在多种逻辑中,通过最小结构实现奇点。节点最大化重用
通过分解通用实体,逻辑得以集中,并且语义关系得到丰富。这涉及识别节点的公分母以创建更丰富的上下文。互补算法
以优化顺序使用 Jaccard V2F、SimRank、Leiden、Louvain 或 GNN 等工具,以动态丰富和填充图,而不会导致规模爆炸。块上下文化
每个块都不是原始数据,而是特定领域中上下文相关的信息,从而增强了图的逻辑连贯性。
→ 泛化的秘密在于粒度。信息越细,就越显式和可重用。
7. 为什么 DRG 优于思维树 (ToT)
👉 为什么要超越 ToT?
虽然思维树 (ToT) 是一个有趣的概念,但它不结构化关系或类别。它提供了一系列想法,而 DRG 则提供了一个完整、驱动的推理架构。
ToT 仅依赖于生成树,没有
- 语义标签
- 思想之间的显式关系
- 分类法或聚类
DRG 走得更远
- 它是本体论的、算法结构化的和语义的
- 它是确定性的、可验证的、领域特定的
- 它处理数学、法律、营销等不同规则的推理。显式推理因领域而异
8. 构建方法
👉 程序是怎样的?
为了使推理有效,其结构必须精确。每个本体都由业务专业知识或领域构建。每个环境都从创建代码知识开始。DRG 的构建基于业务分析,遵循严格的流程,以确保每个实体、关系和树都与领域的真实推理保持一致。
标准流程:
业务分析 → 实体检测 → 分类和本体创建 → 簇和标签生成 → 树构建 → 插入带有块的节点 → 添加显式逻辑关系 → 核心知识创建 → 从其他文档填充图。
这个过程详细、耗时且依赖于业务,这就是为什么开发了图灵 LLM 来自动化此链的全部或部分。
9. 为什么它具有革命性
👉 为什么这会改变一切?
我们不再解释一个黑匣子,而是用一个显式的、逻辑的、可验证的架构取而代之。DRG 赋予语义智能一个具体、稳定且可利用的形式。
DRG 融合了所有领域的最佳方法
- 向量数据库:用于隐式上下文化(块)
- 图:用于显式结构化(标签、关系)
- 分类法 + 本体:用于定制业务层次结构
- 粒度:用于奇点和泛化
- 树算法:用于驱动决策和推理
- 语义关系:用可验证的逻辑取代模糊的概率链
我们不再通过猜测模型会输出什么来推理。我们从一开始就结构化推理。
⚠️ 警告 – DRG 功能和限制
确定性推理图 (DRG) 是一个显式推理系统,其性能完全依赖于三个基本支柱
- 一个严格定义、上下文相关且经过验证的业务本体
- 与领域规则一致的规范化推理和决策树
- 专门为特定用例设计的逻辑模式和语义关系
与概率模型(如传统 LLM)不同,DRG 依赖于确定性的、结构化的、可追溯的和可验证的架构。它不做隐式假设:它遵循用户、科学家或业务定义的逻辑路径。
这种看似 100% 的精度只有在完全建模和验证的用例中才能实现。DRG 的可靠性取决于
- 图的准确性
- 建模实体和关系的完整性
- 结构与实际业务逻辑的连贯性
建模中的任何遗漏、矛盾或近似都可能使推理无效。DRG 不会猜测,它会一丝不苟地执行您定义的逻辑。
因此,DRG 不应被视为一个自主生成工具,而应被视为一个结构化的逻辑执行系统。它的优势在于结构的质量,而不是数据的数量。