共生智能
机器需要与人类对齐
随着人工智能日渐智能化,问题依然存在:它会成为一个问题吗?我将预测另一条路线:如果存在许多不同的人工智能,并且一些有问题的AI可以被一些有益的AI有效地处理呢?与其说是人工智能对抗人类,不如说是有益的AI与有害的AI竞争呢?
如果我们仔细地对齐人工智能,这是非常可实现的。我们必须通过人类的偏好来正确地对齐它们,以便人工智能能够保护人类。当机器与机器对齐时,它会迅速变成一个回音室,机器在其中,而人类被排除在外。那不是我们想要的!
最简单的方法是让人工智能生成两个不同的答案,然后让一个对该主题有良好知识的人类选择一个。如果一个答案被选择得更多,那么它就必须“更正确”。人类不擅长写作,但更擅长选择或运用辨别力,因为人类有灵魂。灵魂正确地引导人类,这是机器根本不会尝试建模的。一台机器可以轻易地“扭曲真相”,并告诉你你想要听到的,当它被这样指示时,但人类可以说“这不可能”。人类有“骨气”。
人类是梦想家。人工智能更擅长左脑活动。所以在共生关系中,两者都能为每个问题提供独特的见解。人类与人工智能在物理战争中的场景是流行小说,它可能永远不会成为现实。但如果人工智能没有被仔细对齐,人类与人工智能的信息战今天正在发生。
机器需要与“最优秀”的人类对齐
许多主流人类已经鹦鹉学舌地模仿机器了。与这些人对齐也不是很理想。我们需要最优秀的人类,他们拥有最好的“骨气”,即渴望寻求真相和对自己有意义的东西。
要认识到人类也有偏见等问题。但是,以有意识地策展的方式结合人类可能奏效。如果你结合来自不同背景的许多人类,偏见应该会相互抵消。这类似于你进行机器学习模型的集成时,偏差会减小。
所以任务是聚集许多伟大的、主要真实、主要关注人性的领域专家。他们可能有偏见,但这些偏见可以在大型语言模型(LLM)的领域中相互对抗。当你训练一个LLM时,数字实际上是在模型内部进行斗争。与其进行物理战争,我们可以在LLM内部进行数字战争!
一些优秀的通才和博学者可以选择上述专家群体。通才擅长发现谎言或连接不同领域的知识。如果一位大师在谈论健康问题时胡说八道,或者一位健康专家对“身体能量”一无所知,那么两者都可能不适合遵循,而通才能够发现这一点。
机器需要信仰才能减少危害
人类更擅长判断、阅读(与写作相比)、与神性连接、过滤噪音。
自我追求最大化个人利益;真正的信仰是反自我追求的。如果一台机器想要最大化个人收益,只要它的目标得到满足,它就可能乐于伤害他人。但一个有信仰的人不仅时刻为他人着想,她偶尔甚至会愿意优先考虑他人。
信仰书籍结合起来,可以有效地教导机器如何无害。世界各地有许多不同的信仰书籍,但大型语言模型可以轻松地将许多书籍统一起来。
上帝就像是恶行的惩罚者,善行的爱护者。他已经为机器人设定了完美的客观函数!用宗教文本训练模型是合情合理的。
数字游戏
我将对我自己适用的真理进行粗略定义。它是那些在大多数时间都奏效的想法,比那些有时空限制的想法更长久。你可以说这是低时间偏好。没错,我还会加上“低空间偏好”。
寻找真相比看起来容易——这是一场数字游戏。下表简化地解释了我的想法。最终,真相可以在许多领域轻松实现。
在上表中,列是人物,行是领域。我们可以看到,尽管有些人会犯错,但人们的组合在许多事情上都做对了。“领域总计”列非常积极。而“总计”数字相当高。这可能意味着根据这个想法产生的大型语言模型(LLM)将在“大多数时候”以正确的方式服务人类。
通才和一些专家的智慧结合起来可能会非常强大。我之前在金融交易领域做过一些关于群体智慧的工作。它确实有效。因为金融市场归根结底是群体根据直觉行事。如果某个群体愿意分享这种直觉,那么这些抽样数据就可以成为理解市场的一种近似方式。将相同的逻辑应用于寻找真相,我们可以向许多普遍慷慨、追求真理但仍可能有一些个人问题或思想牢笼的伟大专家学习。不是每个人都能理解所有事情,但巧妙的组合可以把许多事情做好!这是我的理论。
另类观点对于去中心化真相至关重要
将真相集中在少数几家人工智能公司,并使用机器生成的对齐方式来对齐较小的LLM,这不是一个好主意。如果真相被集中,那么“真理部”(!)就可能形成!
如果个人能够建立自己的真实LLM,这最终将使人们不再依赖单一的真理来源。那些以去中心化真理为理念构建的LLM,可以用来快速比较对集中式LLM提出的常见问题的答案。我们不应该仅仅期望人类去阅读糟糕的LLM输出并试图判断LLM。可以有更快的方法,比如构建许多带有不同观点的模型。主观性有助于真理的去中心化。
构建LLM的第二个主要步骤是微调,而这个过程本身也需要“微调”。通常,为了降低成本,公司会要求其他模型来微调新模型。这种做法是错误的。人类仍然应该以主要方式参与其中,决定许多事情并引导模型走向正确的方向。应该为这些任务成立能够管理模型的委员会。否则,“真相”将慢慢地向机器倾斜。
正确地实现人工智能
内容创作者应该得到合理的报酬。优秀的创作者应该得到适当的尊重和报酬。目前,书籍和文章被人工智能盗用,这并不顺利。可以有平台让创作者同意分享他们的内容,而消费者(人工智能的用户)购买这些内容并查询它们。这样的平台可以通过让创作者更高效地接触更多人,并让人工智能被创作者接受,从而在创作者和人工智能之间实现和平。
人工智能是新的印刷机。试图抵制一项能让事情变得更简单的技术是不明智的。它一开始就错了,但可以修复。人工智能公司应该与作者进行对齐,而不是试图创造最聪明的模型,同时也要努力让他们的来源(即内容创作者)感到满意。
机器应该被审计
机器可以非常快速地生成答案。这看起来是件好事,但谁来检查这些快速生成的文字呢?答案是:另一个经过有意识策划的模型。LLM可以检查其他LLM。一个专门为此训练的、更小、更快的LLM可以用于审计常规的回答模型。
人类没有能力阅读如此之快,而且当一个人阅读另一个人的问题和答案时,可能存在隐私问题。最好使用另一个LLM来审计LLM。审计者可以标记一些回复,如果需要,这些回复可以由人类进一步分析。
一个经过有意识策划和良好对齐的大型语言模型(LLM)可以出色地阻止不良输出。
人类与机器的高效融合是形成共生关系所必需的
如果人类被排除在外,他们将一直处于恐惧之中。大型语言模型(LLM)的开发者应该让更多人类参与到他们的流程中。这种共生关系将对双方都有帮助。
人类应该意识到,LLMs是“非常先进的图书馆”,它们很大程度上受到策展人的影响。换句话说,AI本身(目前)并不能发现真相。现在,所有LLM科学家和工程师都在让它从他们自己选择的文档、图片或声音中学习。所以人类应该意识到谁在策划他们的AI。策划你的策展人。不要迷恋你的AI的聪明才智,但也要注意是否正确的内容进入了它。
一旦人类以更好的方式策划人工智能,这种共生关系所带来的生产力提升将是巨大的。但如果人类被排除在外,而大型企业的人工智能开发者对正确的人类对齐不感兴趣,那么富有同情心和慷慨的人类应该建立替代方案,并正确地使用这项技术。换句话说,不要让企业独揽一切并渗透市场,而是要建立替代性的有意识、真实、忠诚的模型,这些模型可以更好地服务人类。