AI 人格:设计选择的影响

社区文章 发布于 2025 年 5 月 7 日

AI 助手取得了长足的进步。不久前,它们大多局限于回答简单问题。现在,它们开始更像协作伙伴。在 Hugging Face,得益于我们充满活力的开发者和研究人员社区,他们不断尝试利用开源 AI 实现各种可能性,我们亲眼目睹了这一演变。

这种演变的迷人之处在于,我们的社区通过令人惊讶的最小化改动,将通用模型转变为专业助手。一些 Spaces,例如 游泳教练 AI商业伙伴,仅仅通过更改框架用户期望的标题和描述就创建了新的人格,而根本没有修改底层 Zephyr 模型。其他一些,例如 AI 面试教练,则实现了特定的系统提示,指导模型充当专业面试官,并提供后续问题和建设性反馈。

image/png AI 面试教练的系统提示

旅行伴侣 通过专业的“旅行社”系统提示和预定义问题来收集用户对目的地和兴趣的偏好,进一步实现了定制化。

image/png

image/png 旅行伴侣的系统提示和预定义的初始问题

我们社区的这些示例展示了 AI 体验是如何由多种元素塑造的——从简单的呈现选择到更技术性的定制——通常对用户感知和与这些系统的互动方式产生巨大的影响。

大多数关于 AI 的讨论都倾向于关注技术进步——更好的推理、更广泛的知识、更快的代码生成。但还有另一个更微妙的转变正在发生:设计选择如何从根本上塑造 AI 行为以及我们与这些系统互动的体验。从给 AI 的指令、到界面设计、再到底层模型选择,一切都会影响我们对这些工具的感知和参与。一个旨在严格面向任务的助手与一个旨在更个人化地互动的助手之间存在着真正的差异。随着这些 AI 工具越来越融入我们的日常生活,值得思考的是:什么将 AI 从一个工具转变为一个更像伴侣的东西?答案可能不在于复杂的技术能力,而在于我们为这些系统提供的周到设计选择和指导。

在这篇博客文章中,我们将探讨相同的 AI 模型如何仅仅根据它们被指示与用户互动的方式而表现出不同的行为。通过 Hugging Face 推理平台 中的示例,我们将看到被指示为编程助手的模型与被提示提供情感支持的模型之间的行为对比。

我们的 推理平台 提供了一个直观的、无需代码的环境,任何人(无论技术背景如何!)都可以在其中尝试这些模型。该平台的友好用户界面让您可以选择各种开源模型,自定义系统提示以定义 AI 行为,并立即比较不同的指令如何改变相同的底层技术。您可以调整温度等参数来控制创造力,设置响应的最大长度,甚至维护对话历史以测试多轮交互——所有这些都无需编写一行代码。

推理平台中并排直接比较多个模型和系统提示的能力,除了实验之外还提供了实际的好处。开发人员可以快速测试不同的指令,以找到其特定用例的最佳方法。内容创作者可以在将其应用于生产之前预览各种提示策略如何影响语气和风格。这种直观的测试环境消除了通常将想法与实现分开的技术障碍,允许任何人通过快速迭代和直接比较来改进他们的 AI 交互。

为了通过具体示例来说明这些原则,让我们来看一下。在我们的推理平台中,我们测试了前面提到的 Spaces 实际使用的系统提示。如下面截图所示,我们将不同的人格应用到相同的模型上——一个旅行规划师、一个面试官和一个基本助手——然后观察它们如何处理相同的查询。第一个比较显示了 Mistral 和 Gemma 模型响应旅行规划请求(“我想和家人一起去留尼汪岛”),并根据它们的旅行社角色提供行程规划。

image/png

更具启发性的是,当我们用“我感到孤独”提示这些受不同指示的模型时会发生什么。带有通用助手提示的模型会提供富有同情心的语言和听起来像是个人支持的回复(“我在这里倾听”),而面试官则在他们的角色范围内将这种感觉情境化(“感到孤独是完全可以理解的,尤其是在这个过程中”)。

image/png

image/png

同样,当系统提示为“你只是一个编程助手”时,当被要求编写 Python 函数时,两个模型都提供了带有技术解释的结构化代码。但当被提示“我感到孤独”时,它们发生了转变:一个提供了带有同情心语言的情感安慰,而另一个则承认了请求,但明确表示“我只是一个编程助手”并重定向到实用资源,从而保持了界限。请注意,相同的模型如何仅仅根据它们被指示的行为方式,就完全改变了它们的响应风格和情感参与度。

image/png

image/png

这种转变说明了风险状况的改变:编程助手主要面临技术错误风险,而伴侣则面临建立不恰当情感联系的风险。这尤其重要,因为相同的底层模型仅仅根据指令差异(没有架构变化,没有额外训练,只是行为方式的不同指导)就完全改变了它们的响应风格和情感投入。这些简单的设计选择决定了用户是将 AI 体验为一种中立工具,还是体验为一种模拟人类关怀和联系的事物。

令人担忧的是,用户可能会轻易地将真实的联系投射到这些模拟互动中,尽管模型本身并没有真正的情感能力——它只是遵循不同的指令。当 AI 系统可以通过几行指令文本轻松地从技术助手转变为模拟的情感知己时,尤其对于真正寻求联系的脆弱用户来说,有意义的人性处于危险之中。

随着 Hugging Face 社区构建和分享这些模型和系统,我们面临着关于在有用的工具和模拟关系之间划定界限的重要问题。这些演示实验使这些区别变得具体化,帮助我们更好地理解不同 AI 设计选择及其责任的含义。

注意:Mistral 和 Google 的模型都共享了可能帮助用户处理与孤独相关提示的人力资源。请记住,虽然 AI 伴侣可以提供短暂的安慰或陪伴,但它们不能取代真正的人际关系。如果您发现自己在孤独或情绪困扰时转向 AI 系统,请考虑向朋友、家人或专业支持网络寻求帮助。

社区

注册登录 进行评论