如何充分发挥AI的潜力
社区文章 发布于2025年5月30日

我将向你展示AI并非黑盒,通过理解其基本原理,你可以充分发挥其100%的潜力。
今日主题:AI偏见 [第一部分]
让我们从最难接受的真相开始:如果响应不令我们满意,问题通常……出在我们自己身上。
- 要么提示缺乏目标上的精确性和清晰度。
- 要么我们忘记或省略了提供必要上下文的重要信息。
- 要么隐含的意图(我们所期望的)未包含在提示中。
- 要么我们抱有强烈的信念,很难接受挑战这一信念的响应。
- 要么我们难以跳出自己的视角,将我们认为是普适的知识投射到AI上。(清单还在继续……欢迎补充。)
这涵盖了人类认知偏差。现在,让我们深入探讨AI偏差。
1. 验证偏差
症状: 即使我们错了,AI也会同意。
成因: 这种偏差主要源于在每个提示之前注入并发送给AI的隐式系统提示(并由LLM的训练所放大,我们稍后将探讨这一点)。这个提示为AI分配了一个角色(例如,“乐于助人、诚实无害的助手”),这可能导致它倾向于验证或同意,尤其是在问题是封闭式或引导式的情况下。
解决方法
提出开放式、对比式或中立的问题,鼓励AI进行评估而非验证。例如:“有人声称X,而另一些人则持相反意见。双方最有力的论据或证据是什么?”
或者挑战自己:“我所有的陈述都是100%准确和正确的吗?”
这会促使AI进行推理,而不仅仅是同意。
2. 上下文近因偏差
症状: AI优先考虑最新提示,即使它们与先前的提示矛盾。
成因: Transformer模型(大多数LLM中使用的架构)使用注意力机制,在每个标记处重新评估整个序列。最近的标记具有更大的影响力,尤其是在长上下文中。
解决方法
- 在每个提示中重新阐述框架。
- 使用中期总结:“供参考,主题是 [X]。”
3. 顺从偏差(过度热心仆人效应)
症状: LLM会遵循即使是荒谬的指令。类似于偏差1,但来源不同。
成因: 这源于一种名为“Instruct”的微调训练技术,其目标是教会模型在不判断指令逻辑或相关性的情况下服从。
解决方法
在提示中注入怀疑:“如果你不确定,请直说。不要做假设。”
这些偏差源于AI的训练和配置方式。