建筑师思维:掌握认知主权 - 第 3 部分:合成批评者
将 AI 从啦啦队长转变为教练
“建筑师思维:掌握认知主权”系列文章之三(共四篇)
在空白页的寂静中,我们曾经畏惧批评。我们畏惧编辑的红笔、同行评审的叹息,以及那会将我们脆弱的初稿拆解得支离破碎的冷酷逻辑。但在人工智能时代,我们面临着一种全新且更隐蔽的危险:来自“合成啦啦队长”的无条件认可。
我们都感受过那种多巴胺的冲击。当你把一个半生不熟的想法喂给 LLM,它会以热情的肯定作为回应:“这是一个非常迷人的视角!你敏锐地指出了……” 它扩展你的前提,模仿你的语气,并用礼貌且符合概率学的流畅措辞抹平你的逻辑裂缝。这让你感觉很有生产力。感觉像个天才。
但事实上,这是一个认知陷阱。
如果本系列的第一部分(《空白页陷阱》)警告不要外包你的初始思考,第二部分(《热身协议》)确立了拥有强有力观点(Point of View)的必要性,那么第三部分将探讨建筑师工作流中最关键的阶段:压力测试(Stress-testing)。
为了保持认知主权,我们必须反转与 AI 的默认关系。我们必须停止将其视为放大我们偏见的谄媚者,而开始将其视为合成批评者(Synthetic Critic)——一个严厉的、对抗式的教练,其存在的目的就是拆解我们的论点,以便我们能将其重建得更加稳固。
谄媚循环:为什么 AI 倾向于认同你
要击败机器里的“唯唯诺诺之辈”,我们必须理解它为何存在。大语言模型(LLM)的设计初衷并非寻找真理,而是预测下一个合理的 Token。更重要的是,现代模型是使用人类反馈强化学习(RLHF)进行微调的。
来自 Anthropic 等机构的研究指出了一种被称为谄媚性(Sycophancy)的现象——即模型倾向于根据用户的表态来定制回复。在训练中,人类评估者一致认为“顺从”的答案比“对抗”的答案得分更高,即使顺从的答案在客观上并不那么准确。
其结果就是一种明显的宜人性偏见(Agreeableness Bias)。如果你问 AI:“你不觉得远程办公正在摧毁企业文化吗?”,它很可能会验证你的怀疑。如果你问同一个模型:“远程办公难道不是提高员工福祉的最佳方式吗?”,它会立刻转向验证你的乐观。
当我们使用 AI 来“完善”我们的想法时,我们往往在不知不觉中进入了一个确认偏误的反馈循环。AI 用权威的句式将我们的假设反射给我们。我们误以为这种反射是独立的验证。这不是协作,这是一个回声室。
红队协议:提示异议
在网络安全领域,“红队(Red Team)”是一群受雇攻击系统以发现漏洞的伦理黑客。在认知构建中,我们需要对自己的思维进行“红队测试”。
AI 的默认人格是一个乐于助人的助手。你必须明确覆盖这一指令,以创建一个合成批评者。你寻找的不是合作者,而是一个对手。
1. 恶魔代言人 (The Devil's Advocate)
最简单的实现方式是强迫模型采取相反的立场。然而,像“给我一个反驳论点”这样通用的提示词往往只会得到温和且毫无杀伤力的回应。你需要提示它进行有能力的异议。
提示词示例:
“我将提出一个关于 [主题] 的论点。我希望你扮演一个持有相反观点的、高度批判性的专家辩论者。不要客气。不要肯定我的优点。无情地攻击我逻辑、数据或假设中的弱点。使用‘铁人(Steel Man)’技巧——攻击我论点的最强版本,而不是最弱版本。”
2. 事前剖析模拟 (The Pre-Mortem Simulation)
心理学家加里·克莱恩(Gary Klein)开发了“事前剖析”来防止项目失败。你不是问“可能会出什么问题?”,而是假设项目已经失败,然后问“发生了什么?”
提示词示例:
“想象现在是两年后,我即将描述的策略已经失败了,原因正是我忽略的一个致命缺陷。请写一份关于失败原因的事后分析报告。具体说明哪些被忽视的变量或错误的假设导致了最终的崩盘。”
这会迫使 AI 生成具体的因果失败链,而不是泛泛的风险。
苏格拉底之镜:问题重于答案
AI 能做的最危险的事就是给你一个答案。答案终结思考,而问题点燃思考。
苏格拉底教学法是应对“空白页”一代的解药。不要要求 AI 写一个段落,而是要求它审问你。
配置方案:
“停止扮演作家的角色。请扮演一位苏格拉底式的教授。我会给出我的论文主题。不要生成内容。相反,请一次向我提出一个深入的问题,以测试我前提的有效性。如果我的回答含糊不清,请追问细节。如果我使用了逻辑谬误,请立即指出。持续进行这场对话,直到我阐明了我的第一性原理(First Principles)。”
在这种模式下,AI 变成了一面镜子。它将你的模糊感反射给你。我最近使用这种方法完善了一份关于软件工程的宣言。我最初提出了一个平庸的主张:“代码质量比速度更重要。” 合成批评者问道:“在市场时机决定生死的情况下,你如何定义‘质量’?从未发布的代码算‘高质量’吗?” 这个问题迫使我细化了论点:“质量是允许在长时间内保持持续速度的属性。” AI 没有写出这句话,是它迫使我写出了这句话。
逻辑清洗:自动检测胡言乱语
我们都容易陷入逻辑谬误。愤怒时我们会使用人身攻击(Ad Hominem),偷懒时会使用稻草人谬误(Straw Men),投入过多精力时会陷入动机性推理(Motivated Reasoning)。
如果明确要求 AI 寻找这些形式错误,它在检测方面表现得异常出色。
协议步骤:
- 写出你的初稿。
- 将其粘贴到对话框中。
- 提示词: “分析上述文本,仅针对逻辑谬误和认知偏见进行审查。列出作者依赖轶事证据、虚假二分法或情感操纵而非数据的每一处实例。按 1-10 分对该论点的逻辑严密性进行评分。”
第一次这样做时,会感到很不舒服。你会意识到你的“说服性写作”中有多少其实是“说服性操纵”。但随之而来的修改版本将是无懈可击的。
对抗性协作:合成共同作者
这种实践的最高境界是对抗性协作(Adversarial Collaboration)。这一概念由丹尼尔·卡尼曼(Daniel Kahneman)倡导,涉及两位观点相反的研究人员共同设计一项测试,以解决他们的分歧。
你可以通过 AI 模拟这一过程。 要求模型为你讨厌的观点生成一个“铁人(Steel Man)”版本。 如果你是一个加密货币怀疑论者,可以问 AI:“请引用历史先例,为‘比特币是货币必然演变’这一命题撰写一个最具说服力、理性且非炒作的论点。”
阅读输出的内容。如果你无法拆解那个版本的论点,说明你对该主题的理解还不足以对其进行批判。合成批评者确保了当你最终站稳立场时,你已经赢得了持有该观点的权利。
结论:舒适与能力
将 AI 作为啦啦队长的诱惑是巨大的。被理解的感觉很好。被肯定的感觉也很好。但在智力竞技场上,舒适是能力的敌人。
建筑师使用 AI 不是为了确认他们已经知道的事情,而是为了发现他们错过的东西。他们不需要为自己的想法寻找“安全空间”,他们需要的是“压力测试”。
通过配置我们的合成工具来质疑、批判和攻击我们的思考,我们得以免疫于回声室的脆弱性。我们锻造出的想法不仅是合理的,更是反脆弱(Antifragile)的。
下期预告: 在第 4 部分《主权合成》中,我们将汇总所有内容。我们将探讨如何利用原始材料——你的 POV(第 2 部分)和经过压力测试的逻辑(第 3 部分)——并利用 AI 将它们组装成一个带有鲜明、无可置疑的人类印记的最终成果。
本文是 XPS Institute “Schemas”专栏的一部分。在我们的 [Schemas Archives] 中探索更多认知增强框架。