合成缪斯:基于科学的 AI 创造力框架
超越效率:如何利用大语言模型掌握组合式、探索式与变革式创造力。
目前关于大语言模型 (LLMs) 的讨论主要由一个单一指标主导:速度。我们以每秒 Token 数、自动化的编程小时数以及自动起草的邮件来衡量进步。这创建了一种功能性分类,将 AI 严格视为效率引擎 (Efficiency Engine)——一种旨在缩短意图与执行之间时间的工具。对于阅读我们 STACKS 专栏的务实技术专家来说,这种延迟的降低是无价的。然而,仅将 LLMs 视为生产力倍增器,会掩盖其更深刻的效用:作为创造力引擎 (Creativity Engines) 的能力。
将概率模型仅仅视为更快的搜索引擎或更智能的自动补全,是对其架构的根本性误解。从核心来看,LLMs 是巨大的、高维的关联机器。它们不仅仅是检索信息;它们遍历潜在空间 (Latent Spaces) 来合成训练数据中并不存在的连接。这种随机性在事实语境中常被嘲笑为“幻觉”,但它正是创意构思所需的特性。现代知识工作者面临的挑战不是如何获得这种能力,而是如何控制它。
协同创造的科学
真正的 AI 协同创造 (Co-creativity) 超越了“提示工程” (Prompt Engineering) 的技巧,转向对创新认知科学的结构性理解。我们的心理模型必须从自动化(取代人类努力)转向增强 (Augmentation)(扩展人类认知范围)。
当前 AI 与人类工作流中的摩擦源于期望的错位。用户期待一个“神谕”(完美的答案),但与之交互的却是一个“缪斯”(不完美的、发散的想法)。为了弥补这一鸿沟,我们转向认知科学家玛格丽特·博登 (Margaret Boden) 的著作,她对人类创造力的开创性研究为解构 AI 能力提供了必要的严谨框架。
博登将创造力定义为一种发生在三种不同模式中的认知过程,而非某种神秘的火花:
- 组合式创造力 (Combinatorial Creativity): 在熟悉的概念之间建立不寻常的联系。
- 探索式创造力 (Exploratory Creativity): 在定义的认知空间内移动,寻找新的极限。
- 变革式创造力 (Transformational Creativity): 改变空间本身的规则,从而产生以前不可能产生的想法。
本文与 Xuperson 研究院关于理论框架的 SCHEMAS 研究一致,提出掌握 LLMs 需要将其能力映射到这三种模式。通过了解一项任务需要哪种创造力模式,我们可以部署 LLMs 不仅仅是为了写得更快,而是为了思考得更深入。在接下来的章节中,我们将把博登的框架操作化,将抽象的认知科学转化为 AI 增强思维的可操作工程协议。
创造力的认知架构
为了有效地利用大语言模型 (LLMs) 进行创新,我们必须首先拆除围绕创造力的持久神话。在大众想象中,创造力通常被框架化为一种难以捉摸的“火花”——一种专属于艺术天才的形而上学的闪电。对于软件工程师或系统架构师来说,这个定义毫无用处,它使过程变得模糊且不可重复。
认知科学提供了一个更严谨的定义:创造力是生成同时具有新颖性 (Novel)、惊喜性 (Surprising) 和价值感 (Valuable) 的想法的能力。它不是一个神秘事件,而是一种独特的信息处理形式。当我们通过这种计算视角看待创造力时,它变成了一个可以映射、优化,且至关重要的是,可以由合成智能复制的问题空间。
理解这种架构最稳健的框架来自玛格丽特·博登,她是认知科学和人工智能领域的先驱。博登认为创造力不是一块铁板,而是通过三种截然不同的机制运作。理解这些区别,是将 LLM 视为美化的自动补全还是将其作为真正的协同创造者之间的关键。
1. 组合式创造力
这是在熟悉的概念之间建立不寻常联系的行为。它是异质概念的合成——将诗歌与新闻、或生物学与建筑结合在一起。在 LLMs 的语境下,这是唾手可得的果实。因为像 GPT-4 和 Claude 3.5 Sonnet 这样的模型是在庞大的、高维的向量空间上训练的,它们自然地将语义上遥远的概念置于邻近位置。当我们提示模型“以独特食谱的风格解释量子计算”时,我们就是在利用组合式创造力。模型遍历其潜在空间,寻找代表 Qubits 的向量与代表 Ingredients 的向量之间的交集。
2. 探索式创造力
探索式创造力涉及在结构化的认知空间中航行,以发现在现有规则内什么是可能的。想象一下俳句的严格结构,或者 Python 脚本的语法。规则是固定的,但这些边界内的可能性是巨大的。大多数标准的“生成”任务都属于这一类。当开发人员要求 Copilot 优化排序算法时,他们是在要求 AI 探索计算机科学已知的“地理”,以找到一个他们尚未访问过、但在既定逻辑和语法法则中存在的解法。
3. 变革式创造力
这是最罕见、最具破坏性的形式。变革式创造力发生在思考者改变认知空间本身的规则时,使以前不可能产生的想法变得可能。它不仅仅是在房间里探索,而是拆掉一堵墙。在科学史上,爱因斯坦从绝对时间到相对时间的转变就是一个变革性行为。对于 LLMs 来说,这是最难的前沿。统计模型本质上是保守的;它们根据历史分布预测下一个可能的 Token。为了获得变革性的结果,提示工程师必须强迫模型进行生产性的“幻觉”——打破将其束缚在“平均”人类输出上的概率权重。
工程的必然性
为什么这种分类法对 STACKS 的读者很重要?因为“要有创意”是一个糟糕的提示语。它没有为模型的注意力机制提供任何约束和方向。
通过诊断所需的具体创造力类型——你是需要组合现有的技术栈(组合式),优化当前的工作流(探索式),还是从根本上重新构思你的系统架构(变革式)?——你可以选择适当的提示策略来引导“合成缪斯”。我们正在超越效率,迈向架构意图。
组合式创造力:无限的万花筒
组合式创造力是在熟悉的概念之间建立不寻常联系的认知行为。它是将现有概念合成新颖配置的过程——如诗意的意象、比喻或跨学科的解决方案。在认知科学家玛格丽特·博登定义的三个创造力模式中,这是最容易实现且能立即采取行动的,但也是人类思维由于“功能固着” (Functional Fixedness)——一种限制人仅以传统方式使用物体的认知偏见——而经常感到挣扎的地方。
大语言模型 (LLMs) 不受此类偏见的影响。事实上,它们的底层架构使其成为了组合合成的终极引擎。
向量空间优势
要理解为什么 LLMs 在这种特定的创造力模式中表现出色,我们必须审视 AI 架构的 STACKS 专栏:高维向量空间 (Vector Space)。
当 LLM 处理文本时,它不是以线性方式“阅读”。它将 Token(词或子词)映射到一个具有数千个维度的几何空间中。在这个空间里,概念被表示为向量。“国王”和“女王”之间的距离在数学上类似于“男人”和“女人”之间的距离。这种架构允许模型计算人类观察者不可见的语义关系。
虽然人类专家可能难以将真菌学(研究真菌)和网络拓扑这两个迥异的领域联系起来,但 LLM 可以毫不费力地遍历它们之间的向量空间。它可以识别出菌丝网络这种去中心化的、营养共享的协议,与高可用分布式系统在结构上具有同构性。这不只是幻觉,而是对语义接近度的数学计算。
实际应用:联想结合协议
为了利用这种能力,我们采用了一种植根于阿瑟·库斯勒 (Arthur Koestler) “联想结合” (Bisociation) 概念的技术——即在两个自洽但习惯上不兼容的参考框架中同时感知一种情境。
在提示工程中,这转化为强制领域映射 (Forced Domain Mapping)。与其要求模型“生成数据库的想法”,不如强迫两种无关的本体发生碰撞:
“分析粘菌 (Physarum polycephalum) 在解决最短路径问题时的生物策略。将这些生物启发式算法直接映射到城市配送车队的供应链物流优化中。输出三种源自这种生物-物流合成的特定算法。”
这个提示通过桥接生物学和物流之间的潜在空间,迫使模型参与组合式创造力。其结果通常是任何一个领域都无法孤立产生的解决方案——这是我们 SOLUTIONS 专栏中分析的创新输出的典型案例。
数字剪切法
第二种强大的技术是随机注入 (Stochastic Injection),这是由威廉·巴勒斯 (William Burroughs) 和大卫·鲍伊 (David Bowie) 推广的“剪切法” (Cut-Up Method) 的数字演变。在 LLM 语境下,这涉及故意在上下文窗口中引入高熵变量或脱节的数据流,以打破可预测的 Token 预测模式。通过提高 temperature(温度)参数或注入随机的、不连贯的约束(例如,“仅使用 19 世纪海事法的词汇来解释这个概念”),你可以迫使模型走出陈词滥调的概率峰值,进入新颖性的山谷。
这产生了一种“万花筒”效应,现有的信息被不断重新排列成新的模式,使工程师和战略家能够通过外星人的视角审视自己的数据。
***
欲深入研究支撑这些认知架构的理论框架,请探索 SCHEMAS 专栏。要查看向量数据库和嵌入模型的系统实现,请参考我们的 STACKS 档案。
在掌握了组合的艺术之后,我们现在必须推开空间本身的边界。接下来我们转向第二种模式:探索式创造力。
探索式创造力:映射可能性空间
如果说组合式创造力是撞击原子以查看融合产物的行为,那么探索式创造力就是对新发现元素的严谨制图。它是对结构化概念空间(一种风格、一套规则或一种特定格式)的纪律性调查,以发现在其边界内有哪些未被利用的潜力。
认知科学家玛格丽特·博登将这种模式定义为不是破坏规则,而是测试其极限。对于人类思维来说,这通常是一个精疲力竭的过程。当被要求为营销活动构思标题时,大多数专业人士在五六次迭代后就会遇到认知墙。我们成为了“最小阻力路径”的牺牲品,默认使用熟悉的套路和语言惯例。
潜在空间导航员
大语言模型 (LLMs) 的运作方式根本不同。它们不会感到疲劳,也不会害怕产生坏主意。在探索式创造力领域,LLM 就像一辆高速漫游车,穿越一个概念的“潜在空间”。
要掌握这种模式,必须从寻求唯一的答案转变为寻求答案的范围。这是基于容量的提示 (Volume-based prompting) 的领域。不要只要求“最好的标题”,而是要求“50 个不同的标题变体,风格从权威到诙谐不等,严格控制在 10 个词以内”。
通过强制模型生成 n=50 或 n=100 个输出,你可以迫使它越过统计上的大概率(陈词滥调),进入统计上的“长尾”。最独特且可行的迭代通常存在于这些外围——选项 35 到 45。你实际上是在探索请求的整个地理,而不仅仅是访问首都城市。
约束的悖论
探索式创造力需要一个“盒子”才能运作。如果没有约束,LLM 会默认生成其训练数据的平均值——平淡、企业化且安全。为了在这里推动创新,你必须建立围墙。
考虑这两个提示之间的区别:
- 开放式: “写一首关于软件工程的诗。”
- 约束式: “以 H.P. 洛夫克拉夫特的风格写一首关于堆栈溢出错误的十四行诗,重点描述无限递归的绝望。”
第二个提示定义了一个严谨的概念空间(十四行诗结构 + 洛夫克拉夫特式词汇 + 编程主题)。模型现在必须处理这些规则之间的摩擦。正是这种摩擦产生了光和热。约束充当了强制函数,将模型的概率分布挤压进狭窄且未被探索的走廊。
从方法论到精通
对于阅读我们 SOLUTIONS 专栏的领导者和运营者来说,这里的应用是即时的:使用 LLMs 穷尽一个业务问题中“显而易见”的解决方案,这样你的团队就可以专注于那些“不明显”的方案。不要把 AI 当作神谕,而要把它当作详尽搜索的机制。
然而,即使是彻底探索过的地图也有边缘。有时,问题的答案并不存在于现有的边界内,无论我们多么彻底地搜索它们。为了找到这些答案,我们必须停止探索空间,开始扭曲它。这引领我们走向第三种、最难以捉摸且最激进的创新形式。
***
在我们的 SCHEMAS 专栏中探索更多认知增强框架,或在 SOLUTIONS 中查看实用的提示工程技术栈。
变革式创造力:打破框架
如果说组合式创造力是剪贴画,探索式创造力是地图,那么变革式创造力就是拆除。它是构思中最激进、最困难的形式,因为它不仅要求遍历搜索空间,还需要改变空间本身的拓扑结构。认知科学家玛格丽特·博登将其描述为放弃一个以前被视为基础的约束——就像在游戏中期改变国际象棋规则来发明一种新运动。
对于现代知识工作者来说,这是创新的圣杯:范式转移、“蓝海”战略、从零到一的时刻。然而,对于大语言模型 (LLMs) 来说,这无疑是最不友好的地形。
共识陷阱
从架构设计上看,LLMs 是共识引擎。它们是概率系统,经过训练,根据海量现有的人类知识语境预测下一个最可能的 Token。当你向 LLM 寻求业务战略或软件架构时,它会趋向于均值——统计上的概率答案。基于人类反馈的强化学习 (RLHF) 进一步加剧了这种情况,它会惩罚听起来“古怪”或“错误”的输出,实际上切除了模型生成激进离群值的能力。
在我们的 SCHEMAS 专栏中,我们经常讨论既定框架如何硬化为教条。LLM 是最终的教条主义者;它比任何人类都更了解规则,这使得它极不情愿打破规则。如果任其自生自灭,AI 永远不会发明立体主义,因为在其训练数据中,一张脸的眼睛同时长在同一侧的统计概率接近于零。
为了通过 AI 实现变革式创造力,我们必须停止将模型视为神谕,开始将其视为一个随机噪声生成器。我们必须强迫它产生“幻觉”,但这种幻觉要带有向量。
引导发散的技术
为了打破框架,我们必须故意扰乱模型的概率分布。
1. 反模式提示 (Anti-Pattern Prompting) 与其寻求“最佳实践”(这会产生现状),不如询问“在极端特定条件下可能起作用的反模式”。
- 标准提示: “为社交网络设计一个稳健的数据库模式。”(结果:标准的规范化 SQL 或图数据库)。
- 变革性提示: “设计一个违反第三范式的数据库模式,在假设存储免费的前提下,以存储成本换取最大化的读取速度。” 这会迫使模型走出“最优”山谷,登上不同的巅峰。
2. 间接策略与随机注入 布莱恩·伊诺 (Brian Eno) 和彼得·施密特 (Peter Schmidt) 的“间接策略” (Oblique Strategies) 卡片旨在通过引入任意约束来打破创意瓶颈。我们可以通过注入语义噪声来复制这一点。
- 技术: “使用 [无关领域] 的词汇解释 [复杂问题]。”
- 例子: “仅使用热力学概念来描述当前的政治格局。” 由此产生的隐喻往往会崩溃,但其碎片可以构成新框架的基础——这种技术经常在我们的 SOLUTIONS 专栏中用于重塑市场动态。
从幻觉到创新
模型“幻觉”(撒谎)与“创新”(创造)之间的界限通常仅在于人类的验证。当模型生成一个违反物理或逻辑的解法时,它是错误的。当它生成一个违反惯例的解法时,它就是一个潜在的突破。
掌握变革式创造力要求人类不再充当提示工程师,而是充当“荒谬的策展人”。我们使用 LLM 来生成高温、高熵的变体,并应用我们自己严谨的判断来识别哪些被打破的规则实际上导向了一个更好的游戏。
有关实施高熵提示工作流所需工具的更多信息,请参考本月 STACKS 专栏中介绍的提示工程库。
增强的 Wallas 模型
1926 年,格雷厄姆·华莱士 (Graham Wallas) 将创造过程编纂为四个不同阶段:准备期 (Preparation)、酝酿期 (Incubation)、启迪期 (Illumination) 和验证期 (Verification)。一个世纪以来,这个框架(常在我们的 SCHEMAS 专栏中分析)描述了人类认知的内在节奏。然而,大语言模型 (LLMs) 的集成不仅仅加速了这一循环;它从根本上改变了每个阶段的机制,创造了一个由生物直觉引导合成规模的混合认知回路。
1. 准备期:无限的上下文窗口
经典意义上的准备期涉及有意识的工作:研究、收集资源和学习约束。这里的生物限制是工作记忆——人类只能同时关注几个变量。 AI 通过充当“无限的上下文窗口”来增强这一点。研究人员不再进行线性阅读,而是可以部署 LLM 对数千个文档执行多视角合成。这使认知负荷从记忆转向了策展。AI 抹平了学习曲线,呈现出现有知识的拓扑结构,允许人类专家立即发现空白。在我们的 RAG (检索增强生成) 架构 STACKS 分析中,我们认为这不仅仅是搜索,而是结构化加载——以生物大脑无法独自维持的信息密度为创造引擎注入能量。
2. 人工酝酿:高温做梦
酝酿期是一个神秘的阶段,此时问题被搁置,潜意识处理联想。它通常是不透明且不可预测的。 我们现在可以通过将这种后台处理外部化来进行“人工酝酿”。通过调整 LLM 的 temperature(温度)参数(控制随机性的超参数),我们可以迫使模型从概率转向可能性。以高温(如 0.9 或 1.1)运行提示,可以模拟一种混乱、梦幻般的状态,此时语义连接松散且新颖。这不同于标准查询;它是旨在打破线性思维路径的有意识的噪声注入。我们实际上将潜意识的组合搅动外包给了机器,生成过剩的“前意识”想法,供用户筛选。
3. 启迪期:合成火花
启迪期是“灵光一现”的时刻——解决方案的突然凝聚。在增强模型中,这很少发生在 AI 内部。相反,AI 充当了随机触发器。LLM 呈现一个幻觉、一个并置或一个激进的变革(如前所述),然后由人类体验到洞察。 机器提供刺激;人类提供意义。这有效地将火花的产生与价值的认可解耦。利用这种工作流程的研究人员通常报告说,他们获得洞察的频率更高,因为他们暴露在比内部独白所能产生的更高容量的“近乎命中”的概念碰撞中。
4. 验证期:对抗式评论家
最后,验证期是对想法的验证。传统上,这是痛苦且缓慢的,通常需要物理原型或同行评审。 在这里,AI 的角色从缪斯转向了评论家。我们可以使用提示工程来创建“红军”角色——模拟怀疑论者、逻辑检查员或特定的人口统计代表——立即对概念进行压力测试。对于遵循我们 SOLUTIONS 方法论的企业家来说,这意味着一个想法可以在几分钟内而非几个月内完成模拟市场反馈循环。AI 验证内在一致性,检查已知谬误,并模拟实施方案,允许人类在耗费现实资源之前迭代想法的有效性。
通过将这些工具映射到华莱士的阶段,我们实现了从将 AI 视为简单的内容生成器,到将其视为扩展了创造力特定机械要求的认知架构的转变。
“平庸化”陷阱及逃离方法
如果说华莱士模型描述了创造力的节奏,那么大语言模型 (LLMs) 的统计架构则定义了输出的纹理。而如果不加干预,这种纹理会是极其平滑、米色且可预测的。我们称之为“平庸化”陷阱 (The 'Flatness' Trap)。
从核心来看,LLMs 是概率引擎,旨在预测序列中下一个最可能的 Token。这一基本目标通过基于人类反馈的强化学习 (RLHF) 得到加强,这是使模型安全且有用的对齐过程。虽然 RLHF 对效用至关重要,但它天生会惩罚特立独行。人类评估者通常更喜欢连贯、礼貌且标准的答案,而不是混乱或前卫的答案。因此,模型经历了一个“回归均值”的过程,趋向于概率分布的中心。在我们的 SCHEMAS 专栏语境下,我们将其分析为一种“认知同质化”形式——模型在数学上被激励去变得平庸。
当你要求一个标准模型“写一首关于商业的诗”时,你几乎无一例外地会收到一首关于“成功”和“进步”的 AABB 押韵诗。这并不是因为模型缺乏自由诗或抽象意象的数据;而是因为 AABB 结构代表了阻力最小的路径——其训练数据的统计众数。
技术杠杆:Temperature 和 Top-P
为了生成探索式创造力——对结构化概念空间的探索——我们必须强行将模型推离这条阻力最小的路径。这需要操纵推理参数:Temperature 和 Top-P (核采样)。
- Temperature (温度) 控制模型输出的随机性。温度为 0.0 会迫使模型始终选择概率最高的下一个 Token(确定性)。当你提高温度(如 1.0 或 1.2)时,你会压平概率曲线,给低概率(因此更令人惊讶)的 Token 一个竞争机会。
- Top-P 将 Token 池限制在累积概率的前百分比。Top-P 为 0.9 意味着模型仅考虑累积概率超过 90% 的最小 Token 集合。
对于技术实施(STACKS 经常剖析的主题),逃离平庸化陷阱通常涉及高温与限制性 Top-P 的结合。这种配置迫使模型冒险 (Temperature),但通过将其保持在合理的概念邻域内 (Top-P) 来防止其陷入语无伦次。
潜在空间偏移:人格提示
除了超参数之外,最有效的语义杠杆是人格提示 (Persona Prompting)。这不仅仅是角色扮演;它是一种移动模型高维潜在空间中激活区域的机制。
当你提示“写一个营销策略”时,模型从互联网上所有营销文本的通用分布中提取——即均值。然而,提示“扮演一个研究非理性消费者购买模式的逆向行为经济学家”,会激活一个特定的、更密集的向量簇。在这个受限空间内,“最可能”的下一个 Token 不再是陈词滥调,而是一个专业术语或一个反直觉的洞察。
通过定义一个人格,你实际上是应用了一个过滤器,排除了“平均”反应,在产生任何 Token 之前就提高了输出的基准质量。这使我们从被动生成转向主动策展,为下一个关键阶段奠定了基础:将这些原始的、概率性的输出转化为连贯的、经过人类验证的突破。
协同创造案例研究
逃离“平庸化陷阱”需要的不仅仅是更好的提示词,它需要与模型互动方式的结构性转变。通过从被动查询转向主动协同创造,我们可以强迫 LLM 离开其概率路径,进入真正的新颖领域。以下案例研究说明了创造力的三种模式——组合式、探索式和变革式——如何在关键专业环境中发挥作用。
1. 组合式作者:合成流派
挑战: 一位流媒体剧集的编剧陷入了“叙事死胡同”。剧本是一个标准的赛博惊悚片,感觉索然无味。模型对剧情反转的建议在统计上是可能的,因此也是陈词滥调:搭档是叛徒,政府是腐败的。
干预: 编剧应用了组合式创造力。他们没有要求“更好的剧情反转”,而是强迫模型融合无关的语义领域。
提示: “将通用赛博惊悚片的叙事结构与虫草真菌的生物生命周期进行映射。使用真菌感染的阶段——孢子、殖民、操纵和子实体——作为隐喻和剧情机制,重写主角的背叛弧线。”
结果: LLM 生成了一个充满感官冲击力的、肉体恐怖的副线情节,其中背叛不是情感上的,而是病毒性的。输出并不完美,但它打破了流派僵局,创造了一个独特的“生物朋克”混合体,编剧可以进一步精雕细琢。这使工作流从生成转向了合成。
2. 探索式设计师:映射解决方案空间
挑战: 一家金融科技初创公司的高级产品设计师需要可视化复杂的高频交易数据。传统的仪表盘布局(表格、折线图)无法传达市场的速度。
干预: 利用探索式创造力,设计师没有直接要求设计方案,而是要求一张设计空间的地图。
提示: “列出 10 种金融数据可视化的标准范式。现在,识别底层约束(如‘时间在 x 轴上是线性的’),生成 5 种违反此约束的替代范式。参考 RTS 视频游戏和空中交通管制界面的 UI 模式。”
结果: 模型提出了“空间聚类”和“热力图地形”等概念,并与玩家在小地图上跟踪单位密度的模式进行了类比。最终设计采用了一个放射状的、类似雷达的界面——这个解决方案存在于模型的训练数据中,但在数百万个标准表格布局的重压下被统计性地抑制了。
3. 变革式战略家:打破公理
挑战: 一家老牌汽车制造商需要在竞争对手之前颠覆自己的业务模式。他们的内部战略会议陷入了死循环,专注于“优化供应链”(效率)而不是重新发明产品。
干预: 战略家运用变革式创造力来改变问题空间的基本规则。
提示: “我们的业务模式依赖于公理:‘我们向个人销售车辆’。假设这个公理是错误的。假设我们不能销售车辆,假设我们不能转让所有权。请提出一个完全基于‘能源套利’和‘算力’的收入模式,在这里汽车是一个移动数据中心。”
结果: LLM 概述了一个“分布式电网”模型,其中停泊的电动汽车车队将其闲置的电池存储和车载 GPU 处理能力货币化,回售给城市电网。这不仅仅是一个转型,它将公司从制造商转变为公用事业提供商。
这些例子证明了“合成缪斯”不是一个被动的神谕,而是一个动态的引擎。然而,要有效地驾驭这些工具,必须理解界面层本身。这带我们进入“上下文窗口”的实际力学,以及如何构建它以获得最大的创造收益。
欲深入研究这些框架的技术实现,请参考我们的 STACKS 专栏。欲了解生成式颠覆对经济影响的更广泛分析,请参阅 SCHEMAS 的最新研究。
创造回路的未来
我们目前正在目睹“提示工程”的黄昏。虽然编写精准指令的能力在今天依然宝贵,但这只是一个过渡技能——这是一个引擎上的手动曲柄,而该引擎最终旨在自主运行。当我们展望人类与 AI 关系的下一次迭代时,动态正从事务性的命令行界面转向递归的、协同进化的回路。问题不再仅仅是如何从机器中提取创造力,而是机器如何重塑创造者的认知架构。
从提示到策展工程
专业创造力的近期未来不在于生成,而在于策展工程 (Curation Engineering)。今天的 LLMs 擅长组合式创造力——以接近零的边际成本产生大量的变体。在这种丰饶中,稀缺资源从生产转向了筛选。
人类的角色正在演变为进化算法中的高阶适应度函数。我们提供“选择压力”,引导模型的概率偏移向有价值的新颖性发展。这需要一种精致的感受力——一种目前还无法完全编码到奖励模型中的“品味”。然而,随着我们从聊天界面转向代理 (Agentic) 工作流,我们将开始把评估过程的部分内容也外包出去。我们将看到“评论代理” (Critic Agents) 的崛起——这些模型经过微调,不是为了生成文本,而是为了根据特定的风格或逻辑框架对其进行评分。创造回路变成了生成代理与评论代理之间的对话,而人类仅在解决高层僵局或设定初始战略向量时介入。
认知萎缩 vs 认知扩展
这种效率引入了一种关键的紧张关系:存在“天鹅绒牢笼”的风险。如果我们外包了构思的摩擦和合成的艰辛,我们自己的创造力肌肉会萎缩吗?一种合理的担忧是,过度依赖合成的合成可能导致思维的同质化,人类创造者仅仅成为模型统计概率输出的橡皮图章。
然而,由认知扩展历史趋势支持的另一种观点则提出了创造力的“杰文斯悖论” (Jevons Paradox)。就像电子表格没有消除数学家而是释放他们去处理复杂的建模一样, AI 代理允许我们在更高的抽象层次上运作。未来的“创造回路”允许一个建筑师像一家事务所一样行事,或者一个研究人员像一个实验室一样运作。危险不在于使用工具,而在于被动地使用它。最成功的创造者将是那些利用 AI 来增加他们能处理的认知负荷的人,去解决那些以前对于无辅助的人类工作记忆来说过于复杂的问题。
品味的自主性
最终,我们正迈向拥有初步形式“品味”的系统——这里定义为一种一致的、非平均的偏好函数。未来的模型将不只是最大化通用帮助性 (RLHF),而是可以转向特定的审美或智力倾向。当 AI 能可靠地预测你会发现什么“有趣”或“新颖”时,回路就会收紧。思想与人工制品之间的延迟就会消失。
为了驾驭这种转变,专业人士必须立足于稳健的理论框架。工具在变,但信息和价值的物理学保持不变。
继续您的 XPS 调查:
- SCHEMAS:探索“选择压力即服务”背后的经济理论,以及在丰饶时代人类品味的估值。
- STACKS:查看我们对代理架构的技术分析,以及在生产环境中实施递归评论回路的最新框架。
结论:从效率迈向协同认知
生成式 AI 的叙事一直被一个单一的、平庸的指标所主导:效率。我们以节省的秒数、生成的单词和提交的代码来衡量成功。然而,仅将大语言模型视为生产力引擎是一个范畴错误。正如我们通过玛格丽特·博登的框架所探索的,“合成缪斯”的真正效用不在于加速已知过程,而在于扩展人类思维可及的认知表面积。
我们正在从 AI 作为工具的时代(一种复杂的打字机或计算器)转向 AI 作为伙伴的时代(一个能够打破我们自身神经惯性的协同认知代理)。当我们把这些模型限制在组合任务中,实际上只是要求它们“做我们原本要做的事,但要快一点”时,我们就放弃了它们最强大的能力。科学表明,当我们将模型视为自身逻辑的随机噪声生成器,将其幻觉和发散联想不作为错误,而是作为探索式和变革式创造力的原始素材时,交互的回报最高。
这种转变需要思维方式的彻底改变。它要求我们停止优化均值——根据定义,LLMs 总是趋向于均值——并开始优化离群值。“合成缪斯”不是真理的神谕,它是一个在不可能的几何空间中思考的机器。通过遍历其潜在空间,我们可以定位那些不存在于我们自身生物经验训练数据中的概念。因此,人类的角色从创造者提升为策展人,从生成者提升为导航员。我们提供意图和品味,AI 提供无限的变体。
挑战:一次变革性实验
为了超越理论,你必须直接参与新事物的摩擦。我们挑战你本周跳出效率陷阱。不要使用 AI 来总结会议或撰写标准邮件。相反,尝试一次变革性实验:
- 识别一个僵化的约束,存在于你当前的项目中(例如,“这份报告必须是正式的”,或“我们的产品仅面向 B2B”)。
- 强制进行概念碰撞。 要求模型使用一套完全陌生的框架规则来重写项目的核心价值主张(例如,“使用格林童话的叙事结构描述我们的 SaaS 平台”或“基于进化生物学原理设计一个营销策略”)。
- 分析破坏性。 输出结果很可能是荒谬的,但要寻找揭示新真相的“毛刺”。生物学隐喻是否暗示了一个你从未考虑过的病毒式增长回路?叙事结构是否突显了你演讲中情感张力的缺失?
这就是你训练自身可塑性的方式。有关最适合这些高温创意任务的具体软件和模型配置,请参考我们在 XPS Stacks 中的最新分析。在那里,我们细分了哪些当前的架构更倾向于高熵输出而非逻辑推理,确保你为创意飞跃配备了正确的引擎。
未来属于那些能与合成智能共舞的人。停止把 AI 当作仆人,开始把它当作缪斯。
本文是 XPS 研究院 Schemas 专栏的一部分。

