认知工匠 - Part 3: 半人马技术栈:增强型工匠的工具

X

Xuperson Institute

the cognitive artisan part 3

聚焦“技术栈”,提供战术指南。探索如何将大语言模型(LLM)融入写作优先工作流,同时保留创造核心价值的“深度思考”过程。

认知匠人 - 第三部分:半人马技术栈:增强型匠人的工具集

构建一个用 AI 速度放大人类判断的技术环境

“认知匠人”系列 4 部分之第 3 部分

1997 年,在加里·卡斯帕罗夫(Garry Kasparov)输给 IBM 的“深蓝”(Deep Blue)之后,他并没有退缩到卢德主义(Luddism)中。相反,他发明了一项新运动。他称之为“高级国际象棋”(Advanced Chess),或者更通俗地称为 “半人马象棋”(Centaur Chess)

其前提很简单:一名人类棋手配合一台电脑象棋引擎,与其它“人机团队”对弈。结果令人大开眼界。一位带着笔记本电脑的大师可以击败世界上最强大的超级计算机。但更令人惊讶的是,两个拥有更优越 流程(process)的业余棋手——他们更擅长操作机器、管理时间,并将计算机的战术暴力与人类的战略直觉合成——可以摧毁一位不知道如何利用工具的大师。

卡斯帕罗夫定律(Kasparov’s Law)由此诞生:弱小的人类 + 机器 + 更好的流程 > 强大的人类 + 机器 + 劣质的流程。

对于现代的“写作优先实践者”来说,这就是确凿的技术现实。“认知匠人”既不是拒绝 AI 的纯粹主义者,也不是让 AI 代替思考的“提示词工程师”(prompt engineer)。他们是“半人马”。

本文概述了这类新型匠人的技术栈。我们正在超越基于浏览器的聊天窗口,进入一个定制的、集成的环境,其设计目的只有一个:在不放弃赋予写作价值的认知劳动的前提下,放大人类的判断力。

问题:“平庸之声”陷阱

大多数作者错误地使用 AI,是因为他们使用了默认的技术栈:网页界面(ChatGPT、Claude、Gemini)和直接的请求(“写一篇关于 X 的博客文章”)。

结果就是研究人员所说的“模型崩溃”,或者对作者来说更直接的——“平庸之声”(Median Voice)。由于大语言模型(LLMs)是在互联网平均水平上训练出来的概率引擎,它们的默认输出倾向于均值。它们产出流畅、无幻觉但完全令人遗忘的散文。它们抹平了使“写作优先”内容在“信号经济”(如 [第一部分] 所述)中产生价值的洞察力峰值。

“半人马技术栈”旨在防止这种情况。它不将 AI 视为文本的 生成器,而是将其视为逻辑的 处理器 和语境的 检索器

组件 1:外脑(数字花园)

半人马技术栈的基石不是 AI 模型本身,而是它运行的数据。对于匠人来说,这就是你的个人知识库——你的“数字花园”。

ObsidianLogseqRoam Research 等工具普及了联网思维的概念——以双向链接的小型原子化单元记录笔记。但真正的力量在于当你通过 RAG(检索增强生成) 将 LLM 连接到这个“花园”时。

技术设置

与其问一个通用模型“远程工作的未来是什么?”,一个启用 RAG 的技术栈允许你问:“根据我 2020-2023 年的笔记,我对远程工作的思考是如何演变的,我在哪里自相矛盾了?”

  • 工具: 高级实践者现在正在运行本地插件(如 Obsidian 的 Smart ConnectionsLogseq-RAG),将他们的本地 Markdown 文件索引到向量数据库中。
  • 工作流: 当你写作时,AI 不是从通用的互联网中抓取信息,而是从 的阅读摘录、 过去的草稿以及 独特的综合见解中抓取。
  • 益处: 这在不外包创意的情况下解决了“空白页”问题。AI 提供了你自己遗忘的见解,充当了你与过去自我对话的接口。

组件 2:本地引擎(未对齐的心智)

隐私是一个考量,但将 AI 处理移至本地的更重要原因是 认知自由

商业模型(OpenAI、Anthropic、Google)为了安全和大众市场的易用性而经过了高度“对齐”(aligned)。虽然这对客服机器人很有好处,但这种“安全性”往往表现为拒绝接触有争议的想法、倾向于对每句话进行对冲(“值得注意的是……”)以及被消杀过的语气。

认知匠人受益于运行 本地 LLM(使用 OllamaLM StudioGPT4All 等工具)。

为什么本地化至关重要

  1. 原始摩擦: 你可以使用像 MistralLlama 3Nous Hermes 这样较少受到抑制的模型。如果你指示它们,它们会无情地批评你的烂主意,而不是礼貌地尝试提供帮助。
  2. 深度工作的隐私: 你可以将专有的战略文档、个人日记或敏感的客户数据输入本地模型,而无需担心它会训练企业的数据集。
  3. 专业化: 你可以像更换镜头一样更换模型。使用“编码”模型处理技术逻辑,使用“创意”模型构思隐喻,使用“逻辑”模型进行编辑。

组件 3:协议(陪练,而非代笔)

拥有工具如果没有协议也是徒劳。半人马工作流将标准的“生成文本”提示词反转了过来。

陪练伙伴模式

不要要求 AI 写草稿。自己写草稿——哪怕写得烂、写得快、写得真实。然后,利用 AI 作为陪练伙伴来测试你论点的结构完整性。

“红队”(Red Team)提示词:

“我要粘贴一个我正在构思的论点。我希望你扮演来自 [对立学派] 的敌对辩论者。不要修改我的文字。相反,请找出我论点中最薄弱的三个逻辑环节并进行攻击。要无情一点。”

这会迫使你加强自己的思考。你外包的是 批判,而不是 创作

递归逻辑循环

复杂的写作需要复杂的逻辑。单一的提示词往往无法捕捉到细微差别。半人马技术栈采用 思维链(CoT) 提示来模拟编辑审查委员会。

递归工作流:

  1. 第一遍(扫描器): 要求 AI 概述你草稿的逻辑流。
  2. 第二遍(反射器): 要求 AI 将其大纲与你预期的论文主题进行比较。“文本真的表达了我认为它表达的意思吗?”
  3. 第三遍(收敛器): 要求 AI 建议结构上的变动(例如,“将第 4 段移至引言”),以使文本与意图保持一致。

保留信号:防御同质化的技术手段

技术栈的最后一层是“音色防御”。你如何在不听起来像机器人的情况下使用这些工具?

参数调优

大多数用户从不触碰“Temperature”(温度)或“Top-P”设置。匠人必须触碰。

  • 高温度 (0.8 - 1.1): 用于构思隐喻或横向思维。它增加了随机性,导致可能激发人类创造力的“幻觉”。
  • 低温度 (0.1 - 0.3): 用于摘要、校对和逻辑检查。它确保了对事实的坚持。

微调(终极定制)

对于最高级的实践者来说,终极目标是 LoRA(低秩自适应)。这涉及在你自己的写作语料库(你的博客、邮件、文章)上微调一个小模型。

一个在 50 万字你自己的写作上微调过的模型,不仅仅是听起来像你;它还能预测你可能产生的下一个想法。它成为了你心智的真正延伸——一种假体想象力,用你自己的词汇而不是互联网的平均水平来完成你的句子。

结论:升级版的“心智自行车”

史蒂夫·乔布斯曾有名地称计算机为“心智的自行车”——一种放大人类意图而非取代它的工具。半人马技术栈就是电动自行车。它允许认知匠人穿越广阔的信息距离,综合数十年的笔记,并在人类知识的总和中压力测试论点,同时始终将双手牢牢握在车把上。

危险不在于 AI 将取代作家。危险在于拒绝成为“半人马”的作家将被那些成为“半人马”的人取代。


本系列下一篇: 在最后一期 《第四部分:真实性的投资回报率(ROI)》 中,我们将审视这种方法的经济影响。在充斥着廉价内容的世界上,认知匠人如何将“信任”转化为收益?我们将解析信号经济的商业模式。


本文是 XPS Institute STACKS 专栏的一部分,致力于研究高性能知识工作背后的软件工程和工具。探索我们的 Github 仓库以获取 [Obsidian-Centaur-Config] 模板。

OUTPUT TRANSLATED MARKDOWN NOW:

Related Articles