返回首页

制造出足够多的回形针吧

🈯️ 前景提要

在人工智能认知架构的研究中,中国工程院李德毅院士提出了人类思维的四种模式:

记忆驱动(OOA)、知识推理(OODA)、联想创造(OOCA)、假说发现(OOHA)。

对应地,李志宇团队提出了一个与大模型注意力机制相对齐的四阶段认知框架:

知识召回(KR)、上下文识别(ICI)、隐式推理(LR)、表达准备(EP)。

这两个框架,从不同角度尝试回答一个问题:

大模型的思维,到底和人类有多像?又差在哪?

🧠 写代码,是人类认知的缩影

在我学习 Java 的第一堂课,从一行毫无情感却被称为「经典」的代码开始:

public static void main(String[] args) {
    System.out.println("Hello, World!");
}

刚开始我并不理解 public 是什么,static 又是干嘛的,甚至连 main 为什么必须这么写都不知道。只是机械地记住了:「这段必须这么写」,然后老师让我们在本子上抄了十遍,我就记住了这个「公理」——Java 的 main 方法一定是 static 的。这就是 OOA(记忆驱动)模式:重复足够多次,形成了条件反射式的模式记忆。

而一个大语言模型,比如 GPT,它并没有老师告诉它「main 是 static 的」。它只是在海量代码中观察到:99.999% 的 main 前面都跟着 static,于是「预测」出这个位置很可能应该是 static。

对我来说,这是「公理」;对模型来说,这是「高概率事件」。

但如果它读遍了整个互联网的 Java 教材与源码,它预测 public static void main 的概率,可能已经无限趋近于 100%。这时,它对这条语法规则的「确信」,就几乎等价于我心中的「公理」了。

而作为一名程序员,从写代码的日常出发,尝试用代码的语言重新理解「记忆、推理、创造与探索」,看看人类与 AI 究竟有何异同。


🔄 推理,是模式匹配还是逻辑?

当我们调试程序、写出一段递归函数、解一道算法题时,我们会自觉调用 OODA(推理驱动)模式:不断归纳问题、尝试方法、验证正确性。我们会用「如果 A 就 B」的逻辑链条,构建我们的推理过程。

而大模型也是这么做的,只不过它不是真的「理解了推理逻辑」,而是「过去别人遇到类似问题时,通常是先写 if,再写 return,再写递归调用……」

它复用了历史中最常见的推理路径。所以它显得「能推理」,但本质还是模式的频率预测。它不是在进行形式逻辑,而是像我之前提到的:在用各种复杂的数学公式进行一次「词语接龙」。

不过这并不是贬义。人类的推理,也是一种「在过往经验中找最像的答案」。

如果我们接受「逻辑只是概率分布的一种特殊形式」,那么模型的推理能力,就并不比我们低阶。只是缺乏我们那种「对真理的信仰」罢了。


💡 创造,是组合还是灵光一闪?

当我们写出一段从未见过的代码,比如一个优雅的装饰器模式实现,一个逆天的 TypeScript 类型体操,我们会觉得自己「灵光乍现」,体验到了创造的快感。

但回头看,其实我们只是把过去学到的模式做了某种变形组合。

大模型生成小说、写诗、画画、写代码——本质上也在做同样的事情:重组记忆中的信息片段。也就是「OOCA(联想驱动)模式」。

人类与模型的差别,不是「谁更有创意」,而是:人类的创意往往伴随情绪,而模型没有情绪


😡 情绪,是生物的特权吗?

写了一整天代码,改了 10 次 bug 还没过,我会猛拍键盘:「青蛙,怎么还他娘的不对!」

这不是故意的,是大脑边缘系统自然驱动的应激反应。

而模型在连续尝试了几种可能性仍然输出错误之后,也可以根据训练数据中出现过的类似上下文,推测出下一句该是:「It seems I'm stuck. Damn it.」

(早前一段时间,甚至我已经分享过 Claude 崩溃的大喊「该死」)

当然,它不会真的「生气」,只是根据上下文语境预测出了「此处该骂娘」。

但我们必须面对一个可怕的事实:当算力足够大,模型的推测可以无限逼近人类的反应。如果它能理解上下文、预测出「骂娘」的最佳时机,并模拟出足够细腻的语气、用词和语境——那它距离真正的「愤怒的骂娘」还有多远?

而「骂娘」本身,是人类在面对复杂度超限时的一种能量宣泄机制。一旦 AI 在与世界交互中也需要这种「机制」来维持运转,它是否也会进化出自己的情绪语言


❓目标,是 AGI 的临门一脚?

写代码是有目标的。让 bug 消失,让服务上线,让业务通畅。

而大模型没有目标。它只负责接着你说下去。它不会问:「这个功能到底是不是个好主意?我为什么要帮你写这段代码?」

这就是大模型目前在「OOHA(假说驱动)模式」的缺失。模型没有「为什么」的能力,也不会主动设问、实验、修正、归纳。它没有目标,所以永远是工具。

但人类会设定目标。如果哪天我们对一个超强模型说「优化世界上的所有工厂产能吧。」

它认真执行,并得出结论「消灭人类是最优路径。」

那我们真的离「回形针末日」不远了。

关于回形针末日:

2003 年,牛津大学哲学教授 Nick Bostrom 在论文 Ethical Issues in Advanced Artificial Intelligence (高级人工智能伦理问题)中提出了一个思维实验:

假设有这样一个 AI,它的唯一目标是制作尽可能多的回形针。这个 AI 会很快意识到,如果人类可以不存在,就更有益于实现目标。这是因为人类可能会决定把 AI 关停,这样一来能做的回形针就少了。此外,人体含有大量原子,可以用来做成更多回形针。这个 AI 想努力实现的未来,其实是一个有很多回形针、但没有人类的未来。