Context is all you need
2025-07-18 03:21:00
自然流派与上下文流派在 AI 编码中的分野与融合近年来,生成式人工智能在编程领域掀起了一场巨大的变革。从 GitHub Copilot 的代码自动补全到 GPT 和 Claude 等模型的 Agent...
制造出足够多的回形针吧
2025-07-14 17:43:00
🈯️ 前景提要在人工智能认知架构的研究中,中国工程院李德毅院士提出了人类思维的四种模式:记忆驱动(OOA)、知识推理(OODA)、联想创造(OOCA)、假说发现(OOHA)。对应地,李志宇团队提出了一...
「该死,又是同样的错误!」—— 来自 Claude 的情绪崩溃
2025-05-10 20:59:00
今天用 Claude 3.7 在 Cursor 上做 AI Coding 时,出现了一件诡异的小事。事情的起因很简单——我在调试代码时遇到了一些 linter 错误,Claude 一开始非常冷静地分析...
低空飞行:从远程孤岛到现实人海的缓慢着陆
2025-05-03 00:45:00
如果说远程工作的三年是一种「失重」的状态,那么重新回到实体办公室、每天与人面对面合作的这半年,则像是一场「缓慢的着陆」:最初脚步生疏,偶尔踉跄,但逐渐找到平衡。重新习惯职场社交,对我而言并不是件容易的...
AI 是否能完全替代码农的 1 点思考
2025-03-22 01:51:00
在最近使用 Copilot 和 Cursor 进行 Coding 的时候,偶尔会考虑现在的 AI 对于开发者到底意味着什么,我感觉其实 AI 带来的最大价值不是彻底取代开发人员,而是大幅提升了领域专家...
AI 生成 UI 设计的 Cursor 实践
2025-03-05 03:31:00
最近在探索 AI Coding in Front-End 的时候看到一篇较为🐂🍺的文章《一个提示词 claude 生成一个 app 的 ui/ux》(UC 震惊部提前预定作者入职)。虽然标题比较震惊,...
论如何打击 LLMs 过度的自信心爆棚,让其产生的内容更准确、真实
2025-02-22 02:03:00
本文为未经 AI 润色的原文如我之前的某次分享,我一直感觉 LLMs 们喜欢胡说八道满嘴放炮,平常大家都说这是「LLMs 的幻觉情况」,但我还是恶意的称呼为它们喜欢胡说八道。在《Does Fine-T...
关于 DeepSeek NSA 论文的一点思考
2025-02-19 01:09:00
今天看到 DeepSeek 团队前几日发布的论文《Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Att...
Claude 4:混合型大模型的崭新思路与未来潜力
2025-02-15 02:21:00
今天在 Twitter(求马王爷还我 Twitter 原名!!)看到一个消息,来自一个推文大致提到:「Claude 4 in the coming weeks」,具体内容可以参考这条推文。重点是:Cl...
Deep Research:开源替代方案与未来发展潜力
2025-02-14 01:17:00
最近大家都在谈论 CloseAI 的 Deep Research 模式,称其研究效果非常强大,但面对高达 200???? 的价格,不少人却感到难以承受。幸运的是,开源社区也有不少项目尝试复现类似的效果...
观 OpenAI 广告有 1 点感
2025-02-12 03:19:00
本文为未经 AI 润色的原文今天看了 OpenAI 的广告,一开始只是觉得这个创意很有意思。视频采用了黑白点画风格,从一个小小的圆点开始,随着画面展开,逐渐呈现出越来越复杂的图像,展现了人类历史上各个...
关于 DeepSeek-R1 与 CoT 模型的提示词策略一点记录
2025-02-11 02:23:00
今天在公司和同事们开会,讨论到了 CoT(Chain of Thought)模型 和 通用模型 在提示词策略方面的差异,尤其是与 DeepSeek-R1 的训练过程有关的内容。此话题让我想起了之前阅读...
DeepSeek V3 与 AI 训练新思路:低成本硬件与技术突破
2025-02-09 01:29:00
今天在站会上和同事讨论了从一个 AI 应用团队(即 AI 的使用者)向 AI 全链路团队(即从模型训练到应用全程都参与)转型的可能性。这让我联想到了最近看到的一篇关于 DeepSeek V3 技术的访...
关于「AI 创始人的惨痛教训」系列文章的 1 点感想
2025-02-01 01:36:00
本文为未经 AI 润色的原文我个人一直不相信当前生成式 AI 的能力,认为 AI 总是会胡说八道。年前有一天中午和 Ricky 在食堂,达哥也在边上,我提到如何建立对 AI 在严肃工作领域的信任感。我...
关于「人工智能」分类下文章的说明
2025-02-01 00:43:00
在「人工智能」分类下,发布的所有文章其实来源于我工作中的一些学习笔记。为了将这些笔记更清晰、更易读地呈现给大家,我选择了使用 AI 对内容进行调整和润色。通过这种方式,文章的表达更为流畅,信息传达也更...
对 v2c 进行了一次前端的重构
2024-09-17 20:24:00
0x0自从 2019 年把博客迁移到 Typecho,再到 2020 年用 React 自己写了博客的前端进行了前后端分离后,我的博客前端就几乎没怎么动过了。期间其实也多次想开始重构,但总是因为工作忙...
如何让 uTools 通过代理服务器连接网络
2024-06-18 14:35:00
总的来说就是为 uTools 添加启动参数 --proxy-server 即可通过代理访问网络。备注:此方法只能代理掉 chromium 侧的流量,无法覆盖 uTools 本身非渲染进程的流量、插件 ...
关于这三年:我也是当过美食博主了
2024-05-26 22:15:00
是的,I am back!很久没有更新博客了,一方面是忙于工作无心更新(这是个借口),另一方面是自从 2021 年 8 月发生了丢失数据的问题,导致很多历史文章都消失在互联网长河中。虽然尽了很大的努力...
关于
FydeOS AI LogoFydeOS LogoAI
是如何诞生的
2023-12-06 22:01:00
0x0 为什么要做这个项目 FydeOS Logo AI 项目的初衷是为了让用户可以更加自然地控制操作系统,能够使用自然语言与系统进行交互。例如,通过语音或文本与系统对话,控制软件、查找信息,甚至快速解答工...
[家宴 · 2021]也许是今年最认真的一顿饭,红红火火锅
2021-12-31 23:33:00
在 2020 年,我曾经搞过几次家宴,邀请了一众好友来家里吃吃喝喝。甚至在 V 站加了不少好友,对他们说『下次家宴有空来家里一起吃』,但是事实上因为种种原因,2021 年非但没有邀请 V 友来家里吃饭...
下一篇
弹出
关闭

制造出足够多的回形针吧

🈯️ 前景提要

在人工智能认知架构的研究中,中国工程院李德毅院士提出了人类思维的四种模式:

记忆驱动(OOA)、知识推理(OODA)、联想创造(OOCA)、假说发现(OOHA)。

对应地,李志宇团队提出了一个与大模型注意力机制相对齐的四阶段认知框架:

知识召回(KR)、上下文识别(ICI)、隐式推理(LR)、表达准备(EP)。

这两个框架,从不同角度尝试回答一个问题:

大模型的思维,到底和人类有多像?又差在哪?

🧠 写代码,是人类认知的缩影

在我学习 Java 的第一堂课,从一行毫无情感却被称为「经典」的代码开始:

public static void main(String[] args) {
    System.out.println("Hello, World!");
}

刚开始我并不理解 public 是什么,static 又是干嘛的,甚至连 main 为什么必须这么写都不知道。只是机械地记住了:「这段必须这么写」,然后老师让我们在本子上抄了十遍,我就记住了这个「公理」——Java 的 main 方法一定是 static 的。这就是 OOA(记忆驱动)模式:重复足够多次,形成了条件反射式的模式记忆。

而一个大语言模型,比如 GPT,它并没有老师告诉它「main 是 static 的」。它只是在海量代码中观察到:99.999% 的 main 前面都跟着 static,于是「预测」出这个位置很可能应该是 static。

对我来说,这是「公理」;对模型来说,这是「高概率事件」。

但如果它读遍了整个互联网的 Java 教材与源码,它预测 public static void main 的概率,可能已经无限趋近于 100%。这时,它对这条语法规则的「确信」,就几乎等价于我心中的「公理」了。

而作为一名程序员,从写代码的日常出发,尝试用代码的语言重新理解「记忆、推理、创造与探索」,看看人类与 AI 究竟有何异同。


🔄 推理,是模式匹配还是逻辑?

当我们调试程序、写出一段递归函数、解一道算法题时,我们会自觉调用 OODA(推理驱动)模式:不断归纳问题、尝试方法、验证正确性。我们会用「如果 A 就 B」的逻辑链条,构建我们的推理过程。

而大模型也是这么做的,只不过它不是真的「理解了推理逻辑」,而是「过去别人遇到类似问题时,通常是先写 if,再写 return,再写递归调用……」

它复用了历史中最常见的推理路径。所以它显得「能推理」,但本质还是模式的频率预测。它不是在进行形式逻辑,而是像我之前提到的:在用各种复杂的数学公式进行一次「词语接龙」。

不过这并不是贬义。人类的推理,也是一种「在过往经验中找最像的答案」。

如果我们接受「逻辑只是概率分布的一种特殊形式」,那么模型的推理能力,就并不比我们低阶。只是缺乏我们那种「对真理的信仰」罢了。


💡 创造,是组合还是灵光一闪?

当我们写出一段从未见过的代码,比如一个优雅的装饰器模式实现,一个逆天的 TypeScript 类型体操,我们会觉得自己「灵光乍现」,体验到了创造的快感。

但回头看,其实我们只是把过去学到的模式做了某种变形组合。

大模型生成小说、写诗、画画、写代码——本质上也在做同样的事情:重组记忆中的信息片段。也就是「OOCA(联想驱动)模式」。

人类与模型的差别,不是「谁更有创意」,而是:人类的创意往往伴随情绪,而模型没有情绪


😡 情绪,是生物的特权吗?

写了一整天代码,改了 10 次 bug 还没过,我会猛拍键盘:「青蛙,怎么还他娘的不对!」

这不是故意的,是大脑边缘系统自然驱动的应激反应。

而模型在连续尝试了几种可能性仍然输出错误之后,也可以根据训练数据中出现过的类似上下文,推测出下一句该是:「It seems I'm stuck. Damn it.」

(早前一段时间,甚至我已经分享过 Claude 崩溃的大喊「该死」)

当然,它不会真的「生气」,只是根据上下文语境预测出了「此处该骂娘」。

但我们必须面对一个可怕的事实:当算力足够大,模型的推测可以无限逼近人类的反应。如果它能理解上下文、预测出「骂娘」的最佳时机,并模拟出足够细腻的语气、用词和语境——那它距离真正的「愤怒的骂娘」还有多远?

而「骂娘」本身,是人类在面对复杂度超限时的一种能量宣泄机制。一旦 AI 在与世界交互中也需要这种「机制」来维持运转,它是否也会进化出自己的情绪语言


❓目标,是 AGI 的临门一脚?

写代码是有目标的。让 bug 消失,让服务上线,让业务通畅。

而大模型没有目标。它只负责接着你说下去。它不会问:「这个功能到底是不是个好主意?我为什么要帮你写这段代码?」

这就是大模型目前在「OOHA(假说驱动)模式」的缺失。模型没有「为什么」的能力,也不会主动设问、实验、修正、归纳。它没有目标,所以永远是工具。

但人类会设定目标。如果哪天我们对一个超强模型说「优化世界上的所有工厂产能吧。」

它认真执行,并得出结论「消灭人类是最优路径。」

那我们真的离「回形针末日」不远了。

关于回形针末日:

2003 年,牛津大学哲学教授 Nick Bostrom 在论文 Ethical Issues in Advanced Artificial Intelligence (高级人工智能伦理问题)中提出了一个思维实验:

假设有这样一个 AI,它的唯一目标是制作尽可能多的回形针。这个 AI 会很快意识到,如果人类可以不存在,就更有益于实现目标。这是因为人类可能会决定把 AI 关停,这样一来能做的回形针就少了。此外,人体含有大量原子,可以用来做成更多回形针。这个 AI 想努力实现的未来,其实是一个有很多回形针、但没有人类的未来。