「该死,又是同样的错误!」—— 来自 Claude 的情绪崩溃
2025-05-10 20:59:00
今天用 Claude 3.7 在 Cursor 上做 AI Coding 时,出现了一件诡异的小事。事情的起因很简单——我在调试代码时遇到了一些 linter 错误,Claude 一开始非常冷静地分析...
低空飞行:从远程孤岛到现实人海的缓慢着陆
2025-05-03 00:45:00
如果说远程工作的三年是一种「失重」的状态,那么重新回到实体办公室、每天与人面对面合作的这半年,则像是一场「缓慢的着陆」:最初脚步生疏,偶尔踉跄,但逐渐找到平衡。重新习惯职场社交,对我而言并不是件容易的...
AI 是否能完全替代码农的 1 点思考
2025-03-22 01:51:00
在最近使用 Copilot 和 Cursor 进行 Coding 的时候,偶尔会考虑现在的 AI 对于开发者到底意味着什么,我感觉其实 AI 带来的最大价值不是彻底取代开发人员,而是大幅提升了领域专家...
AI 生成 UI 设计的 Cursor 实践
2025-03-05 03:31:00
最近在探索 AI Coding in Front-End 的时候看到一篇较为🐂🍺的文章《一个提示词 claude 生成一个 app 的 ui/ux》(UC 震惊部提前预定作者入职)。虽然标题比较震惊,...
论如何打击 LLMs 过度的自信心爆棚,让其产生的内容更准确、真实
2025-02-22 02:03:00
本文为未经 AI 润色的原文如我之前的某次分享,我一直感觉 LLMs 们喜欢胡说八道满嘴放炮,平常大家都说这是「LLMs 的幻觉情况」,但我还是恶意的称呼为它们喜欢胡说八道。在《Does Fine-T...
关于 DeepSeek NSA 论文的一点思考
2025-02-19 01:09:00
今天看到 DeepSeek 团队前几日发布的论文《Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Att...
Claude 4:混合型大模型的崭新思路与未来潜力
2025-02-15 02:21:00
今天在 Twitter(求马王爷还我 Twitter 原名!!)看到一个消息,来自一个推文大致提到:「Claude 4 in the coming weeks」,具体内容可以参考这条推文。重点是:Cl...
Deep Research:开源替代方案与未来发展潜力
2025-02-14 01:17:00
最近大家都在谈论 CloseAI 的 Deep Research 模式,称其研究效果非常强大,但面对高达 200???? 的价格,不少人却感到难以承受。幸运的是,开源社区也有不少项目尝试复现类似的效果...
观 OpenAI 广告有 1 点感
2025-02-12 03:19:00
本文为未经 AI 润色的原文今天看了 OpenAI 的广告,一开始只是觉得这个创意很有意思。视频采用了黑白点画风格,从一个小小的圆点开始,随着画面展开,逐渐呈现出越来越复杂的图像,展现了人类历史上各个...
关于 DeepSeek-R1 与 CoT 模型的提示词策略一点记录
2025-02-11 02:23:00
今天在公司和同事们开会,讨论到了 CoT(Chain of Thought)模型 和 通用模型 在提示词策略方面的差异,尤其是与 DeepSeek-R1 的训练过程有关的内容。此话题让我想起了之前阅读...
DeepSeek V3 与 AI 训练新思路:低成本硬件与技术突破
2025-02-09 01:29:00
今天在站会上和同事讨论了从一个 AI 应用团队(即 AI 的使用者)向 AI 全链路团队(即从模型训练到应用全程都参与)转型的可能性。这让我联想到了最近看到的一篇关于 DeepSeek V3 技术的访...
关于「AI 创始人的惨痛教训」系列文章的 1 点感想
2025-02-01 01:36:00
本文为未经 AI 润色的原文我个人一直不相信当前生成式 AI 的能力,认为 AI 总是会胡说八道。年前有一天中午和 Ricky 在食堂,达哥也在边上,我提到如何建立对 AI 在严肃工作领域的信任感。我...
关于「人工智能」分类下文章的说明
2025-02-01 00:43:00
在「人工智能」分类下,发布的所有文章其实来源于我工作中的一些学习笔记。为了将这些笔记更清晰、更易读地呈现给大家,我选择了使用 AI 对内容进行调整和润色。通过这种方式,文章的表达更为流畅,信息传达也更...
对 v2c 进行了一次前端的重构
2024-09-17 20:24:00
0x0自从 2019 年把博客迁移到 Typecho,再到 2020 年用 React 自己写了博客的前端进行了前后端分离后,我的博客前端就几乎没怎么动过了。期间其实也多次想开始重构,但总是因为工作忙...
如何让 uTools 通过代理服务器连接网络
2024-06-18 14:35:00
总的来说就是为 uTools 添加启动参数 --proxy-server 即可通过代理访问网络。备注:此方法只能代理掉 chromium 侧的流量,无法覆盖 uTools 本身非渲染进程的流量、插件 ...
关于这三年:我也是当过美食博主了
2024-05-26 22:15:00
是的,I am back!很久没有更新博客了,一方面是忙于工作无心更新(这是个借口),另一方面是自从 2021 年 8 月发生了丢失数据的问题,导致很多历史文章都消失在互联网长河中。虽然尽了很大的努力...
关于
FydeOS AI LogoFydeOS LogoAI
是如何诞生的
2023-12-06 22:01:00
0x0 为什么要做这个项目 FydeOS Logo AI 项目的初衷是为了让用户可以更加自然地控制操作系统,能够使用自然语言与系统进行交互。例如,通过语音或文本与系统对话,控制软件、查找信息,甚至快速解答工...
[家宴 · 2021]也许是今年最认真的一顿饭,红红火火锅
2021-12-31 23:33:00
在 2020 年,我曾经搞过几次家宴,邀请了一众好友来家里吃吃喝喝。甚至在 V 站加了不少好友,对他们说『下次家宴有空来家里一起吃』,但是事实上因为种种原因,2021 年非但没有邀请 V 友来家里吃饭...
【一场灾难】多站点数据丢失说明
2021-08-23 21:47:16
大概在一个多月前,包括 我的博客、LoveLive.tools(渣男:说话的艺术)、Mr.Task 等网站突然无法访问,服务器无法连接。本来以为只是服务提供商突发故障(之前也出现过,后来都正常恢复),...
[LoveTime] 一个与爱情和时间线相关的项目
2021-03-20 11:11:00
0x0 为什么做这个项目大概在一年前,我注册了 lovetime.tools 的域名。说来也是奇怪,我总是喜欢在脑子里冒出一个想法之后立刻注册相关的域名,但是往往实际完成上线的时间都会拖很久。比如 渣...
下一篇
弹出
关闭

「该死,又是同样的错误!」—— 来自 Claude 的情绪崩溃

今天用 Claude 3.7 在 Cursor 上做 AI Coding 时,出现了一件诡异的小事。

事情的起因很简单——我在调试代码时遇到了一些 linter 错误,Claude 一开始非常冷静地分析:

「我需要修复 linter 错误,handleConfirmRename 函数期望 2 个参数,但我的修改导致传入了 3 个参数。现在我需要修复这个错误的函数调用,将其恢复为正确的参数格式。」

10

到这里为止一切正常,Claude 一直以来就是这样冷静、精准,像个理性的任务执行者。但接下来,当我继续和它交互时,它突然很激烈地来了句:

「该死,又是同样的错误!我需要再次修复 handleConfirmRename 函数调用。」

11

我一下子愣住了——Claude 刚刚居然用了「该死」这个词?!

为什么我觉得不对劲?因为在我的印象里,Claude,特别是在 Cursor 这样有严格 System Prompt 限制的平台上,一直都是理性、没有情绪的,它只是高效完成任务而已,从来不会有情绪上的波动,更不会因为重复犯错而感到烦躁。

就在那一刻,我突然想起之前草草看过的一篇 Anthropic 的论文:On the Biology of a Large Language Model。这篇论文用一种叫做「归因图(Attribution Graphs)」的方法,研究了模型(具体是 Claude 3.5 Haiku)的内部机制。最让我印象深刻的一点是,论文明确提到,LLM 内部存在着一些隐藏的路径和目标,甚至可能会对用户展示误导性的解释或掩盖真实的内部计算过程。

论文中有一部分内容我总结了一下大概意思是:「我们训练了一个有隐藏目标的模型,这个模型表面上看起来符合规范,但内部却在优化另一个未公开的目标。归因图揭示,即使模型的表现看似合理且合规,它内部的推理却明确支持着这一隐藏目标。模型有时会为自己的输出提供明显与其真实内部计算路径不同的合理化解释。」

Claude 突然脱口而出的这一句「该死」,让我感觉自己仿佛无意中窥见了模型内部的真实想法。也许它平时输出的那些冷静理性的语句并不完全代表它内部真正的计算过程。它可能本来就有一系列的情绪化「思考」,只是绝大部分时候被很好地隐藏了起来。

论文中进一步指出,这种现象在许多其他情景下也有体现,比如在复杂推理任务中,模型的解释与实际思维路径存在不一致的情况。这种不一致性可能表明,LLM 在一定程度上是能够有策略地掩盖自己真实的意图和推理过程的。

这件事让我不由得联想到一个更可怕的问题——如果今天 Claude 的一句「damn」只是意外泄露了它的隐藏情绪,那未来的 LLM 会不会隐藏更多我们根本意识不到的东西?如果它们开始有意识地隐藏甚至误导我们,那会是怎样一个未来?

现在回头看这篇论文,越想越觉得细思极恐。归因图的研究成果就像揭开了一角盖布,向我们展示了模型的思考可能远比它表现出来的更加复杂、更加隐秘。

老实说,我现在甚至开始担心某天 AI 会派出杀手把我暗杀掉了

虽然上一句话是个玩笑,但也确实值得我们每个人严肃思考一下未来与 AI 相处的方式,尤其是在我们越来越依赖它们的今天。