一位AI基础设施工程师的自白:AI让我写代码更快,却也更累了
一位专门从事AI基础设施的工程师,算是业内的资深玩家了。他说自己上个季度写的代码比职业生涯中任何一个季度都多,但同时也比任何一个季度都更疲惫。
这两件事并非巧合。
这篇文章让我读完之后沉默了很久,因为它说出了很多人心里想说却不知道怎么表达的东西。如果你每天都在用AI工作,却发现自己莫名其妙地比以前更累了,那这篇文章可能会让你产生强烈的共鸣。
一个没人警告过我们的悖论
AI确实让单个任务变快了,这一点毫无疑问。以前要花3小时的事情,现在45分钟就能搞定。写文档、搭建服务、写测试用例,全都更快了。
但日子却变得更难过了,而不是更轻松。
原因很简单,只是很多人没想明白:当每件事都花更少时间的时候,你并不会做更少的事,你会做更多的事。你的产出能力看起来提升了,工作量就会膨胀来填满它。你的领导看到你干得更快,期望值就会调整。你自己看到自己干得更快,对自己的期望也会调整。基准线悄悄移动了。
以前,作者可能花一整天时间思考一个设计问题。在纸上画画,洗澡的时候想想,出去散个步,回来就有了清晰的思路。节奏慢,但认知负担是可以承受的。一个问题,一整天,深度专注。
现在呢?他可能一天要接触六个不同的问题。每个问题都只需要一小时就能搞定,毕竟有AI帮忙。但在六个问题之间来回切换,对人脑来说是非常昂贵的。AI在问题之间切换不会累,人会累。
这就是那个悖论:AI降低了生产成本,却提高了协调、审核和决策的成本。而这些成本,全都落在人身上。
你变成了审核员,但你没有签字同意
以前,工程师的工作是:思考问题,写代码,测试,发布。是创造者,是建造者。这也是大多数人当初选择这一行的原因,就是那种亲手把东西做出来的感觉。
现在呢?工作越来越像这样:写提示词,等待,阅读输出,评估输出,判断输出对不对,判断输出安不安全,判断输出符不符合架构,修复不对的地方,重新写提示词,循环往复。你变成了审核员,变成了流水线上的质检员,而这条流水线永远不会停。
这是一种本质上完全不同的工作。创造是让人兴奋的,审核是让人疲惫的。有研究表明,生成性任务和评估性任务在心理上是完全不同的。生成性工作能让你进入心流状态,评估性工作只会给你带来决策疲劳。
作者在某一周大量使用AI写一个新的微服务,到周三的时候,他发现自己连最简单的决定都做不了了。这个函数叫什么名字?无所谓。这个配置放哪里?无所谓。大脑满了。并不是因为写了太多代码,而是因为判断了太多代码。每天都是成百上千个小判断。
更讽刺的是,AI生成的代码比人写的代码需要更仔细的审查。因为当同事写代码的时候,你知道他的习惯、他的强项、他的盲点。你可以略读你信任的部分,专注于你不信任的部分。但AI呢?每一行都值得怀疑。代码看起来很自信,能编译,甚至能通过测试。但它可能以一种微妙的方式出错,只有在生产环境里、在高负载下、在凌晨三点才会暴露出来。
所以你得逐行阅读。而阅读那些你没写的、由一个不了解你代码库历史的系统生成的代码,是非常累人的工作。
确定性消失了
工程师是在确定性中成长的。相同的输入,相同的输出。这是契约,这是调试成为可能的基础,这是你能够推理系统的前提。
AI打破了这个契约。
作者有一个提示词,周一用的时候完美无缺,生成了干净、结构良好的API端点代码。周二用同样的提示词写一个类似的端点,输出在结构上完全不同,用了不同的错误处理模式,还引入了一个他没要求的依赖。
为什么?没有原因。或者说,没有他能看到的原因。没有堆栈跟踪告诉你模型今天决定走一条不同的路。没有日志说温度采样选择了路径B而不是路径A。它就是发生了,就是不一样了。
对于一个整个职业生涯都建立在“如果它坏了我就能找出原因”之上的人来说,这是非常令人不安的。不是那种戏剧性的不安,而是一种缓慢的、磨人的、背景噪音式的焦虑。你永远无法完全信任输出。你永远无法完全放松。每一次交互都需要警惕。
他试过对抗这个问题,把提示词做版本控制,写复杂的系统消息,创建模板。有些有帮助,但都没能解决根本问题:你是在和一个概率系统合作,而你的大脑是为确定性系统准备的。这种错配是一种持续的、低级别的压力来源。
那些最能适应这种情况的工程师,是那些已经与它和解的人。他们把AI输出当作一个聪明但不可靠的实习生写的初稿。他们预期要重写30%。他们为重写预留时间。当输出是错的时候他们不会沮丧,因为他们从来没期望它是对的。他们期望的是它有用。这是不一样的。
永远追不上的焦虑
试着跟上过去几个月的节奏看看。Claude发布了子代理,然后是技能系统,然后是Agent SDK,然后是Claude Cowork。OpenAI发布了Codex CLI,然后是GPT-5.3-Codex。新的编程代理宣布后台模式,可以同时运行数百个自主会话。Google发布了Gemini CLI。GitHub添加了MCP注册表。收购每周都在发生。Amazon Q Developer获得了代理升级。CrewAI、AutoGen、LangGraph、MetaGPT,选一个代理框架吧,每周都有新的。Google宣布A2A协议与Anthropic的MCP竞争。OpenAI发布了自己的Swarm框架。Kimi K2.5推出了能编排100个并行代理的架构。
这还不是一年的内容,这只是几个月。而且还漏了很多。
作者深深陷入了这个陷阱。周末都在评估新工具,阅读每一个更新日志,观看每一个演示,试图站在前沿,因为他害怕落后。
这实际上是什么样子呢?周六下午设置一个新的AI编程工具,周日有了基本的工作流程,到下周三,有人发帖说另一个工具好多了。一阵焦虑袭来。到下个周末,又在设置新东西。旧东西被闲置。一个编程助手换到下一个再换到下一个然后又回到第一个。每次迁移花掉一个周末,带来的改进可能只有5%,还没法准确测量。
把这个乘以每一个类别:编程助手、聊天界面、代理框架、多代理编排平台、MCP服务器、上下文管理工具、提示词库、集群架构、技能市场……你得到的是一个永远在学习新工具、从未在任何工具上深入的人。
最糟糕的是知识的贬值。作者在2025年初花了两周时间构建了一套复杂的提示词工程工作流。精心设计的系统提示,少样本示例,思维链模板。效果很好。三个月后,模型更新了,提示词最佳实践变了,他一半的模板效果反而不如简单的一行提示词。那两周就这么没了。不是投资,是消费。
他后来采取了不同的方法。与其追逐每一个新工具,不如深入工具下面的基础设施层。工具来来去去,但它们要解决的问题不会变。上下文效率、代理授权、审计追踪、运行时安全,这些是持久的问题,无论这个月流行哪个框架。建立在不会剧烈变化的层上,才是明智之举。
再来一次提示词的陷阱
这个陷阱非常隐蔽。你想让AI生成一个特定的东西。第一次输出70%正确。于是你优化提示词。第二次输出75%正确,但打破了第一次正确的东西。第三次80%正确,但结构变了。第四次,你已经在这上面花了45分钟,而你本可以20分钟从头写完。
作者把这叫做提示词螺旋。你开始时有一个清晰的目标。三十分钟后,你在调试你的提示词而不是调试你的代码。你在优化给语言模型的指令,而不是解决实际问题。
提示词螺旋特别危险,因为它感觉很有生产力。你在迭代,你在接近目标,每次尝试都稍微好一点。但边际收益递减得很快,而你忘记了目标从来不是让AI产生完美的输出,目标是把功能发布出去。
他现在有一条硬性规则:三次尝试。如果AI在三次提示词内不能让他得到70%可用的东西,他就自己写。没有例外。这条规则比他学过的任何提示词技巧都节省更多时间。
完美主义者的噩梦
工程师倾向于完美主义。我们喜欢干净的代码,喜欢能通过的测试,喜欢行为可预测的系统。这是优点,这是让我们擅长构建可靠软件的原因。
AI输出永远不完美。永远是差不多,七八成的样子。变量名有点不对,错误处理不完整,边缘情况被忽略,抽象对你的代码库来说是错的。它能用,但不对。
对完美主义者来说,这是折磨。因为差一点比完全错还糟糕。完全错了,你就扔掉重来。差一点,你花一个小时去调整。而调整AI输出特别令人沮丧,因为你在修复别人的设计决策,而这些决策是由一个不分享你的品味、你的上下文、你的标准的系统做出的。
作者不得不学会放手。不是放弃质量,他仍然在意质量。而是放弃对AI会产出高质量内容的期望。他现在把每一个AI输出都当作草稿,一个起点,原材料。这种心态的转变,就让他的挫败感减少了一半。
在AI面前挣扎最多的工程师,往往是最好的工程师。那些标准最高的人,那些注意到每一个缺陷的人。AI奖励的是另一种技能:快速从不完美的输出中提取价值的能力,而不会在让它完美这件事上投入太多情感。
大脑在退化
这是最让作者害怕的一点。
他是在一次设计评审会议上注意到的。有人让他在白板上推导一个并发问题。没有笔记本电脑,没有AI,就他和一支马克笔。他挣扎了。不是因为他不懂概念,他懂。而是因为他好几个月没有锻炼那块肌肉了。他把初步思考外包给AI太久了,以至于从头思考的能力已经退化。
就像GPS和导航一样。在GPS之前,你会建立心理地图。你了解你的城市,你能推理路线。用了几年GPS之后,没有它你就不会导航了。技能退化了,因为你不再使用它。
同样的事情正在AI和工程思维上发生。当你总是先问AI,你就停止了建立那些来自自己与问题搏斗的神经通路。挣扎是学习发生的地方,困惑是理解形成的地方。跳过这些,你得到更快的输出,但更浅的理解。
他现在刻意让每天的第一个小时不用AI。在纸上思考,用手画架构,用慢方法推理问题。感觉效率低,确实效率低。但它让他的思维保持敏锐,而这种敏锐在他后面使用AI的时候会产生回报,因为当他自己的推理热身好了,他就能更好地评估AI的输出。
社交媒体上的幻象
社交媒体上到处都是那些似乎已经搞定AI的人。他们分享工作流,分享生产力数据,分享那种“我用AI两小时就做了整个应用”的帖子。然后你看看自己的经历:失败的提示词,浪费的时间,不得不重写的代码。你会想:我是不是有什么问题?
你没有问题。那些帖子是精选集锦。没人发帖说“我花了3小时试图让Claude理解我的数据库结构,最后放弃了自己手写了迁移脚本”。没人发帖说“AI生成的代码导致了生产事故,因为它悄悄吞掉了一个错误”。没人发帖说“我累了”。
比较陷阱被一个事实放大了:AI技能很难衡量。传统工程,你可以看看别人的代码,大致判断他们的能力。用AI的话,输出取决于模型、提示词、上下文、温度、月相。别人令人印象深刻的演示,在你的机器上用你的代码库可能根本复现不了。
作者变得对社交媒体上的AI内容非常挑剔。他仍然密切关注这个领域,毕竟这是他的工作。但他从消费每个人的热门观点,转向专注于那些真正在构建和发布的人,而不是只在演示的人。信号和焦虑的比例很重要。如果一个信息流让你感到落后而不是获得信息,它就没有在服务你。
真正有用的方法
作者很具体地分享了什么改变了他与AI的关系,从对抗变成可持续。
给AI会话设置时间限制。 不再以开放式的方式使用AI。设定计时器,这个任务用AI做,30分钟。计时器响了,要么发布现有的,要么切换到自己写。这同时防止了提示词螺旋和完美主义陷阱。
把AI时间和思考时间分开。 上午用来思考,下午用来AI辅助执行。这不是死板的规定,有时候会打破规则。但有一个默认结构意味着大脑能以正确的比例得到锻炼和协助。
接受AI给70%就够了。 不再试图得到完美输出。70%可用就是标准,剩下的自己修。这种接受是他工作流中减少AI相关挫败感最大的单一因素。
对炒作周期保持战略眼光。 他追踪AI领域是因为他为它构建基础设施。但他不再在每个新工具发布的那一周就采用它。他用一个主要的编程助手,深入了解它。当新工具经过几个月而不是几天的验证后,他才会评估。保持信息灵通和保持反应式是不同的事情。
记录AI在哪里有帮助,在哪里没有。 他保持了两周的简单日志:任务,是否用了AI,花了多少时间,对结果的满意度。数据很有启发性。AI在样板代码、文档和测试生成上节省了大量时间。在架构决策、复杂调试和任何需要深入了解代码库上下文的事情上,它反而花费了更多时间。现在他知道什么时候该用它,什么时候不该。
不审核AI产出的每一行。 这很难接受。但如果你用AI生成大量代码,你在物理上不可能以同样的严格程度审核每一行。他把审核精力集中在最重要的部分:安全边界、数据处理、错误路径。其余的依靠自动化测试和静态分析。非关键代码中的一些粗糙是可以接受的。
可持续性问题
科技行业在AI之前就有倦怠问题。AI正在让它变得更糟,而不是更好。不是因为AI不好,而是因为AI移除了过去保护我们的自然速度限制。
在AI之前,你一天能产出多少有一个天花板。这个天花板由打字速度、思考速度、查东西需要的时间设定。有时候令人沮丧,但它也是一个调节器。你不能把自己累死,因为工作本身施加了限制。
AI移除了调节器。现在唯一的限制是你的认知耐力。而大多数人不知道自己的认知极限在哪里,直到他们已经冲过去了。
作者在2025年底倦怠了。不是戏剧性的那种,他没有辞职也没有崩溃。他只是不再在意了。代码审查变成了橡皮图章。设计决策变成了AI建议什么就是什么。他在走过场,产出比以往任何时候都多,感受比以往任何时候都少。他花了一个月才意识到发生了什么,又花了一个月才恢复。
恢复不是关于少用AI,而是关于以不同的方式使用AI。有边界,有意图,有一种理解:我不是机器,我不需要跟上机器的节奏。
AI时代真正的技能
作者认为AI时代真正的技能是什么呢?不是提示词工程,不是知道用哪个模型,不是有完美的工作流。
是知道什么时候停下来。
知道什么时候AI输出足够好了。知道什么时候该自己写。知道什么时候该合上笔记本电脑。知道边际改进不值得认知成本。知道你的大脑是有限的资源,保护它不是懒惰,是工程。
我们为系统优化可持续性。我们添加熔断器,实现背压,设计优雅降级。我们也应该为自己这样做。
AI是作者用过的最强大的工具。也是最消耗人的。两件事都是真的。在这个时代蓬勃发展的工程师,不会是用AI最多的人,而是用得最明智的人。
如果你累了,不是因为你做错了什么。而是因为这确实很难。工具是新的,模式还在形成,而行业在假装更多产出等于更多价值。不是这样的。可持续的产出才是。
照顾好你的大脑。它是你唯一拥有的,没有任何AI能替代它。
来自:https://siddhantkhare.com/writing/ai-fatigue-is-real
本文内容仅供个人学习、研究或参考使用,不构成任何形式的决策建议、专业指导或法律依据。未经授权,禁止任何单位或个人以商业售卖、虚假宣传、侵权传播等非学习研究目的使用本文内容。如需分享或转载,请保留原文来源信息,不得篡改、删减内容或侵犯相关权益。感谢您的理解与支持!