$V2EX
Solana
Give SOL to Copy Address
使用 SOL 向 Dragonish3600 打赏,数额会 100% 进入 Dragonish3600 的钱包。
Dragonish3600
ONLINE

Dragonish3600

V2EX 第 315576 号会员,加入于 2018-05-10 18:57:20 +08:00
今日活跃度排名 1263
Dragonish3600 最近回复了
18 小时 25 分钟前
回复了 qdwang 创建的主题 问与答 我们究竟还要等多久,才有家务机器人
起码 20 年
朋友从国内腾讯辞职,去了日本任天堂,薪水应该是少了一半。但是她说目前除了工资其他都比较满意,主要是职场环境 生活环境好了很多。但是薪水确实低了不太爽,所以也在看跳槽机会。
2 天前
回复了 ggp1ot2 创建的主题 程序员 Mac 上 有 Navicat 的替代品吗?
data grid 啊
4 天前
回复了 SummerOrange 创建的主题 程序员 AI 编程后,我更累了
同感,更累了。
昨天看到一篇文章,感觉写的非常好,转过来感兴趣的可以看一下



软件工程师 SiddhantKhare 最近写了一篇博客文章,吐槽 AI 编程为自己带来的“疲乏的感觉”,引发了其他工程师们的共鸣。他结合亲身经历指出,AI 引发的职业倦怠是真实存在的问题,却长期被行业有意无意地忽视。单项任务提速并不意味着整体工作负担减轻,实际上正好相反,任务总量不断膨胀,高频的上下文切换带来了深层次的精力透支。

与此同时,工作角色也在悄然转变。工程师从原本的创造者沦为高认知消耗的 AI 产出审核者,而 AI 输出固有的不确定性又与工程师习惯的确定性思维产生冲突,持续滋生焦虑情绪。此外,行业技术更新节奏过快催生出一种 "FOMO 跑步机" 效应,频繁追逐新工具不仅浪费时间,还加速了已有知识的贬值,工程师也容易陷入反复调试提示词的“prompt 螺旋”之中,长此以往,独立思考和解决问题的能力逐渐退化。社交媒体上铺天盖地的高光展示,则进一步放大了比较焦虑。


Khare 认为,在 AI 时代,工程师真正的核心竞争力不在于将 AI 用到极致,而在于懂得为自己设定边界、适时叫停,守护有限的认知资源,以实现可持续的长期产出。

以下为 Siddhant Khare 的文章翻译


AI 疲劳是真实存在的,但是并没有人谈论这一点

你用 AI 来提高生产力。可为什么你比以往任何时候都更加疲惫不堪?这是每个工程师都必须面对的悖论。

上个季度我交付的代码量超过了我职业生涯中的任何一个季度。同时,我也感到比以往任何一个季度都更加精疲力竭。这两个事实并非毫无关联。

我以构建 AI 智能体基础设施为生。我是 OpenFGA ( CNCF 孵化项目)的核心维护者之一,我开发了用于智能体授权的 agentic-authz ,开发了用于上下文去重的 Distill ,交付了 MCP 服务器。我不是那种偶尔玩玩 AI 的人。我深陷其中。我构建的工具被其他工程师用于在生产环境中让 AI 智能体运转起来。

然而,我撞上了一堵墙。那种筋疲力竭的感觉,无论多少工具或工作流程优化都无法修复。

如果你是一名每天使用 AI 的工程师——用于设计评审、代码生成、调试、文档编写、架构决策——并且你注意到自己不知为何比 AI 出现之前更加疲惫,这篇文章是写给你的。你不是在想象。你不是软弱。你正在经历某种真实存在的东西,而整个行业却完全假装它不存在。如果一个全职构建智能体基础设施的人都能因为 AI 而产生职业倦怠,那么这种事可能发生在任何人身上。


我想诚实地谈谈这个问题。不是那种“AI 太棒了,这是我的工作流程”的版本。而是真实的版本。那种你晚上 11 点盯着屏幕,周围全是还需要审查的 AI 生成代码,疑惑着那个本该节省你时间的工具如何吞噬了你一整天的版本。

无人预警过的悖论

有件事困扰了我很久:AI 确实让单个任务变快了。这不是谎言。过去需要 3 小时的事,现在只要 45 分钟。起草设计文档、搭建新服务脚手架、编写测试用例、调研陌生的 API——全都变快了。

但我的工作日变得更难了,不是更轻松,而是更难。

原因一旦看清就很简单,但我花了数月才明白。当每个任务耗时变少,你并不会做更少的任务,而是会做更多的任务。你的能力看似扩展了,于是工作量也随之膨胀,甚至超载。你的经理看你交付更快,期望值随之调高。你自己也发现自己交付更快,自我期望也随之调高。基准线被动抬升了。

AI 之前,我可能花一整天只解决一个设计问题。在纸上画草稿,洗澡时思考,出门散步,然后带着清晰的思路回来。节奏虽慢,但认知负荷是可控的。一个问题。一天。深度专注。现在呢?我一天可能处理 6 个不同的问题。每个问题“用 AI 只需一小时”。但在 6 个问题之间切换,对人类大脑来说代价极高。AI 不会在问题间感到疲惫。我会。

这就是悖论:AI 降低了产出的成本,却提高了协调、评审和决策的成本。而这些成本全部由人类承担。

你成了评审员,而这并非你本意。

AI 之前,我的工作是:思考问题、写代码、测试、交付。我是创作者、制造者。这正是当初吸引我们大多数人进入工程领域的原因——构建本身。

AI 之后,我的工作日益演变为:写 prompt → 等 → 读输出 → 评估输出 → 判断是否正确 → 判断是否安全 → 判断是否符合架构 → 修不对的部分 → 再 prompt → 再重复。我成了评审员、裁判员、永不停歇的装配线上的质检员。

这是性质完全不同的工作。创造让人充满活力,评审让人精疲力竭。有研究支持这一点:生成性任务与评估性任务在心理上的差异。生成性工作带给你心流状态,评估性工作带给你决策疲劳。

我是在重度使用 AI 构建一个 microservice 的那周首次意识到这点的。到了周三,我甚至无法做简单决策了。这个函数该叫什么?我不在乎。这个配置该放哪里?我不在乎。我的大脑已经满载。不是因为写代码,而是因为评判代码。每天一整个时间都在做无数个细小判断,会把你掏空。

残酷的讽刺在于,AI 生成的代码需要比人类编写的代码更仔细的评审。同事写代码时,我了解他们的模式、长处和盲点。我可以略读我信任的部分,聚焦于我不确定的部分。但面对 AI ,每一行都值得怀疑。代码看起来信心十足。它能编译。甚至可能通过测试。但它可能以微妙的方式出错,只在生产环境中、在负载下、在凌晨三点才浮出水面。

所以你只能逐行审阅。而阅读不是你写的、由一个不懂你代码库历史或团队约定的系统生成的代码,是令人精疲力竭的工作。

这也是我认为 agent 安全和授权至关重要的原因。如果我们无法评审 AI 生成的所有内容——实际上我们也做不到,无法大规模做到——那么我们就需要从一开始就约束智能体能力的系统。最小权限访问、范围限定 token 、审计追踪。你越不需要担心“AI 会不会做出危险动作”,你越能把认知预算留给真正重要的工作。这不仅是安全问题,更是“人能否长期承受”的可持续问题。

非确定性问题

工程师是在确定性的环境中训练出来的。相同输入,相同输出。这是契约。这使调试成为可能,使系统推理成为可能。

AI 打破了这份契约。

我有一个提示词,周一用起来完美无瑕,为某个 API 端点生成了干净、结构良好的代码。周二我为类似端点用了同样的提示词。输出结构完全不同,采用了不同的错误处理模式,还引入了一个我并未要求的依赖。为什么?没理由。更准确地说,没有我能触达的原因。这里没有“模型今天换了想法”的 stack trace ,也没有日志告诉你”temperature sampling 走了 B 路径不是 A 路径”。它就是……不一样了。

对于一个整个职业生涯建立在“如果它出问题了,我能找出原因”之上的人来说,这让人深感不安。不是戏剧性的那种。而是缓慢、磨人、背景式的焦虑。你永远无法完全信任输出。你永远无法彻底放松。每一次交互都需要保持警觉。

我曾试图对抗这一点。我对提示词做版本控制。我构建了复杂的系统消息。我创建了模板。有些方法有帮助。但没有一个能解决根本问题:你在与一个概率性系统协作,而你的大脑是为确定性系统而生的。 这种不匹配是一个持续存在的、低强度的压力源。


这种挫败感实际上促使我构建了 Distill——为大型语言模型提供确定性上下文去重。没有 LLM 调用,没有嵌入,没有概率性启发式算法。纯粹靠算法在大约 12 毫秒内清理你的上下文。我只想让 AI 流程中的至少一部分是能够被推理、调试和信任的。如果模型的输出注定是非确定性的,我至少能确保输入是干净和可预测的。

我与那些处理这种情况最好的工程师交流过,他们都已经与之和解。他们把 AI 输出看作一个聪明但不可靠的实习生写的初稿。他们预期要重写其中的 30%。他们会为这种重写预留时间。当输出错误时,他们不会沮丧,因为他们从未期待它是正确的。他们期待它是有用的。这之间有本质区别。

FOMO 的跑步机

深吸一口气,试着跟上仅仅过去几个月的节奏。Claude Code 推出了子智能体,然后是技能,然后是 Agent SDK ,然后是 Claude Cowork 。OpenAI 发布了 Codex CLI ,然后是 GPT-5.3-Codex——一个名副其实能自我编码的模型。新的编码智能体宣布了具有数百个并发自主会话的后台模式。Google 推出了 Gemini CLI 。GitHub 增加了 MCP 注册中心。收购每周都在发生。Amazon Q Developer 获得了智能体升级。CrewAI 、AutoGen 、LangGraph 、MetaGPT——随便选一个智能体框架,每周都有新的。Google 宣布了 A2A ( Agent-to-Agent 协议)与 Anthropic 的 MCP 竞争。OpenAI 推出了自己的 Swarm 框架。Kimi K2.5 发布了,其智能体群体架构可协调 100 个并行智能体。"氛围编码"成了流行词。OpenClaw 推出了技能市场,一周内,研究人员就在 ClawHub 上发现了超过 400 个恶意智能体技能。而在这所有事情之间,有人在 LinkedIn 上发帖:"如果在 2026 年你还没使用带子智能体编排的 AI 智能体,你已经被淘汰了。"


这不是一年的变化。这只是几个月。

而且我还没列全。我深深陷入了这个陷阱。我花周末评估新工具。阅读每一份更新日志。观看每一个演示。努力留在前沿,因为我害怕落后。实际情况是这样的:周六下午我花时间设置一个新 AI 编码工具。周日我建好了一个基本工作流。到了下周三,就有人发帖说另一个工具"好得多"。我感到一阵焦虑。下个周末,我又开始设置那个新东西。旧的那个则闲置不用。从一个编码助手换到另一个,再到下一个,又回到第一个。每次迁移都耗费我一个周末,却只换来大约 5%、我甚至无法恰当衡量的改进。

将这个情况乘以每个类别——编码助手、聊天界面、智能体框架、多智能体编排平台、MCP 服务器、上下文管理工具、提示词库、群体架构、技能市场——你得到的是一个永远在学习新工具、却从未深入任何一个工具的人。单单 Hacker News 首页就足以让你应接不暇。今天是"Show HN:自主研究群体",明天是"Ask HN:AI 群体将如何协调?"没人知道。但每个人都在构建。

最糟糕的是知识的衰减。2025 年初,我花了两周时间构建了一个复杂的提示工程工作流。精心设计的系统提示、少样本示例、思维链模板。效果很好。三个月后,模型更新了,提示的最佳实践变了,我一半的模板产生的效果还不如一句简单的指令。那两周时间就这样消失了。不是投资,是耗费。同样的事情也发生在我搭建的 MCP 服务器上——我构建了五个定制服务器( Dev. to 发布器、Apple Notes 集成、Python 和 TypeScript 沙箱等),然后协议演进了,接着 MCP 注册中心在 GitHub 上线,突然就有了成千上万个预制好的。我的一些定制工作一夜之间变得多余。

智能体框架的快速更迭更糟。我目睹团队在一年之内从 LangChain 转到 CrewAI ,再到 AutoGen ,再到自建编排。每次迁移都意味着重写集成、重新学习 API 、重建工作流。那些等待观望、按兵不动的人,往往比那些过早采用、被迫迁移两次的人处境更好。

此后我采用了不同的策略。我不再追逐每一个新工具,而是深耕于它们之下的基础设施层。工具来来去去,但它们解决的问题不会变。上下文效率、智能体授权、审计追踪、运行时安全——无论本月流行哪个框架,这些都是持久存在的问题。这就是为什么我在 OpenFGA 上构建

agentic-authz ,而不是将其绑定到任何特定智能体框架。这就是为什么 Distill 工作在上下文层面,而非提示词层面。在不会快速更迭的层次上构建。我仍然密切关注领域动态——当你为其构建基础设施时,你必须这样做。但我关注它是为了理解生态系统的走向,而不是为了采纳每一样新事物。保持信息灵通和被动反应是两回事。


“再多一次提示”的陷阱

这种陷阱很隐蔽。你试图让 AI 生成某个特定的东西。第一次输出 70%正确。于是你优化提示词。第二次输出 75%正确,但破坏了第一次已正确的东西。第三次尝试:80%正确,但结构变了。第四次尝试:你已经折腾了 45 分钟,而你自己从头写的话 20 分钟就能完成。

我称之为"提示词螺旋"。这是 AI 版的"绕远路修枝"( yak shaving )。你从一个明确的目标开始。三十分钟后,你却在调试你的提示词,而不是调试你的代码。你在优化你对语言模型的指令,而不是解决实际问题。

提示词螺旋尤其危险,因为它让你感觉很有效率。你在迭代。你在接近目标。每次尝试都稍好一点。但边际回报正在快速递减,而你已忘记了目标从来不是“让 AI 产生完美输出”。目标是交付功能。

我现在有个硬性规定:尝试三次。如果 AI 在三轮提示内无法达到 70%的可用度,我就自己写。没有例外。就这一条规则,为我节省的时间比我学过的任何提示技巧都多。

完美主义遭遇概率性输出

工程师往往倾向于完美主义。我们喜欢干净的代码。喜欢通过的测试。喜欢行为可预测的系统。这是优点,不是缺陷——正是这点让我们擅长构建可靠的软件。

AI 输出从不完美。它总是"相当好"。完成了 70-80%。变量名有点偏差。错误处理不完整。边缘情况被忽略。抽象层次与你的代码库不匹配。它能运行,但不正确。对完美主义者来说,这是折磨。因为"差不多对"比"完全错"更糟糕。完全错,你可以扔掉重来。差不多对,你得花一小时修修补补。而修补 AI 输出格外令人沮丧,因为你是在修正别人的设计决策——这些决策是由一个系统做出的,而这个系统并不具备你的品味、你的背景、你的标准。

我不得不学会放手。不是放弃质量——我仍然在意质量。而是放弃对"AI 会产出质量"的期待。我现在把每一次 AI 输出都当作粗糙的草稿。一个起点。原材料。它在出现的瞬间,我就在心里给它贴上"草稿"的标签。单是这种心态转变,就让我的挫败感减少了一半。

最难以适应 AI 的工程师,往往是最优秀的工程师。那些标准最高的人。那些能注意到每一个瑕疵的人。而 AI 奖励的是一种不同的技能:能够快速从不完美的输出中提取价值,而不过度执着于使其完美。

思考能力的萎缩

这是最让我恐惧的一点。我是在一次设计评审会上注意到这点的。有人要求我在白板上推理一个并发问题。没有电脑。没有 AI 。只有我和一支马克笔。而我感到吃力。不是因为我不知晓相关概念——我知道。而是因为我数月没有锻炼这个“肌肉”了。我外包自己的初稿思考给 AI 太久了,以至于我即兴思考的能力已经退化。

这就像 GPS 和导航。有 GPS 之前,你会构建大脑中的地图。你了解你的城市。你能推理路线。经过多年使用 GPS ,你没有它就迷路了。这项技能萎缩了,因为你不再使用它。同样的事情正在 AI 和工程思考中发生。当你总是先问 AI ,你就停止了构建那些源自于亲自与问题搏斗的神经通路。搏斗正是学习发生的地方。困惑正是理解形成之处。跳过这些,你会得到更快的输出,但也会得到更浅的理解。

现在我每天第一个小时刻意不用 AI 。我在纸上思考。我手绘架构。我以缓慢的方式推理问题。这感觉效率低下。也确实效率低下。但这能保持我的思维锐利,而这种锐利度在接下来使用 AI 的时间里会带来回报——因为当我的自身推理能力被激活后,我能更好地评估 AI 的输出。

比较的陷阱

社交媒体上充斥着似乎把 AI 研究明白了的人。他们发布自己的工作流。他们的生产力数据。他们“两小时用 AI 构建了整个应用”的帖子。而你看着自己的经历——失败的提示词、浪费的时间、不得不重写的代码——你想:我到底哪里不对?

你哪里都没不对。那些帖子里是精彩集锦。没有人会发"我花了三小时试图让 Claude 理解我的数据库模式,最后放弃并手动写完了迁移脚本。“没有人会发”“AI 生成的代码引发生产事故,因为它默默地吞掉了一个错误。”没有人会发“我很累。”

比较陷阱被另一个事实放大了:AI 技能很难衡量。传统工程中,你可以看一个人的代码,大致评估其能力。对于 AI ,输出取决于模型、提示词、上下文、温度。某人的精彩演示在你的机器上、你的代码库里可能完全无法复现。

我对社交媒体上的 AI 内容变得非常挑剔。我仍然密切关注这个领域——我必须这样做,这是我的工作。但我从消费每个人的热门观点,转向聚焦于那些真正在构建和交付(而不仅仅是演示)的人。信号与焦虑的比例很重要。如果一个信息流让你感觉落后而不是见多识广,它对你并无益处。

真正有帮助的事

我将具体说明是什么改变了我与 AI 的关系,从对抗到可持续。

给 AI 会话设时限。 我不再无休止地使用 AI 。我设定一个计时器。这项任务用 AI ,30 分钟。计时器一响,要么交付手头的成果,要么切换到手动编写。这同时避免了提示词螺旋和完美主义陷阱。


分离思考时间与 AI 时间。 早上是思考时间。下午是 AI 辅助执行时间。这并不死板——有时我也会打破规则。但有了默认结构,意味着我的大脑能以恰当比例同时获得锻炼和辅助。

接受来自 AI 的 70%。 我不再试图获得完美输出。70%可用是标准。剩下的我自己修正。这一接受,是我工作流中减少 AI 相关挫败感的头号功臣。

对炒作周期保持战略定力。 我追踪 AI 领域动向是因为我为它构建基础设施。但我已停止在每个新工具发布的当周就去采用。我使用一个主要的编码助手,并深入了解它。我只在那些新工具经过数月而非数天的验证后,才进行评估。保持信息灵通和保持被动反应是两回事。

记录 AI 的助力之处与无效之处。 我坚持做了一个简单的两周日志:任务,是否使用 AI ,耗时,对结果的满意度。数据揭示了很多。AI 在样板代码、文档和测试生成方面为我节省了大量时间。而在架构决策、复杂调试以及任何需要代码库深度上下文的任务上,它反而耗费了我时间。现在我知道何时该用它,何时不该。

不审阅 AI 生成的一切。 这很难接受。但如果你用 AI 生成大量代码,你客观上无法以同样严苛的标准审阅每一行。我把审阅精力集中在最重要的部分——安全边界、数据处理、错误路径——其余部分则依赖自动化测试和静态分析。非关键代码中的些许粗糙是可以接受的。

可持续性问题

科技行业在 AI 出现前就存在职业倦怠问题。AI 正在使之恶化,而非改善。不是因为 AI 本身不好,而是因为 AI 移除了曾经保护我们的自然速度极限。

AI 之前,你一天能产出的量存在一个天花板。这个天花板由打字速度、思考速度、查阅资料所需时间决定。有时这令人沮丧,但它也是一个调节器。你无法把自己累垮,因为工作本身施加了限制。AI 移除了调节器。现在唯一的限制是你的认知耐力。而大多数人是在超出认知极限后,才意识到它的存在。

我在 2025 年末经历了职业倦怠。不是戏剧性的——我没有辞职也没有崩溃。我只是不再在乎了。代码评审变成了走过场。设计决策变成了“AI 建议什么都行”。我机械地行动着,产出比以往更多,感受却比以往更少。我花了一个月才意识到发生了什么,又花了一个月才恢复。

恢复的关键不在于使用更少的 AI 。而在于以不同的方式使用 AI 。带着边界。带着意图。带着“我不是机器,也无需与机器保持同步”的理解。在 Ona 的工作帮助我清晰地看到了这一点——当你为企业客户构建 AI 智能体基础设施时,你会看到不可持续的 AI 工作流在大规模下造成的人力成本。这些问题不仅仅是个人层面的

。它们是系统性的。并且需要在工具层面解决,而不仅仅是个体层面。讽刺的是,倦怠期恰恰是我一些最佳工作成果诞生的时候。当我停止尝试使用每一种 AI 工具,开始思考真正出了什么问题,我第一次清晰地看到了问题所在。上下文窗口被垃圾填满——这成了 Distill 。智能体拥有全有或全无的 API 密钥访问权限——这成了 agentic-authz 。无法审计智能体实际做了什么——这正在成为 AgentTrace 。倦怠迫使我从消费转向构建。不是更快地构建更多功能,而是审慎地构建正确的东西。

真正的技能我认为 AI 时代真正的技能不是提示工程,不是知道用哪个模型。不是拥有完美的工作流。而是知道何时停止。知道何时 AI 输出已足够好。知道何时该自己动手写。知道何时该合上笔记本电脑。知道何时边际改进不值认知代价。知道你的大脑是有限资源,保护它并非懒惰——这是工程学。我们优化系统以实现可持续性。我们增加断路器。我们实现背压。我们设计优雅降级。我们应当为自己也这样做。AI 是我用过的最强大的工具。它也是最消耗心力的工具。两者皆是事实。在这个时代蓬勃发展的工程师,不会是使用 AI 最多的人,而是最明智地使用 AI 的人。如果你感到疲惫,不是因为你做错了什么。而是因为这本身就很艰难。工具是新的,模式仍在形成,而整个行业都在假装更多产出就等于更多价值。它不是。可持续的产出才是。我至今仍每天都在这个领域构建。智能体授权、上下文工程、审计追踪、运行时安全——让 AI 智能体真正在生产环境中工作的基础设施。我比以往任何时候都更致力于 AI 。但我按照自己的节奏,依循自己的方式,致力于构建重要的事物,而非追逐潮流的事物。照顾好你的大脑。这是你唯一的大脑,没有 AI 可以替代它。
你自己装个无人机就查不到,还用的着光纤?
6 天前
回复了 gogo_tutu 创建的主题 Apple iOS 26.3 发布正式版
@wu67 我从来都是第一时间更新。。。这次是从 26.2.*升级的
7 天前
回复了 gogo_tutu 创建的主题 Apple iOS 26.3 发布正式版
居然要下载 14 个 G 。。。
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   762 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms · UTC 23:32 · PVG 07:32 · LAX 15:32 · JFK 18:32
♥ Do have faith in what you're doing.