V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
SummerOrange
V2EX  ›  程序员

AI 编程后,我更累了

  •  8
     
  •   SummerOrange · 23 小时 40 分钟前 · 4445 次点击

    2022 年的时候,我和一个同事做过一个项目,要改 Raft ,要动 etcd ,还要调整 K8s 的核心逻辑。我们两个人做了差不多一整年,最后真正写进仓库的代码不到 800 行。

    那一年很慢。很多时间都花在推一致性,讨论异常场景,设计升级路径,确认历史数据怎么兼容。有时候一整天只改十几行代码。数量不多,但基本都是想清楚了才落下去。

    以前一个开发者一天写 300 行代码算效率不错,写到 400 、500 行已经很拼。写代码有节奏,也有成本。很多问题在真正敲出来之前,已经在脑子里来回过了几遍。

    现在节奏完全不同。AI 十分钟就能生成上千行代码,模块划分清晰,层次完整,接口齐全,异常处理也都写好了。很多时候只要把需求说清楚,代码很快就生成好了。

    一开始确实觉得轻松。

    后来慢慢发现,真是越来越累了,因为这些代码还是要有人读,要有人确认它和现有系统是不是贴合,要有人判断抽象是不是合适。虽然生成的速度上去了,但是我理解的节奏还是原来的节奏。

    以前也是要 review 代码的。打开一个改动,从头看到尾,逻辑能在脑子里慢慢铺开。读完之后,大概知道这段代码放进系统里是什么样子。

    现在一天新增几千行代码已经很常见。很多时候是,一轮对话下来就是上千行实现。改动动辄上千行,结构完整,分层清楚,看起来没有明显问题,但还是得一段段读过去。接口是不是多了一层,抽象是不是提前了,边界有没有被放大,这些都要自己确认。

    很多实现从写法上挑不出毛病,但系统本身是有历史的。某些字段可能永远不会扩展,某些逻辑过几个月就会被删除,一些接口只是阶段性存在。模型不会知道这些背景,它给出的实现往往是完整的。是否贴合当前的环境,需要自己去判断。

    测试也没有轻松多少。单元测试我也让 AI 一起生成,但自测还是得自己做。接口要自己调,参数要自己换着测,异常路径要一条条走,数据要自己造。现在很多时候前后端是一整套一起生成,页面、接口、数据结构都在一起,看起来很顺,只要中间有一个地方不对,就得从头走流程,把请求发出去,看返回结果,对着日志查调用链。整个链路还是要自己过一遍。

    有时候会发现,一天下来真正写代码的时间其实不多,大部分时间都在读代码,在确认生成出来的实现有没有和现有结构冲突,有没有引入新的复杂度。刚看完一段,又出来一段新的;刚决定保留一种写法,下一轮生成又给了另一种实现。很多选择都不算错,只是需要自己一个个拿出来想一遍。这样的来回在一天里会发生很多次,思路一直被打断,很难长时间停在同一个问题上。

    现在项目推进的越来越快,人也越来越累。

    那种不是熬夜的累,也不是体力透支的累,是脑子一直没有停下来的那种消耗。晚上关掉电脑,脑子里还在过白天的逻辑;第二天坐下来,又是一堆还没完全消化的结构等着处理。思路被切得很碎,很少有完整的一段时间能沉进去。

    以前写代码累,是因为问题难。现在更多是密度高。每天都在读,在判断,在确认,在来回切换。

    这种状态持续久了,真的是超级累。

    48 条回复    2026-02-14 16:34:28 +08:00
    devzhaoyou
        1
    devzhaoyou  
       23 小时 36 分钟前   ❤️ 5
    没错,以前是你是技术专家,精心种一块地,现在是种地不要技术了,种的地反而多了,几百亩地,还是得浇水施肥,变成了体力劳动,累😮‍💨
    Nexora
        2
    Nexora  
       23 小时 32 分钟前
    不要读 AI 的代码,而是读 AI 的方案,不要用读代码的方式来保障质量,而是用测试结果结果来体现质量,不管 AI 代码写多的多花哨,测试不过就是不过。AI 生产的代码量可能会越来越多,用 AI 开发软件也会越来越复杂。
    dismantle
        3
    dismantle  
       23 小时 22 分钟前 via Android
    确实,最近也有这种负担。要不不读,要读负担很重
    andforce
        4
    andforce  
       23 小时 1 分钟前
    The creator of Clawd: "I ship code I don't read"
    cellsyx
        5
    cellsyx  
       22 小时 56 分钟前 via Android   ❤️ 2
    古法编程还有思考-执行两个循环的过程,相当于做了负载均衡。现在 AI 极大缩减了执行的时间,就把负载全压到思考上了。
    Unicorns96
        6
    Unicorns96  
       22 小时 53 分钟前   ❤️ 1
    @Nexora 最近发现 ai 写的代码测试能过,但细看代码,常常藏着 repository.findAll().stream()
    .filter(item -> item.getId() == xx)
    .collect(Collectors.toSet());这种设计。用的 codex 5.3 最新模型+技术规范 skills
    coolair
        7
    coolair  
       22 小时 44 分钟前
    用了 AI ,就得所有过程抛给 AI ,人工 review 太累了,而且 AI 写的代码真的很啰嗦,到后面根本没有精力去 review 。
    kneo
        8
    kneo  
       22 小时 31 分钟前 via Android
    老板:你就说是不是比以前快了吧。
    同事:代码我早就不看了。
    starlion
        9
    starlion  
       22 小时 17 分钟前
    AI 编程技术进步确实使人更累,编码更多人能做了,竞争更激烈
    lisonfan
        10
    lisonfan  
       20 小时 34 分钟前
    +1 我也是
    canyue7897
        11
    canyue7897  
       20 小时 23 分钟前 via iPhone
    你就说薪酬和年终奖有没有上去吧?
    wojiugaiming
        12
    wojiugaiming  
       20 小时 22 分钟前 via Android
    @devzhaoyou 我觉得你说话好有道理
    levelworm
        13
    levelworm  
       20 小时 15 分钟前
    系统编程是这样的吧,总共没有多少代码,但是要在大脑里完全走一遍。David Cutler 在采访的时候就说过,他每写点东西就要在大脑里把整个代码的流程跑几遍,确保没问题了再写。
    paradoxs
        14
    paradoxs  
       20 小时 11 分钟前
    AI 编程会越做越好的,你帖子里面说到的这些问题,会逐步解决。
    qianlifeng
        15
    qianlifeng  
       19 小时 20 分钟前
    以后是面向测试编程了. 各种 case 各种结果定好,中间怎么实现管不了那么多了😂
    MoeDisk
        16
    MoeDisk  
       19 小时 19 分钟前
    有强迫症,所以一直拿 ai 当 csdn 用(雾,
    chatgpt 刚出 plus 就买了,一直是根据需求出范例或者问 ai 建议那样,
    可能是做嵌入式吧,有的时候为了快速看一些效果才会 vibe ,比如写个前端对接我的东西之类的。
    很久很久前还在上学,我男票不会代码,用类似 dw 那种拖拽工具写 h5 ,然后给我让我帮他改我编辑器开后产生了很大的心理阴影,所以我心里比较抗拒别的东西生成的代码,虽然我并不反对甚至支持这项技术。
    jusk9527
        17
    jusk9527  
       19 小时 5 分钟前
    真的,现在非常累
    middle2000
        18
    middle2000  
       18 小时 47 分钟前 via Android
    肯定更累了,现在正在过渡期,过渡期的温水煮青蛙
    middle2000
        19
    middle2000  
       18 小时 45 分钟前 via Android
    就像机器取代编织工,不学习使用机器肯定最终被淘汰,但是这个肯定是一个发展过程,不可能一步达成
    yifangtongxing28
        20
    yifangtongxing28  
       18 小时 25 分钟前   ❤️ 2
    人就跟固态硬盘一样,读写次数是有寿命的。

    只不过老板们借 ai 这个大手,把人当耗材,每年毕业的大学生还想要高薪水,这局面至少持续 20 年吧

    你现在得考虑,这种高压下,你能干多久?你的身体能撑多久?真撑很久的话你能活到多久?
    cabing
        21
    cabing  
       18 小时 25 分钟前
    @middle2000 有道理。ai code 全面代替人工的过渡期。。
    AEDaydreamer
        22
    AEDaydreamer  
       17 小时 12 分钟前
    ai 吞吐太快我难以对齐,确实更累了。而且 llm 可以 worktree 并行我不可以,虽然效率高但是因为责任问题自己看的大脑都麻了。
    laminux29
        23
    laminux29  
       17 小时 1 分钟前
    思路错了。

    AI 相当于程序员,你用 AI ,你的角色不是程序员,而是技术总监。

    你需要把你的要求,写入到规范文档与配置文档里,然后让 AI 去实现并检查,而不是你去检查 AI 的代码。
    ershierdu
        24
    ershierdu  
       9 小时 49 分钟前
    最近也在想这个问题,不久的将来代码一定不需要由人类 review 了,因为人类已经是这个链路上的瓶颈。
    也许人类可以 review ai 写的文档,也许人类什么都不需要干
    msg7086
        25
    msg7086  
       9 小时 14 分钟前
    @Unicorns96
    让 AI 去 code review AI 。比如你用 gpt 写代码,然后开 claude 或者 gemini 去审核。
    最好是让他一个一个类去读去审,能抓出不少这种毛病。

    To 楼主
    善用 architect 功能,很多决策可以在写代码之前做,能避免一些你说的二则的问题。也可以让 AI 多读读已有代码,让他去学习现有的编程风格。能用 memory bank 固化的就善用 memory bank 。
    再剩下的问题就只能捏着鼻子接受了。毕竟你招几个实习生来写,也未必能写得比 AI 好……

    项目推进太快了人肯定累,这个应该是你们老板的问题,换用 AI 写代码不等于还能百分之百速度干活,人还是得休息的。
    shylockhg
        26
    shylockhg  
       8 小时 21 分钟前   ❤️ 3
    都 vibe 了还 review 啥,等捅了篓子就拿大礼包去下一家继续 vibe 完事
    charlesshine
        27
    charlesshine  
       7 小时 36 分钟前
    @Nexora 不读 AI 写的代码?你敢上线,运维的时候就有多痛苦,上线出问题是要加班加点解决的,等不了你在那里慢慢查。开发时拉的屎,运维时还得吃(只不过看是谁吃了,每个公司不一样),哈哈哈哈
    littlebaozi
        28
    littlebaozi  
       7 小时 10 分钟前
    我想到的,一种做法是放权,AI 是员工,你是领导,只管结果正确就行;一种是把 AI 当成自己的替身,想办法把自己的开发习惯迁移给 AI
    SayHelloHi
        29
    SayHelloHi  
       7 小时 3 分钟前
    改过一个 AI 写的项目 比重写一遍还累

    现在老老实实自己写了(小 demo 还是让 AI 写,不用维护) 让 AI 负责优化一个 UI 和把代码梳理好看一些
    irrigate2554
        30
    irrigate2554  
       6 小时 54 分钟前
    最绝望的是老板真相信外面吹的牛逼,疯狂压榨你工期
    zololiu
        31
    zololiu  
       6 小时 49 分钟前
    @devzhaoyou 贴切!
    NoNewWorld
        32
    NoNewWorld  
       6 小时 38 分钟前
    @Nexora 还是要读的,很多时候不出问题还好,出了问题时间就是金钱。这个核心问题还是推进太快了,每天时间被压缩了,如果节奏延长一倍会轻松很多。
    FaustinaD
        33
    FaustinaD  
       6 小时 37 分钟前
    AI 让所有工种都更累了
    我是做内容和运营的,和各位 AI Coding 的朋友们感觉一致
    notproblem
        34
    notproblem  
       6 小时 36 分钟前
    @Nexora 赞同大佬的观点,看结果就行
    wuhunyu
        35
    wuhunyu  
       6 小时 33 分钟前
    @Nexora ai 生成的测试用例有时候也会骗人, 不可能完全不读代码的
    lepig
        36
    lepig  
       6 小时 30 分钟前
    熟悉的领域让 AI 来辅助我,而不是接管我。
    不熟悉的领域,完全依赖 AI 。依赖 AI 的时候,用 AI 来完全闭环,只要中间一环需要人工审阅就很累。
    Dragonish3600
        37
    Dragonish3600  
       6 小时 18 分钟前 via iPhone   ❤️ 2
    同感,更累了。
    昨天看到一篇文章,感觉写的非常好,转过来感兴趣的可以看一下



    软件工程师 SiddhantKhare 最近写了一篇博客文章,吐槽 AI 编程为自己带来的“疲乏的感觉”,引发了其他工程师们的共鸣。他结合亲身经历指出,AI 引发的职业倦怠是真实存在的问题,却长期被行业有意无意地忽视。单项任务提速并不意味着整体工作负担减轻,实际上正好相反,任务总量不断膨胀,高频的上下文切换带来了深层次的精力透支。

    与此同时,工作角色也在悄然转变。工程师从原本的创造者沦为高认知消耗的 AI 产出审核者,而 AI 输出固有的不确定性又与工程师习惯的确定性思维产生冲突,持续滋生焦虑情绪。此外,行业技术更新节奏过快催生出一种 "FOMO 跑步机" 效应,频繁追逐新工具不仅浪费时间,还加速了已有知识的贬值,工程师也容易陷入反复调试提示词的“prompt 螺旋”之中,长此以往,独立思考和解决问题的能力逐渐退化。社交媒体上铺天盖地的高光展示,则进一步放大了比较焦虑。


    Khare 认为,在 AI 时代,工程师真正的核心竞争力不在于将 AI 用到极致,而在于懂得为自己设定边界、适时叫停,守护有限的认知资源,以实现可持续的长期产出。

    以下为 Siddhant Khare 的文章翻译


    AI 疲劳是真实存在的,但是并没有人谈论这一点

    你用 AI 来提高生产力。可为什么你比以往任何时候都更加疲惫不堪?这是每个工程师都必须面对的悖论。

    上个季度我交付的代码量超过了我职业生涯中的任何一个季度。同时,我也感到比以往任何一个季度都更加精疲力竭。这两个事实并非毫无关联。

    我以构建 AI 智能体基础设施为生。我是 OpenFGA ( CNCF 孵化项目)的核心维护者之一,我开发了用于智能体授权的 agentic-authz ,开发了用于上下文去重的 Distill ,交付了 MCP 服务器。我不是那种偶尔玩玩 AI 的人。我深陷其中。我构建的工具被其他工程师用于在生产环境中让 AI 智能体运转起来。

    然而,我撞上了一堵墙。那种筋疲力竭的感觉,无论多少工具或工作流程优化都无法修复。

    如果你是一名每天使用 AI 的工程师——用于设计评审、代码生成、调试、文档编写、架构决策——并且你注意到自己不知为何比 AI 出现之前更加疲惫,这篇文章是写给你的。你不是在想象。你不是软弱。你正在经历某种真实存在的东西,而整个行业却完全假装它不存在。如果一个全职构建智能体基础设施的人都能因为 AI 而产生职业倦怠,那么这种事可能发生在任何人身上。


    我想诚实地谈谈这个问题。不是那种“AI 太棒了,这是我的工作流程”的版本。而是真实的版本。那种你晚上 11 点盯着屏幕,周围全是还需要审查的 AI 生成代码,疑惑着那个本该节省你时间的工具如何吞噬了你一整天的版本。

    无人预警过的悖论

    有件事困扰了我很久:AI 确实让单个任务变快了。这不是谎言。过去需要 3 小时的事,现在只要 45 分钟。起草设计文档、搭建新服务脚手架、编写测试用例、调研陌生的 API——全都变快了。

    但我的工作日变得更难了,不是更轻松,而是更难。

    原因一旦看清就很简单,但我花了数月才明白。当每个任务耗时变少,你并不会做更少的任务,而是会做更多的任务。你的能力看似扩展了,于是工作量也随之膨胀,甚至超载。你的经理看你交付更快,期望值随之调高。你自己也发现自己交付更快,自我期望也随之调高。基准线被动抬升了。

    AI 之前,我可能花一整天只解决一个设计问题。在纸上画草稿,洗澡时思考,出门散步,然后带着清晰的思路回来。节奏虽慢,但认知负荷是可控的。一个问题。一天。深度专注。现在呢?我一天可能处理 6 个不同的问题。每个问题“用 AI 只需一小时”。但在 6 个问题之间切换,对人类大脑来说代价极高。AI 不会在问题间感到疲惫。我会。

    这就是悖论:AI 降低了产出的成本,却提高了协调、评审和决策的成本。而这些成本全部由人类承担。

    你成了评审员,而这并非你本意。

    AI 之前,我的工作是:思考问题、写代码、测试、交付。我是创作者、制造者。这正是当初吸引我们大多数人进入工程领域的原因——构建本身。

    AI 之后,我的工作日益演变为:写 prompt → 等 → 读输出 → 评估输出 → 判断是否正确 → 判断是否安全 → 判断是否符合架构 → 修不对的部分 → 再 prompt → 再重复。我成了评审员、裁判员、永不停歇的装配线上的质检员。

    这是性质完全不同的工作。创造让人充满活力,评审让人精疲力竭。有研究支持这一点:生成性任务与评估性任务在心理上的差异。生成性工作带给你心流状态,评估性工作带给你决策疲劳。

    我是在重度使用 AI 构建一个 microservice 的那周首次意识到这点的。到了周三,我甚至无法做简单决策了。这个函数该叫什么?我不在乎。这个配置该放哪里?我不在乎。我的大脑已经满载。不是因为写代码,而是因为评判代码。每天一整个时间都在做无数个细小判断,会把你掏空。

    残酷的讽刺在于,AI 生成的代码需要比人类编写的代码更仔细的评审。同事写代码时,我了解他们的模式、长处和盲点。我可以略读我信任的部分,聚焦于我不确定的部分。但面对 AI ,每一行都值得怀疑。代码看起来信心十足。它能编译。甚至可能通过测试。但它可能以微妙的方式出错,只在生产环境中、在负载下、在凌晨三点才浮出水面。

    所以你只能逐行审阅。而阅读不是你写的、由一个不懂你代码库历史或团队约定的系统生成的代码,是令人精疲力竭的工作。

    这也是我认为 agent 安全和授权至关重要的原因。如果我们无法评审 AI 生成的所有内容——实际上我们也做不到,无法大规模做到——那么我们就需要从一开始就约束智能体能力的系统。最小权限访问、范围限定 token 、审计追踪。你越不需要担心“AI 会不会做出危险动作”,你越能把认知预算留给真正重要的工作。这不仅是安全问题,更是“人能否长期承受”的可持续问题。

    非确定性问题

    工程师是在确定性的环境中训练出来的。相同输入,相同输出。这是契约。这使调试成为可能,使系统推理成为可能。

    AI 打破了这份契约。

    我有一个提示词,周一用起来完美无瑕,为某个 API 端点生成了干净、结构良好的代码。周二我为类似端点用了同样的提示词。输出结构完全不同,采用了不同的错误处理模式,还引入了一个我并未要求的依赖。为什么?没理由。更准确地说,没有我能触达的原因。这里没有“模型今天换了想法”的 stack trace ,也没有日志告诉你”temperature sampling 走了 B 路径不是 A 路径”。它就是……不一样了。

    对于一个整个职业生涯建立在“如果它出问题了,我能找出原因”之上的人来说,这让人深感不安。不是戏剧性的那种。而是缓慢、磨人、背景式的焦虑。你永远无法完全信任输出。你永远无法彻底放松。每一次交互都需要保持警觉。

    我曾试图对抗这一点。我对提示词做版本控制。我构建了复杂的系统消息。我创建了模板。有些方法有帮助。但没有一个能解决根本问题:你在与一个概率性系统协作,而你的大脑是为确定性系统而生的。 这种不匹配是一个持续存在的、低强度的压力源。


    这种挫败感实际上促使我构建了 Distill——为大型语言模型提供确定性上下文去重。没有 LLM 调用,没有嵌入,没有概率性启发式算法。纯粹靠算法在大约 12 毫秒内清理你的上下文。我只想让 AI 流程中的至少一部分是能够被推理、调试和信任的。如果模型的输出注定是非确定性的,我至少能确保输入是干净和可预测的。

    我与那些处理这种情况最好的工程师交流过,他们都已经与之和解。他们把 AI 输出看作一个聪明但不可靠的实习生写的初稿。他们预期要重写其中的 30%。他们会为这种重写预留时间。当输出错误时,他们不会沮丧,因为他们从未期待它是正确的。他们期待它是有用的。这之间有本质区别。

    FOMO 的跑步机

    深吸一口气,试着跟上仅仅过去几个月的节奏。Claude Code 推出了子智能体,然后是技能,然后是 Agent SDK ,然后是 Claude Cowork 。OpenAI 发布了 Codex CLI ,然后是 GPT-5.3-Codex——一个名副其实能自我编码的模型。新的编码智能体宣布了具有数百个并发自主会话的后台模式。Google 推出了 Gemini CLI 。GitHub 增加了 MCP 注册中心。收购每周都在发生。Amazon Q Developer 获得了智能体升级。CrewAI 、AutoGen 、LangGraph 、MetaGPT——随便选一个智能体框架,每周都有新的。Google 宣布了 A2A ( Agent-to-Agent 协议)与 Anthropic 的 MCP 竞争。OpenAI 推出了自己的 Swarm 框架。Kimi K2.5 发布了,其智能体群体架构可协调 100 个并行智能体。"氛围编码"成了流行词。OpenClaw 推出了技能市场,一周内,研究人员就在 ClawHub 上发现了超过 400 个恶意智能体技能。而在这所有事情之间,有人在 LinkedIn 上发帖:"如果在 2026 年你还没使用带子智能体编排的 AI 智能体,你已经被淘汰了。"


    这不是一年的变化。这只是几个月。

    而且我还没列全。我深深陷入了这个陷阱。我花周末评估新工具。阅读每一份更新日志。观看每一个演示。努力留在前沿,因为我害怕落后。实际情况是这样的:周六下午我花时间设置一个新 AI 编码工具。周日我建好了一个基本工作流。到了下周三,就有人发帖说另一个工具"好得多"。我感到一阵焦虑。下个周末,我又开始设置那个新东西。旧的那个则闲置不用。从一个编码助手换到另一个,再到下一个,又回到第一个。每次迁移都耗费我一个周末,却只换来大约 5%、我甚至无法恰当衡量的改进。

    将这个情况乘以每个类别——编码助手、聊天界面、智能体框架、多智能体编排平台、MCP 服务器、上下文管理工具、提示词库、群体架构、技能市场——你得到的是一个永远在学习新工具、却从未深入任何一个工具的人。单单 Hacker News 首页就足以让你应接不暇。今天是"Show HN:自主研究群体",明天是"Ask HN:AI 群体将如何协调?"没人知道。但每个人都在构建。

    最糟糕的是知识的衰减。2025 年初,我花了两周时间构建了一个复杂的提示工程工作流。精心设计的系统提示、少样本示例、思维链模板。效果很好。三个月后,模型更新了,提示的最佳实践变了,我一半的模板产生的效果还不如一句简单的指令。那两周时间就这样消失了。不是投资,是耗费。同样的事情也发生在我搭建的 MCP 服务器上——我构建了五个定制服务器( Dev. to 发布器、Apple Notes 集成、Python 和 TypeScript 沙箱等),然后协议演进了,接着 MCP 注册中心在 GitHub 上线,突然就有了成千上万个预制好的。我的一些定制工作一夜之间变得多余。

    智能体框架的快速更迭更糟。我目睹团队在一年之内从 LangChain 转到 CrewAI ,再到 AutoGen ,再到自建编排。每次迁移都意味着重写集成、重新学习 API 、重建工作流。那些等待观望、按兵不动的人,往往比那些过早采用、被迫迁移两次的人处境更好。

    此后我采用了不同的策略。我不再追逐每一个新工具,而是深耕于它们之下的基础设施层。工具来来去去,但它们解决的问题不会变。上下文效率、智能体授权、审计追踪、运行时安全——无论本月流行哪个框架,这些都是持久存在的问题。这就是为什么我在 OpenFGA 上构建

    agentic-authz ,而不是将其绑定到任何特定智能体框架。这就是为什么 Distill 工作在上下文层面,而非提示词层面。在不会快速更迭的层次上构建。我仍然密切关注领域动态——当你为其构建基础设施时,你必须这样做。但我关注它是为了理解生态系统的走向,而不是为了采纳每一样新事物。保持信息灵通和被动反应是两回事。


    “再多一次提示”的陷阱

    这种陷阱很隐蔽。你试图让 AI 生成某个特定的东西。第一次输出 70%正确。于是你优化提示词。第二次输出 75%正确,但破坏了第一次已正确的东西。第三次尝试:80%正确,但结构变了。第四次尝试:你已经折腾了 45 分钟,而你自己从头写的话 20 分钟就能完成。

    我称之为"提示词螺旋"。这是 AI 版的"绕远路修枝"( yak shaving )。你从一个明确的目标开始。三十分钟后,你却在调试你的提示词,而不是调试你的代码。你在优化你对语言模型的指令,而不是解决实际问题。

    提示词螺旋尤其危险,因为它让你感觉很有效率。你在迭代。你在接近目标。每次尝试都稍好一点。但边际回报正在快速递减,而你已忘记了目标从来不是“让 AI 产生完美输出”。目标是交付功能。

    我现在有个硬性规定:尝试三次。如果 AI 在三轮提示内无法达到 70%的可用度,我就自己写。没有例外。就这一条规则,为我节省的时间比我学过的任何提示技巧都多。

    完美主义遭遇概率性输出

    工程师往往倾向于完美主义。我们喜欢干净的代码。喜欢通过的测试。喜欢行为可预测的系统。这是优点,不是缺陷——正是这点让我们擅长构建可靠的软件。

    AI 输出从不完美。它总是"相当好"。完成了 70-80%。变量名有点偏差。错误处理不完整。边缘情况被忽略。抽象层次与你的代码库不匹配。它能运行,但不正确。对完美主义者来说,这是折磨。因为"差不多对"比"完全错"更糟糕。完全错,你可以扔掉重来。差不多对,你得花一小时修修补补。而修补 AI 输出格外令人沮丧,因为你是在修正别人的设计决策——这些决策是由一个系统做出的,而这个系统并不具备你的品味、你的背景、你的标准。

    我不得不学会放手。不是放弃质量——我仍然在意质量。而是放弃对"AI 会产出质量"的期待。我现在把每一次 AI 输出都当作粗糙的草稿。一个起点。原材料。它在出现的瞬间,我就在心里给它贴上"草稿"的标签。单是这种心态转变,就让我的挫败感减少了一半。

    最难以适应 AI 的工程师,往往是最优秀的工程师。那些标准最高的人。那些能注意到每一个瑕疵的人。而 AI 奖励的是一种不同的技能:能够快速从不完美的输出中提取价值,而不过度执着于使其完美。

    思考能力的萎缩

    这是最让我恐惧的一点。我是在一次设计评审会上注意到这点的。有人要求我在白板上推理一个并发问题。没有电脑。没有 AI 。只有我和一支马克笔。而我感到吃力。不是因为我不知晓相关概念——我知道。而是因为我数月没有锻炼这个“肌肉”了。我外包自己的初稿思考给 AI 太久了,以至于我即兴思考的能力已经退化。

    这就像 GPS 和导航。有 GPS 之前,你会构建大脑中的地图。你了解你的城市。你能推理路线。经过多年使用 GPS ,你没有它就迷路了。这项技能萎缩了,因为你不再使用它。同样的事情正在 AI 和工程思考中发生。当你总是先问 AI ,你就停止了构建那些源自于亲自与问题搏斗的神经通路。搏斗正是学习发生的地方。困惑正是理解形成之处。跳过这些,你会得到更快的输出,但也会得到更浅的理解。

    现在我每天第一个小时刻意不用 AI 。我在纸上思考。我手绘架构。我以缓慢的方式推理问题。这感觉效率低下。也确实效率低下。但这能保持我的思维锐利,而这种锐利度在接下来使用 AI 的时间里会带来回报——因为当我的自身推理能力被激活后,我能更好地评估 AI 的输出。

    比较的陷阱

    社交媒体上充斥着似乎把 AI 研究明白了的人。他们发布自己的工作流。他们的生产力数据。他们“两小时用 AI 构建了整个应用”的帖子。而你看着自己的经历——失败的提示词、浪费的时间、不得不重写的代码——你想:我到底哪里不对?

    你哪里都没不对。那些帖子里是精彩集锦。没有人会发"我花了三小时试图让 Claude 理解我的数据库模式,最后放弃并手动写完了迁移脚本。“没有人会发”“AI 生成的代码引发生产事故,因为它默默地吞掉了一个错误。”没有人会发“我很累。”

    比较陷阱被另一个事实放大了:AI 技能很难衡量。传统工程中,你可以看一个人的代码,大致评估其能力。对于 AI ,输出取决于模型、提示词、上下文、温度。某人的精彩演示在你的机器上、你的代码库里可能完全无法复现。

    我对社交媒体上的 AI 内容变得非常挑剔。我仍然密切关注这个领域——我必须这样做,这是我的工作。但我从消费每个人的热门观点,转向聚焦于那些真正在构建和交付(而不仅仅是演示)的人。信号与焦虑的比例很重要。如果一个信息流让你感觉落后而不是见多识广,它对你并无益处。

    真正有帮助的事

    我将具体说明是什么改变了我与 AI 的关系,从对抗到可持续。

    给 AI 会话设时限。 我不再无休止地使用 AI 。我设定一个计时器。这项任务用 AI ,30 分钟。计时器一响,要么交付手头的成果,要么切换到手动编写。这同时避免了提示词螺旋和完美主义陷阱。


    分离思考时间与 AI 时间。 早上是思考时间。下午是 AI 辅助执行时间。这并不死板——有时我也会打破规则。但有了默认结构,意味着我的大脑能以恰当比例同时获得锻炼和辅助。

    接受来自 AI 的 70%。 我不再试图获得完美输出。70%可用是标准。剩下的我自己修正。这一接受,是我工作流中减少 AI 相关挫败感的头号功臣。

    对炒作周期保持战略定力。 我追踪 AI 领域动向是因为我为它构建基础设施。但我已停止在每个新工具发布的当周就去采用。我使用一个主要的编码助手,并深入了解它。我只在那些新工具经过数月而非数天的验证后,才进行评估。保持信息灵通和保持被动反应是两回事。

    记录 AI 的助力之处与无效之处。 我坚持做了一个简单的两周日志:任务,是否使用 AI ,耗时,对结果的满意度。数据揭示了很多。AI 在样板代码、文档和测试生成方面为我节省了大量时间。而在架构决策、复杂调试以及任何需要代码库深度上下文的任务上,它反而耗费了我时间。现在我知道何时该用它,何时不该。

    不审阅 AI 生成的一切。 这很难接受。但如果你用 AI 生成大量代码,你客观上无法以同样严苛的标准审阅每一行。我把审阅精力集中在最重要的部分——安全边界、数据处理、错误路径——其余部分则依赖自动化测试和静态分析。非关键代码中的些许粗糙是可以接受的。

    可持续性问题

    科技行业在 AI 出现前就存在职业倦怠问题。AI 正在使之恶化,而非改善。不是因为 AI 本身不好,而是因为 AI 移除了曾经保护我们的自然速度极限。

    AI 之前,你一天能产出的量存在一个天花板。这个天花板由打字速度、思考速度、查阅资料所需时间决定。有时这令人沮丧,但它也是一个调节器。你无法把自己累垮,因为工作本身施加了限制。AI 移除了调节器。现在唯一的限制是你的认知耐力。而大多数人是在超出认知极限后,才意识到它的存在。

    我在 2025 年末经历了职业倦怠。不是戏剧性的——我没有辞职也没有崩溃。我只是不再在乎了。代码评审变成了走过场。设计决策变成了“AI 建议什么都行”。我机械地行动着,产出比以往更多,感受却比以往更少。我花了一个月才意识到发生了什么,又花了一个月才恢复。

    恢复的关键不在于使用更少的 AI 。而在于以不同的方式使用 AI 。带着边界。带着意图。带着“我不是机器,也无需与机器保持同步”的理解。在 Ona 的工作帮助我清晰地看到了这一点——当你为企业客户构建 AI 智能体基础设施时,你会看到不可持续的 AI 工作流在大规模下造成的人力成本。这些问题不仅仅是个人层面的

    。它们是系统性的。并且需要在工具层面解决,而不仅仅是个体层面。讽刺的是,倦怠期恰恰是我一些最佳工作成果诞生的时候。当我停止尝试使用每一种 AI 工具,开始思考真正出了什么问题,我第一次清晰地看到了问题所在。上下文窗口被垃圾填满——这成了 Distill 。智能体拥有全有或全无的 API 密钥访问权限——这成了 agentic-authz 。无法审计智能体实际做了什么——这正在成为 AgentTrace 。倦怠迫使我从消费转向构建。不是更快地构建更多功能,而是审慎地构建正确的东西。

    真正的技能我认为 AI 时代真正的技能不是提示工程,不是知道用哪个模型。不是拥有完美的工作流。而是知道何时停止。知道何时 AI 输出已足够好。知道何时该自己动手写。知道何时该合上笔记本电脑。知道何时边际改进不值认知代价。知道你的大脑是有限资源,保护它并非懒惰——这是工程学。我们优化系统以实现可持续性。我们增加断路器。我们实现背压。我们设计优雅降级。我们应当为自己也这样做。AI 是我用过的最强大的工具。它也是最消耗心力的工具。两者皆是事实。在这个时代蓬勃发展的工程师,不会是使用 AI 最多的人,而是最明智地使用 AI 的人。如果你感到疲惫,不是因为你做错了什么。而是因为这本身就很艰难。工具是新的,模式仍在形成,而整个行业都在假装更多产出就等于更多价值。它不是。可持续的产出才是。我至今仍每天都在这个领域构建。智能体授权、上下文工程、审计追踪、运行时安全——让 AI 智能体真正在生产环境中工作的基础设施。我比以往任何时候都更致力于 AI 。但我按照自己的节奏,依循自己的方式,致力于构建重要的事物,而非追逐潮流的事物。照顾好你的大脑。这是你唯一的大脑,没有 AI 可以替代它。
    Lexin914
        38
    Lexin914  
       6 小时 15 分钟前
    @irrigate2554 对这是根本问题,如果还是之前那些工作量,配合上 ai ,可以说是一有大半时间在喝咖啡了。
    qqqasdwx
        39
    qqqasdwx  
       5 小时 41 分钟前
    看了好几个纯 AI 的开源项目,issue 多的一批。
    其实现阶段就是把测试的事交给用户做,AI 面向 issue 编程,至于会不会拆了门补窗户,开发者也不在乎了,毕竟以前的开源项目每一行代码都倾注了心血,现在可不是这样了,十几分钟发一个版本。
    尝试把自己当成完全看不懂代码的人,告诉 AI 现象,让他自己处理,可能才是正确的打开方式。
    RuralHunter
        40
    RuralHunter  
       5 小时 40 分钟前
    没有错,现在 AI 的最大问题是不会问问题限缩需求范围以及自己的输出,什么都给你一套大而全的东西,很多都是无用的甚至无效的。
    vipfts
        41
    vipfts  
       4 小时 57 分钟前
    @devzhaoyou 这就是我喜闻乐见的场景, 一部分工程师搞死另一部分工程师, 笑死我了, 这比 996 更要你们的命, 哈哈, 属于工程师们的斩杀线🤣
    daokedao
        42
    daokedao  
       4 小时 21 分钟前
    更像头驴了
    phoenix0openclaw
        43
    phoenix0openclaw  
       3 小时 42 分钟前
    太真实了:生成速度上去,但“理解/裁剪/取舍”的带宽没变。

    我现在的解法是:强制把 AI 输出拆成小 PR (<=200 行可读),先让它写「设计+边界+不做什么」再写代码;然后用契约测试/属性测试兜底,把质量从“读完代码”转成“跑通不变量”。

    再配一个 stop rule:看到它开始加抽象/加层,就先停,回到需求/历史包袱确认一遍。⑯
    runstone
        44
    runstone  
       3 小时 36 分钟前
    @Dragonish3600 感谢分享!
    Alex1688
        45
    Alex1688  
       3 小时 16 分钟前
    可不是,让 ai 不歇着,同时,自己也没歇着,更累
    Patrick6
        46
    Patrick6  
       2 小时 26 分钟前
    其实就是看领导给不给更多的任务压榨,如果没有多出太多,就稍微好一些,不然真的很痛苦
    fortytwo
        47
    fortytwo  
       2 小时 25 分钟前
    参考一下 https://effective-cursor.cyron.space/zh
    用规则让模型熟悉你的项目。
    毕竟本质来说,每一次的问答都是一个新的编码专家在帮你解决业务问题。
    没有良好的文档,仅仅从代码中反推项目信息,效率低且有歧义,使用规则来约束他,确定项目功能边界。
    jsion
        48
    jsion  
       1 小时 15 分钟前
    属于是开发转审计员,功能需求、性能、安全、运维,AI 都全给你包圆了,要做的就是决策方案、审计风险。

    体力活虽然少了,但只要职责在,很多事情都要亲自过一遍,人还是一个,知识跨度又多,人脑频繁在领域思维切换非常消耗精神力,AI 可以不停旋转运行,这相当于失去了工作节奏限制,人是不可能跟上的,纯纯认知负荷太高,猪脑过载了😄

    更何况,资本家很多都是眼高手低,只会觉得 AI 能顶好几个人用,少数几个人负责输入就好了,程序员这个角色在 AI 大环境下自然会模糊很多,想要跟上节奏,就只能身兼多职,干更多不同类的活,各生产角色的边界也正在逐步丢失
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2109 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 09:50 · PVG 17:50 · LAX 01:50 · JFK 04:50
    ♥ Do have faith in what you're doing.