Agentic Engineering:与AI协作的六种工程模式

「未来不属于会写代码的人,而属于懂得与AI协作的人。」


一、从「使用工具」到「协作伙伴」

2024年,我们还在讨论「AI会不会取代程序员」。

2026年,真正的问题变成了:你如何与AI有效地协作?

Simon Willison 最近提出的「Agentic Engineering」概念,给了我一个清晰框架。这不是关于提示词工程(Prompt Engineering)的细枝末节,而是关于系统性方法与AI Agent协作的工程思维。

让我先讲一个反直觉的观察:

那些最擅长使用AI的工程师,往往不是提示词写得最花哨的人,而是最懂得管理认知债务的人。


二、什么是认知债务?

当你让一个AI Agent帮你写一个复杂功能时,表面上你在节省时间。但实际上,你可能正在积累一种隐性成本——认知债务。

认知债务的表现:

  • 你不知道AI为什么这样写
  • 你无法判断这段代码的边界情况
  • 当AI出错时,你完全不知道从哪里开始调试
  • 三个月后回头看,你甚至看不懂这段「AI生成」的代码

这就像用信用卡消费。短期内你得到了想要的东西,但如果不及时「还款」(理解、验证、文档化),债务会复利增长,最终吞噬你的效率。

Agentic Engineering 的核心,就是建立一套机制来管理这种认知债务。


三、六种核心协作模式

基于 Simon Willison 的框架和我自己的实践,我总结了六种与AI协作的工程模式。

模式一:交互式解释(Interactive Explanation)

不要一次性让AI写完,而要让它「边写边讲」。

当你要求AI实现一个复杂算法时,不要直接要代码。而是:

  1. 先让它解释算法原理
  2. 让它用伪代码描述思路
  3. 逐步询问边界情况的处理
  4. 最后才生成完整实现

为什么有效? 这迫使你(和AI)建立共享的上下文。当你理解AI的「思路」后,你不仅得到了代码,还得到了调试和维护它的能力。

实战技巧: 使用「请解释你的思路」作为每个复杂任务的中间步骤。如果AI的解释让你困惑,继续追问,直到你能用自己的话复述它的逻辑。


模式二:囤积技能(Skill Hoarding)

把AI生成的每个有用代码块,转化为你的「技能库」。

大多数人和AI的对话都是一次性的。任务完成,对话关闭,所有上下文丢失。

但高手会建立个人技能库

  • 把AI生成的正则表达式模式保存下来
  • 记录处理特定类型数据的代码模板
  • 整理常用的数据处理流水线

这不是简单的代码片段收集,而是「认知外化」。

你的大脑不应该记住所有细节,但它应该知道「我有过一个解决方案,它在哪里」。

实战建议: 建立一个「AI技能库」文档。每次AI帮你解决了一个非平凡问题,花30秒记录下:问题描述、解决方案、关键代码块、适用场景。


模式三:边界探索(Boundary Probing)

主动寻找AI能力的边界,而不是假设它能做一切。

每个AI模型都有它的「舒适区」和「盲区」。Agentic Engineering 要求你系统性探索这些边界。

具体做法:

  1. 从小规模测试开始
  2. 逐步增加复杂度
  3. 观察失败模式
  4. 建立「AI适合/不适合」的心智地图

例如,我发现当前的大模型在处理「需要精确数值计算」的任务时容易出错,但在「理解意图并生成结构」方面表现出色。这个认知指导我选择何时用AI、何时自己写。


模式四:增量验证(Incremental Validation)

永远不要相信AI一次性生成的大量代码。

这是最危险的陷阱。AI可以瞬间生成几百行代码,但你的理解速度是线性的。

正确的方式是增量式协作:

  1. 让AI生成一个函数
  2. 你阅读、理解、测试
  3. 确认无误后,再让它生成下一个
  4. 逐步构建,每一步都可验证

这看起来比「一次性生成所有代码」慢,但实际上更快——因为你避免了在几百行代码中 debug 的噩梦。


模式五:意图分层(Intent Layering)

把你的需求分层表达:意图 → 策略 → 实现。

与AI协作时,最常见的失败是「意图丢失」。你说A,AI理解成B,最后实现成C。

分层表达法:

  • 意图层:「我需要处理一个日志文件,提取错误信息并生成摘要」
  • 策略层:「读取文件 → 正则匹配 ERROR 行 → 按时间聚合 → 生成Markdown报告」
  • 实现层:具体的代码实现

先和AI对齐意图,再讨论策略,最后才是实现。这让AI有更多上下文来做出正确判断。


模式六:元认知监控(Metacognitive Monitoring)

持续监控你自己的理解状态。

这是最高阶的模式。Agentic Engineering 不仅是管理AI的输出,更是管理你自己的认知状态

问自己这些问题:

  • 我现在理解AI生成的这段代码吗?
  • 如果AI明天消失,我能维护这个功能吗?
  • 我是在「真正学习」还是在「外包思考」?
  • 这个任务的认知债务,我能在本周内还清吗?

警戒线: 当你发现自己连续三次「让AI改一下,我也不看,直接运行」时,你已经陷入了高认知债务状态。


四、三个实战案例

案例一:重构遗留代码

场景: 一个2000行的 legacy Python 脚本,需要重构为模块化结构。

传统方式: 花两天时间读代码、画流程图、逐步重构。

Agentic 方式:

  1. 让AI先「解释这段代码的功能」(交互式解释)
  2. 让它「提出重构方案,先不实现」(意图对齐)
  3. 逐模块让AI重构,每模块验证(增量验证)
  4. 将重构模式记录到技能库(囤积技能)

结果: 4小时完成,且我对重构后的代码有完全的理解。


案例二:设计API接口

场景: 为一个新功能设计 REST API。

Agentic 方式:

  1. 先让AI列出设计考虑因素(边界探索)
  2. 讨论不同设计选择的 trade-offs(意图分层)
  3. 生成 OpenAPI 规范,逐 endpoint 审查(增量验证)
  4. 记录设计决策到文档(管理认知债务)

关键洞察: AI不是替代你的设计判断,而是扩展你的考虑维度——它可能会提到你没有想到的边界情况。


案例三:调试复杂Bug

场景: 一个间歇性出现的 race condition。

Agentic 方式:

  1. 描述现象,让AI列出可能的根因(交互式解释)
  2. 对每个假设,让AI建议验证方法(边界探索)
  3. 逐步验证,每步确认理解(元认知监控)
  4. 将调试过程记录为「race condition 调试手册」(囤积技能)

五、常见陷阱与如何避免

陷阱一:自动化偏见(Automation Bias)

现象: 因为AI生成得很快,就假设它是对的。

对策: 强制「冷却期」——AI生成后,强制自己阅读一遍,再运行。


陷阱二:上下文崩溃(Context Collapse)

现象: 长对话后,AI「忘记」了之前的约束,开始生成偏离目标的代码。

对策: 定期「重启对话」——当对话超过20轮,新开一个对话,用简洁的语言重新描述上下文。


陷阱三:能力幻觉(Capability Illusion)

现象: 因为AI某次碰巧做对了复杂任务,就假设它总能做对。

对策: 系统性记录AI的成功率和失败模式,建立真实的期望。


陷阱四:学习回避(Learning Avoidance)

现象: 长期依赖AI,导致自己的技能退化。

对策: 遵循「70-20-10」规则——70% 工作用AI辅助,20% 手动完成以保持手感,10% 学习新技能。


六、行动建议:从今天开始

如果你只能做三件事:

第一,建立你的技能库。 今天就创建一个文档,记录过去一周AI帮你解决的三个问题。包括:问题、解决方案、关键代码。

第二,实践增量验证。 下次让AI生成代码时,不要一次要100行。先让它写10行,你理解后再继续。

第三,设置认知债务警戒线。 当你连续三次不读代码就运行时,停下来,清理债务。


七、写在最后:工程师的新定义

十年前,一个优秀工程师的标志是「能写出优雅的代码」。

今天,这个标志正在变成「能与AI有效协作」。

Agentic Engineering 不是关于放弃思考,而是关于更聪明的思考——知道什么时候借助AI的力量,什么时候保持人类的主导权。

未来的工程师,不是那些写出最多代码的人,而是那些管理认知债务最优雅的人。

他们懂得:AI是杠杆,但杠杆的方向必须由人掌控。


*Published on 2026-03-04 深度阅读时间:约 8 分钟*

参考与延伸阅读:

核心来源

认知科学与工程实践

AI协作工具与框架

  • Claude Code — Anthropic 的 Agentic 编程工具
  • OpenClaw — AI 原生开发环境(本文写作工具)
  • Aider — AI 结对编程助手

相关概念与理论


标签: #AI架构 #AgenticEngineering #认知债务 #AI协作 #工程方法论