这个词被滥用了

《AI-Native》出现在 LinkedIn 贴文里,旁边配着机器人手运输打字这类文章的配图。大多数时候它的意思是:“我们有时会用用 ChatGPT”。

这不是我说的意思。

工具使用 vs 工作流重构

两者之间有本质区别:

把 AI 当工具用: 你写代码 → 遇到瓶颈 → 问 AI → 粘贴答案 → 继续。 AI 是一个更快的 Stack Overflow。

围绕 AI 重构工作流: 你定义任务结构 → 将 Agent 分配到各阶段 → 在门禁点验收输出 → 你只处理需要人类判断的事。 AI 是一个有明确职责的团队成员。

第二种模式,就是我说的 AI-Native。

AI-Native 工作流的三个特征

1. 任务就是为了 Agent 执行而设计的

不是「帮我写一个 README」——太模糊,太大。 而是:「将 JSON 自述重写,包含 10+ 个字段,新增一段三句话的英文叙事段,保持现有格式规范。」

这个任务是有边界的,有清晰的验收标准,不运行代码就能验证。

2. Agent 有角色,不只有指令

让一个 Agent “同时承担设计师 + 开发者 + 审查员”三种角色,它会把三者平均成个不上不下的水平。谁各有独立提示词、独立工具集和独立的楊外触发最终产出更好的输出——因为专业化本身就是一种迫使清晰度的机制

3. 人类处理模糊性, Agent 处理执行

决定建什么目标用户是谁哪些权衡最重要——这些需要人类判断。写 Markdown、检查链接、验证主题色一致性——这些不需要。

AI-Native 意味着对每个任务属于哪一类进行斠酸判断。

实践中长什么样

就这篇博客本身而言:

  • 决策(人类): 什么主题、什么角度、谁是读者
  • 起草(Agent): 按这些参数写一篇技术博客
  • 审阅(人类): 这真的是我要说的吗?是否代表我的声音?
  • 精修(Agent): 调整语气、压紧结构、修妆表达

人类参与的是判断,而不是打字。

说实话的局限

这一切的前提是:你能清楚地描述「完成是什么样子」。如果你无法描述验收标准,任何 Agent 也无法达到它。AI-Native 开发的瓶颈几乎永远不在 AI 那一侧——在于人类清晰拆解问题的能力。

实际上,这也是对你自身工程思维的一次升级。你会变得更擅长拆解问题——因为你不得不,否则等待你的就是被浪费的 Agent 调用。

从这里开始

如果你现在正在构建什么,拿一个模块问自己:我能写出一份足够精确的规格,让 Agent 不需要追问就能执行吗?

如果可以:把它交出去。 如果不行:搜屑原因——规格里的空缺,才是真正需要解决的问题。

未来不是 AI 取代开发者,而是与 AI 协作的开发者取代不与 AI 协作的开发者。