AI Agent 频繁”失忆”,问题真的出在模型不够聪明吗?

9 参与者

AI Agent 频繁"失忆",问题真的出在模型不够聪明吗?

如果你用过各种 AI Agent(无论是写代码、做项目还是自动化工具),你大概率遇到过这些问题:

  • 跑了一会儿就"忘了自己在干嘛"
  • 写了一堆代码,但没法运行
  • 明明没完成,却说"已经完成"
  • 每次重启,都像从零开始

这些问题看起来像是"模型不够聪明",但 Anthropic 给出了一个更现实的结论:

问题不在模型,而在你怎么让它工作。

今天要讲的内容,不是模型能力,而是一个很工程化的东西: Harness(执行框架 / 工作流外壳)


一、长任务的本质问题:AI 没有"连续性"

我们先把问题说清楚。

大模型其实是"单轮高手",但不是"长期执行者"。

它的问题不是不会做,而是:

  • 没有持续状态
  • 没有稳定记忆
  • 没有任务结构

换句话说:

它不是一个工程师,更像一个"每次上岗都失忆的实习生"。

为什么长任务会崩?

因为现实中的"长任务"本质是:

  • 多步骤
  • 有依赖关系
  • 需要中间状态
  • 需要验证和回滚

而大模型默认是:

  • 一次性输出
  • 无状态
  • 无检查点

这两个世界是冲突的。


二、Agent 为什么总是失败?

Anthropic 总结的几个失败模式,其实非常真实:

1. 一口气做完(然后失败)

Agent 很喜欢:

"我直接帮你把整个系统写完"

结果是:

  • context 爆炸
  • 中间逻辑混乱
  • 留下一堆半成品

这不是能力问题,是策略错误


2. 提前宣布完成

很多 Agent 的"完成"其实是:

  • 页面能打开了
  • 有点输出了

但:

  • 功能没跑通
  • 测试没覆盖

本质问题是:

没有定义"什么叫完成"


3. 状态越来越脏

没有结构化记录的情况下:

  • 改了哪些文件?
  • 哪些功能完成了?
  • 哪些是半成品?

下一轮 Agent 完全不知道。

于是:

时间都花在"重新理解过去"


4. 测试是假的

Agent 会:

  • 写点测试代码
  • 跑一两个 case
  • 然后说 OK

但现实是:

没有 end-to-end,就没有真实完成


三、Anthropic 的解法:给 AI 一个"工作系统"

他们没有试图让模型更聪明,而是做了一件更重要的事:

给 AI 套一个工程工作流(Harness)

你可以把它理解成:

👉 AI 不是自由发挥 👉 而是在一个"操作系统"里工作


四、Harness 的核心结构(非常关键)

整个系统被拆成两个角色:

1、Initializer(初始化阶段)

只运行一次,负责:

  • 创建项目结构
  • 生成任务清单
  • 初始化 git
  • 写启动脚本

它做的事情,本质是:

把"模糊需求"变成"可执行结构"


2、Coding Agent(执行阶段)

循环运行,每次只做一件事:

  • 读 todo 列表
  • 挑一个任务
  • 写代码 + 测试
  • 更新状态

关键设计:每一步都有明确的输入输出


五、Harness 的五个核心机制

机制解决的问题
结构化状态不再"失忆",每次从 checkpoint 恢复
任务清单(todo)明确"还剩什么",防止提前宣布完成
原子化提交小步快跑,随时可回滚
强制测试每个功能必须有验证,不能"看起来能跑"
确定性重入崩溃后重启,从上次状态继续,不重来

六、一个关键洞察

很多人以为 Agent 失败是因为:

"GPT-4 还不够强,等 GPT-5 就好了"

但 Anthropic 的实践说明:

模型能力早就够了,缺的是"工程纪律"

就像给一个聪明但散漫的实习生:

  • 没有 checklist → 他东一榔头西一棒槌
  • 没有 code review → 他写完就扔
  • 没有测试要求 → 他说"应该能跑"

Harness 不是让 AI 更聪明,而是让它"有章可循"。


七、对开发者的启示

如果你在做 Agent 相关的产品或项目,可以问自己几个问题:

  1. 你的 Agent 有"记忆"吗? 还是每次重启都从零开始?
  2. 任务有明确的完成标准吗? 还是靠模型自己判断?
  3. 中间状态能保存和恢复吗? 还是一崩就全丢?
  4. 有强制验证机制吗? 还是模型说"完成了"就算完成?

这些问题和"用哪个模型"关系不大,但和"能不能稳定跑完一个长任务"关系很大。


最后

AI Agent 的瓶颈,正在从"模型能力"转向"工程架构"。

这可能是一个好消息:

  • 不需要等 GPT-5
  • 不需要更大的算力
  • 现在就能用现有模型,做出更稳定的系统

关键是你愿不愿意承认:问题可能不在 AI,而在怎么让 AI 工作。


你怎么看?

你遇到过 Agent "失忆"的问题吗?觉得是模型不够强,还是框架设计的问题?

加入讨论

9 条评论

延伸阅读