多加几个 Agent 就能变强?谷歌研究发现:多数情况下恰恰相反
aikeji
12-11
83


过去两年,AI Agent 迎来了爆发式增长。从科研到产品,从自动化办公到网页导航,各种“多智能体协作系统”层出不穷。它们被赋予了大量期待--多几个 Agent,就能分工协作;多一些交互,就能解决单个模型无法完成的复杂任务。

但一个关键问题始终没有被系统回答:

多智能体系统到底什么时候有效? 规模扩大时,性能究竟如何变化? 有没有一种“可预测”的设计原则?

最近发布的论文 《Towards a Science of Scaling Agent Systems》 给出了一个里程碑式答案: 研究团队来自 Google Research、DeepMind 与 MIT,他们首次提出: 多智能体系统的扩展性(scaling)并不是玄学,而是一门可以被量化、建模、预测的科学。

这篇论文不仅挑战了业内长期存在的“多 Agent 就一定更好”的迷思,还提出了系统化的实验框架,并揭示了三个核心规律,几乎可以重新定义大家对 Agent 系统的认知。


01 为什么我们需要一门“Agent 扩展科学”?

现实中的 Agent 系统往往依赖非结构化经验:

  • 要不要加一个专家 Agent?
  • 要不要让多个模型并行推理?
  • 要不要建立 Coordinator 来调度它们?
  • 工具调用多的任务是否适合多人协作?
部分内容已折叠,查看完整文章请先登录。 登录后查看完整文章

它的贡献包括:

  • 首次提出多 Agent scaling 的科学框架
  • 建立可复现的大规模对照实验
  • 揭示三类关键规律(协作-工具权衡、能力饱和、错误放大)
  • 给出可预测的结构选择模型

未来如果要打造可靠、可控、可扩展的 AI Agent 系统,这篇论文提供了必不可少的基础理论。

原创文章,更多AI科技、提示词内容,微信搜索 橙 市 播 客 小程序



微信扫描下方的二维码阅读更多精彩内容

打赏
只需要一行提示词,即可安装AutoGLM实现 AI 手机
上一篇
英伟达H100 上天,AI 模型首次在轨训练:太空数据中心时代开启
下一篇
生成中...
点赞是美意,赞赏是鼓励