吴恩达:LLM 正在变强,但离真正的通用智能还很远
aikeji
12-23
84


过去一年,大模型几乎以“周”为单位在刷新能力上限:推理更强、代码更稳、多模态更全。 但在 DeepLearning.AI 的 The Batch 第 332 期中,吴恩达团队给出了一个非常冷静、甚至略显“泼冷水”的判断:

大语言模型确实很强,也比以往任何 AI 更通用,但它们距离真正的通用智能(AGI)仍然很远。


一、LLM 是“通用”的,但并不是真的“什么都能干”

The Batch 首先指出一个被频繁忽略的事实:

LLM 的“通用性”,更多体现在接口和使用方式上,而不是能力本身。

为什么说 LLM 的通用性是“有限的”?

从用户角度看,LLM 可以:

  • 写代码
  • 回答问题
  • 总结文档
  • 分析数据
部分内容已折叠,查看完整文章请先登录。 登录后查看完整文章

The Batch 第 332 期并不贩卖焦虑,也不制造幻想。 它传递的是一种成熟技术周期中才会出现的声音

  • 少一点神话
  • 多一点工程
  • 把 AI 当成工具,而不是信仰

也正因为如此,这一期内容,比任何“炸裂发布”都更值得认真阅读和思考。

原创文章,更多AI科技内容,微信搜索橙市播客小程序



微信扫描下方的二维码阅读更多精彩内容

打赏
不止更会写代码:GLM-4.7 在 Agent、工具与推理能力上的全面进化
上一篇
英伟达 200 亿美元“收下” 前谷歌 TPU之父创办的Groq
下一篇
生成中...
点赞是美意,赞赏是鼓励