
过去一年,大模型几乎以“周”为单位在刷新能力上限:推理更强、代码更稳、多模态更全。 但在 DeepLearning.AI 的 The Batch 第 332 期中,吴恩达团队给出了一个非常冷静、甚至略显“泼冷水”的判断:
大语言模型确实很强,也比以往任何 AI 更通用,但它们距离真正的通用智能(AGI)仍然很远。
一、LLM 是“通用”的,但并不是真的“什么都能干”
The Batch 首先指出一个被频繁忽略的事实:
LLM 的“通用性”,更多体现在接口和使用方式上,而不是能力本身。
为什么说 LLM 的通用性是“有限的”?
从用户角度看,LLM 可以:
- 写代码
- 回答问题
- 总结文档
- 分析数据
部分内容已折叠,查看完整文章请先登录。 登录后查看完整文章
The Batch 第 332 期并不贩卖焦虑,也不制造幻想。 它传递的是一种成熟技术周期中才会出现的声音:
- 少一点神话
- 多一点工程
- 把 AI 当成工具,而不是信仰
也正因为如此,这一期内容,比任何“炸裂发布”都更值得认真阅读和思考。
原创文章,更多AI科技内容,微信搜索橙市播客小程序
微信扫描下方的二维码阅读更多精彩内容

声明:本站所有文章,如无特殊说明或标注,均为橙市播客原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。如果你是AI总结,务必加上此版权说明