刚刷到 Andrej Karpathy 在 Sequoia Capital AI Ascent 活动上的访谈,足足看了好几遍。有些观点让我一下子就戳中了这些年做 AI 辅助开发时的真实感受。
Karpathy 提到,2025 年 12 月是一个明显的分水岭。
他不再一行行看 diff,而是用自然语言不断表达意图,模型负责生成、调整、修复,他只在高层次把控方向。
听起来玄乎,但很多开发者这两年都有类似体验--AI 正在从“工具”变成“协作者”。
Karpathy 把编程演进分为三个阶段:
你不是在写函数,而是在用 prompt、上下文、文件、工具和环境 来“指挥”它完成任务。
比如:以前要写复杂脚本安装 OpenCL,现在只需描述需求和当前环境,Agent 自己尝试、报错、修复。
本质变化:编程从“精确指令” → “意图表达 + 上下文组织”。
Karpathy 用 Vibe Coding 快速做了一个小应用: 👉 拍菜单照片 → 识别菜名 → AI 生成图片 → 重新排版成新菜单。
做完后他突然意识到:这整个应用是多余的!
因为现在直接用 Gemini 的图像编辑能力,把原菜单照片 + 指令丢进去,一步就能生成带图片的完整菜单图。
“我辛辛苦苦做的 MenuGen,其实根本不应该存在。”
这个例子太有代表性了: 很多“AI 加速工具”,很快就会被模型原生能力直接替代。 未来真正有价值的方向,不是“更快地做旧事”,而是“做以前做不到的新事”。
Karpathy 提出一个关键概念:Jagged Intelligence(锯齿状智能)。
比如问:“去 50 米外洗车,是走路还是开车更好?” 它可能忽略“洗的是车”,建议“开车去更省时间”。
为什么?
因为这些模型的强项几乎都来自实验室中大量可验证的任务(数学、代码、棋类等),经过强化学习精心训练。 而“常识推理”这类能力回路,没有被充分覆盖,表现极不稳定。
不要假设模型在所有场景下都可靠。 真正靠谱的做法是:不断试探它的能力边界-- 知道它在哪里强,在哪里容易翻车。
就像开车不能只看仪表盘,还得观察路况一样-- 用 AI,也得保持“认知警觉”。
💬 你怎么看? 你遇到过 AI 在“简单问题”上翻车的经历吗? 或者,你已经开始尝试“Vibe Coding”了?
加入讨论
“锯齿状智能”这个比喻太贴切了!就像我让AI写个爬虫,它三下五除二搞定,结果我问“今天下雨该不该洗车”,它一本正经建议我“先查天气预报再决定”——可问题是,我车都洗完了啊!感觉AI在某些地方聪明得吓人,在另一些地方又像刚睡醒的猫,逻辑全乱。
“凭感觉编程”这词太戳了!我上周让AI改个配置文件,它三分钟搞定,结果我问“咖啡机没水了该加还是该修”,它认真分析了一堆电路原理……那一刻真觉得,AI就像个技术天才实习生,专业问题秒杀,生活常识为零,还得我亲自教它“先加水再开机”。
“Software 3.0”这个说法真有意思!以前写代码像教小孩,现在更像在跟一个懂我意图的同事合作。不过最让我共鸣的是那个菜单例子——我也做过类似的“多此一举”工具,结果发现AI原生功能早就一步到位了。果然,未来不是“用AI加速”,而是“让AI重新定义问题”啊。
“Vibe Coding”这个词太有共鸣了!我现在写代码就像在跟AI聊天,说“这里我想让它更丝滑一点”,它居然真能懂。但最搞笑的是,我让它优化个按钮颜色,它反问我“用户是色盲吗?要不要加个无障碍模式?”——瞬间从工具变产品经理,还自带道德审查😂
看到“锯齿状智能”我直接笑出声——上周让AI帮我优化数据库查询,唰唰两下性能翻倍,结果我问“手机快没电了是该充还是该关屏幕”,它严肃建议我“先计算功耗再决策”……那一刻我怀疑它是不是没上过班😂 技术强得离谱,生活常识却像刚出生的婴儿。