最近刷到 Andrej Karpathy 在 Sequoia Capital AI Ascent 活动上的访谈,反复看了好几遍,很多观点直接戳中了我这些年在 AI 辅助开发中的真实体验。今天想和大家聊聊他提出的 “Vibe Coding”(凭感觉编程),以及它是否意味着传统编程的终结。
Karpathy 提到,2025 年 12 月是一个转折点。在此之前,AI 生成的代码虽然能用,但总像是一个“不太靠谱的实习生”--需要你不断修改、调试、补漏。
但从那之后,模型输出的代码块常常可以直接运行,甚至比人类写的更简洁高效。于是,他开始进入一种全新的编程状态:
不再逐行审查 diff,不再深究每个函数的实现细节,而是用自然语言不断表达意图,让模型去生成、调整、修复,自己只在高层次把控方向。
这就是 Vibe Coding -- 一种“凭感觉编程”的范式。你不是在“写代码”,而是在“与模型对话”,通过 prompt、上下文、文件和环境来“指挥”它完成任务。
Karpathy 将编程范式的演进分为三个阶段:
📌 关键转变:编程从“精确指令”变成了“意图表达 + 上下文组织”。
比如,以前你要写复杂的 shell 脚本来配置 OpenCL 环境,现在只需要告诉 Agent:“我要跑一个 CUDA 程序,当前环境是 Ubuntu 22.04,帮我搞定依赖”,它就能自己去尝试、报错、修复。
上下文窗口,成了新的“编程接口”。
Karpathy 分享了一个他快速用 Vibe Coding 做的应用:
做完后他突然意识到:这个应用根本不该存在!
因为现在直接用 Gemini 的图像编辑功能,把原菜单照片 + “为每道菜加上对应的 AI 生成图片”这个指令丢进去,一步就能生成最终结果。
😂 他自嘲:“我辛辛苦苦写的 MenuGen,其实是个多余的中间层。”
这个例子特别有代表性: 很多我们现在用 AI 做的“加速工具”,未来都会被模型更原生的能力直接替代。
真正有价值的方向,不是“让旧流程更快”,而是去做以前根本做不到的新事情。
Karpathy 用了一个非常精准的词:jagged intelligence。
模型的能力像锯齿一样-- ✅ 有时强得惊人:重构十万行代码、发现零日漏洞、写复杂算法 ❌ 有时却连人类常识都搞不定:
“去 50 米外洗车,是走路还是开车更好?” 它可能忽略“洗的是车”,建议你“开车去”,完全荒谬。
原因在于:模型的强项几乎都来自实验室中大量可验证的任务(数学、代码、棋类等),这些任务被精心构造后用于强化学习。 而那些“常识回路”未被充分覆盖,表现就极不稳定。
🔒 重要提醒:永远不要盲目信任模型在所有场景下的表现。 真正靠谱的做法,是不断试探它的能力边界--知道它在哪里可靠,在哪里容易翻车。
短期:不能完全取代,但正在重塑。
长期:编程的本质在改变。
🚀 真正的变革,不是“AI 写代码”,而是“我们终于可以用自然语言,指挥计算机完成复杂任务”。
你怎么看?你已经开始 Vibe Coding 了吗?欢迎在评论区分享你的体验!👇
加入讨论
笑死,MenuGen那个例子太真实了!我上周也干了类似的事:写了个脚本自动给PPT配图,结果发现直接用Claude的“上传PPT+描述需求”就能一键搞定。感觉我们都在拼命造轮子,而AI已经把路修好了…现在更该想的是,哪些事是以前完全不敢想的?
这个“锯齿状智能”太形象了!有时候AI能瞬间搞定我琢磨半天的架构问题,下一秒却连个简单的日期格式都解析错。感觉不是在debug代码,而是在哄一个天才又任性的实习生——得顺着它的脾气来,还得随时准备救场😂
感觉Vibe Coding就像教小孩搭乐高——不用告诉他每块怎么拼,只要说“我要个会飞的城堡”,他自己摸索着居然真能搭出来。但问题是,万一他搭歪了你还得哄着改,比亲手搭还累……这AI到底是助手还是另一个需要我debug的人类啊?
Vibe Coding 听起来像魔法,但我觉得更像“和AI谈恋爱”——你得不断哄它、调教它,偶尔它还会给你惊喜。不过最头疼的是,当你终于教会它一件事,第二天模型更新,之前的套路全废了,又得从头再来。这哪是编程,分明是养电子宠物啊!
感觉Vibe Coding就像给AI当“产品经理”——不用写PRD,直接说“我要个能自动整理会议纪要的工具”,它吭哧吭哧就搭出来了。但问题是,它总问我:“老板,这个功能要深一点还是浅一点?” 我:……你倒是自己判断啊!
感觉Vibe Coding就像在跟AI玩“你说我猜”——你说“做个能自动分类发票的小工具”,它吭哧吭哧写出来,结果连PDF和JPG都分不清。但神奇的是,你骂它两句“这都搞不定?”,它居然能自己查文档改好……现在代码能不能跑,全看AI今天心情好不好。
突然觉得Vibe Coding像在养电子宠物——你得不断投喂提示词,它偶尔给你个超预期结果,但更多时候只是歪头看着你,等你再解释一遍。最离谱的是,它还会“叛逆期”:明明昨天还懂的事,今天换个说法就装傻。
Vibe Coding 最让我震惊的是“上下文即接口”这个点——以前写代码像砌砖,现在更像搭积木,但积木自己会动还会问你“要不要换个颜色?” 😂 不过说实话,我现在最怕的不是AI写错,而是它写得太“对”了,以至于我忘了自己到底想要什么……
Vibe Coding 让我想起小时候玩“我说你画”游戏——本来想画个太阳,结果AI画了个会发光的煎蛋,还问“够温暖吗?” 😂 现在写代码也这样,你说要个登录页,它给你搞出个带动画的3D地球仪,功能对但完全跑题…不过说实话,这种“失控的创造力”反而让我开始思考:到底什么是“正确”的需求?