第八章 · 从Vibe-Coding到Vibe-Learning

8.5 培养"Vibe 直觉"

本节最后更新:2026-05-12
验证环境:无(纯理论章节)

什么是"Vibe 直觉"

Vibe 直觉是一种"第六感"——你不再需要刻意思考也能判断 AI 正在输出的东西对不对。

刚开始使用 AI 编程时,你可能会怀疑 AI 的每一行代码。"这段代码真的对吗?它不会在某个地方埋了一个 bug 吧?"你逐行检查,不信任任何一段 AI 写的代码。这种感觉很正常——就像你第一次让一个陌生人帮你自己做重要的决定,你一定会反复确认。

后来你开始信任 AI 但偶尔还会翻车。"大部分时候是对的,但上次它在这个地方写过错的,这次要小心。"你的信任建立在经验的基础上——你知道 AI 在哪些场景下值得信任,在哪些场景下需要留意。

再后来,AI 开始生成代码时你就有一种感觉——"这里好像不太对"——然后果然那一段里面有 bug。这种感觉不是你逐行分析出来的——它是瞬间的、直觉性的。你一看那行代码,就觉得"不对劲",然后仔细一看——果然有问题。

这种感觉就是 Vibe 直觉。它来自于大量 Vibe Coding 实践经验积累的模式匹配。你见过 AI 在哪些地方容易犯错,见多了,就知道在哪些场景下需要特别注意。你的大脑在无意识中建立了一个"AI 错误模式库"——当 AI 的输出匹配了某个已知的错误模式时,你的直觉就会发出警报。

识别 AI 的"胡说"

AI 的"胡说"(幻觉)不是故意的——它是模型在生成时概率性地选择了不正确的路径。了解 AI 最常见的错误模式,是培养 Vibe 直觉的第一课。

模式一:虚构的 API。 这是最常见的 AI 幻觉。AI 说出一个听起来合理的库名、函数名或参数,但实际上不存在。

例如:AI 可能写了一个 fs.renameFile()——但 Node.js 的 fs 模块根本没有这个方法,正确的方法是 fs.rename()。外表看起来和真的 API 很像——rename 这个词是对的,但加上了 File 后缀,变成了一个不存在的方法。

另一个例子:AI 用了一个叫 react-use-modal 的库——你搜索后发现根本没有这个库,但有一个类似名字的 react-modal。AI 把真实存在的库的名字和功能做了"拼接"。

如何识别: 当你看到一些"听起来合理但不太确定"的 API 调用时,在脑子里标记一下。如果后续运行时报错"方法不存在"——这就是虚构 API。

如何应对: 告诉 AI "这个函数不存在,请检查真实 API 文档并修正"。通常 AI 会道歉并使用正确的方法。

模式二:过时的知识。 AI 的训练数据截止日期是哪一天,AI 就只知道那一天之前的东西。如果你问的是这个日期之后发布的工具或功能,AI 会尝试用接近的知识拼凑一个看起来合理的答案——但大概率是错的。

例如:你在 2025 年问 AI "如何使用 Next.js 15 的某个新特性"——如果这个特性是在 AI 训练数据截止日期之后发布的,AI 可能会用 Next.js 14 的类似功能来替代,或者直接编造一个不存在的 API。

另一个例子:AI 告诉你用 createReactApp() 来创建一个新的 React 项目——但在 2024 年,官方推荐已经变成了 create-vite。AI 的知识停留在几年前的"最佳实践"上。

如何识别: 如果你问的是一个新技术或者新版本的功能,保持警觉。AI 给出的方案可能基于旧版本的知识。

如何应对: 告诉 AI "这个项目用的版本是 X,请确认你给的 API 在这个版本中可用。如果不确定,请告诉我你的知识截止日期。"——让 AI 暴露它的不确定性,而不是假装一切都对。

模式三:在复杂的逻辑上"抄近路"。 当需求逻辑比较复杂(多条件判断、嵌套状态、异步流程),AI 倾向于用一种"看起来说得通但实际有漏洞"的方式来实现。它可能在正常的路径上表现良好,但在边界条件下暴露出问题。

例如:你让 AI 实现一个"表单验证"功能——要求检查邮箱格式、密码长度、确认密码是否一致。AI 生成了一个验证函数,看起来逻辑完整。但你测试时发现——邮箱格式检查通过了一个明显不合法的地址(如 "test@test" 没有顶级域名),密码长度检查在空字符串时没有报错。

AI 在"正常情况"下的路径跑通了,但在"边界情况"下的处理有漏洞。这不是 AI 故意偷懒——而是因为复杂的逻辑涉及太多分支条件,AI 的概率性生成机制不可能覆盖所有分支。

如何识别: 在"逻辑复杂"的场景下(多条件判断、异步流程、状态转换),对 AI 的输出保持更高的警惕。不要只看正常路径是否跑通,要想一下"边界情况会怎样"。

如何应对: 明确要求 AI "请特别注意边界情况:空值、异常值、极端值"——或者在测试时主动用边界情况做测试。

模式四:自信地给出错误答案。 这是最难识别的——AI 用完全自信的语气表达了一个错误的答案。因为模型的训练数据中充斥着"肯定的表达",它学会了用同样的语气说话,不管答案是对是错。

例如:你问 AI "Python 的 append()extend() 有什么区别?"——AI 自信地解释:"append() 将一个元素添加到列表末尾,extend() 将另一个列表的所有元素添加到当前列表末尾。" 这是对的。

但你问一个 AI 训练数据中覆盖不充分的问题——"你能解释一下 Rust 的 borrow checker 在异步上下文中的限制吗?"——AI 开始自信地解释,但如果你仔细检查,会发现它的一些说法是错的,或者过于简化了复杂的概念。

如何识别: AI 用极度自信的语气说话时,不代表它是对的。对于那些你不太了解但感觉"这听起来太简单了"的答案,保持怀疑。

如何应对: 让你对 AI 的输出做"交叉验证"——对于重要的信息(特别是涉及安全、性能、架构决策的),让 AI "提供官方文档的链接或引用来源"。如果 AI 无法提供可靠的引用,它的答案可能不完全正确。

如何在复杂需求中保持主线

随着你做的项目越来越复杂,还有一个更现实的挑战:怎么在和 AI 的多轮对话中不偏离最初的目标。

一个常见的场景:你开始一个对话,目标是"做一个博客系统的文章管理功能"。10 轮对话后,你和 AI 已经在讨论"要不要加一个标签云"、"评论系统的审核流程怎么设计"、"文章的 SEO 标题怎么自动生成"。你突然发现——最初的目标"文章管理"才做了一半,你已经被带偏了。

这不是 AI 的问题——AI 只是在你每次提出新想法时积极响应。你需要自己保持主线。

技巧一:高频确认。

每完成一个子任务,让 AI 帮你总结一下当前的进展和下一步计划。这能确保双方对"我们在哪"的认知一致。

具体做法:在每个功能点完成后,说"总结一下我们做了什么,下一步要做什么"。AI 会给出一个简短的状态更新。你发现"哦,AI 理解的下一步和我预期的不同"——立刻纠正,而不是等到 AI 做错了再回头。

技巧二:把大需求拆成小提示。

与其一次性告诉 AI "帮我做一个小型 CRM 系统"——这太大了,AI 生成的代码一定会有很多你不需要的东西——不如拆成 "先做客户列表页面" → "再做添加客户表单" → "再加搜索功能"。每一步都在控制范围内。

这样做的另一个好处是:即使 AI 在某个步骤上出了问题,损失也被限制在那一小步内。你不必为一个"整个 CRM 系统"的错误输出而沮丧。

技巧三:做决定的时候,不要急着让 AI 代劳。

当遇到一个关键设计决策时——"用户数据存在哪?用 SQLite 还是 PostgreSQL?""认证方案用 JWT 还是 Session?"——先停一下,问 AI 给你分析它们的区别,然后你来做出选择。

主动决策,而不是被动接受 AI 的默认选择。因为 AI 的默认选择不一定是适合你的——它可能基于"最常见"的用法,而不是"最适合你当前项目"的用法。

技巧四:设定"边界规则"。

在对话开始时,告诉 AI 一组"边界规则":

这些边界规则帮助 AI 保持在自己的轨道上,不会擅自扩展范围。

Vibe 直觉可以刻意练习

最后,Vibe 直觉不是"天生的"——它可以刻意练习。就像音乐家的"绝对音感"是通过训练获得的,Vibe 直觉也是通过大量有意识的练习形成的。

练习方法一:每次 AI 犯错时,记录它犯错的"类型"。

是 API 名称写错了?(模式一:虚构 API)是用了过时的语法?(模式二:过时知识)是逻辑有漏洞?(模式三:抄近路)还是自信地给了错误答案?(模式四:自信胡说)

你不需要真的记笔记——在脑子里标记一下就行。做了 10 次这样的标记后,你会发现自己的大脑开始自动识别这些模式。

练习方法二:在读 AI 的输出前,先预测它会犯什么错。

在你发出一条提示词,等待 AI 回复的间隙——这通常有几秒到十几秒的时间——先在脑子里预测:"在这个问题上,AI 最可能犯什么类型的错误?"

如果预测对了(AI 确实犯了那类错误),你的识别能力就得到了验证。如果预测错了(AI 完美回答了),你也知道了"原来在这个问题上 AI 已经能处理得很好了"。

练习方法三:做"Vibe 检查"。

在你和 AI 的每一段回复中,养成一个习惯:在读完回复之前,先问自己一句:

"这里我有没有觉得哪里不太对?"

哪怕你没有发现任何问题,这个习惯本身就训练你的 Vibe 直觉。你在刻意思考"哪里可能不对"——即使什么都没发现,你也在强化自己的警觉性。

当你发现自己能预测"AI 在这类问题上大概会犯错"时,你的 Vibe 直觉就已经形成了。它不再是刻意的分析——而是一种自动化的判断,一种"第六感"。

练习的频次和效果:

这就是从"新手"到"直觉高手"的路径——不是靠天赋,是靠有意识的练习积累。

本节要点
Vibe 练习

在你和 AI 的下一段对话中,有意识地做一件事:

每段 AI 的回复,在读完之前,先问自己一句:"这里我有没有觉得哪里不太对?"——哪怕你没有发现任何问题,这个习惯本身就训练你的 Vibe 直觉。

然后做一个"错误类型练习":

回顾你最近和 AI 的 5 次交互,尝试把 AI 犯过的错误(如果有的话)归类到本节提到的四类错误模式中:

1. 虚构的 API

2. 过时的知识

3. 逻辑抄近路

4. 自信胡说

如果你发现 AI 没有犯过任何错误,就在下一个对话中主动做一些"测试"——问 AI 一个边界比较模糊的问题,看看它的回答是否完全准确。

当你能够迅速判断"AI 正在犯第几类错误"时,你的 Vibe 直觉就已经形成了一半。剩下的一半,是在实际项目中用这种直觉来指导你的决策——"这里 AI 可能有问题,我需要仔细检查"或者"这里 AI 通常靠谱,我可以放心让它去做"。