想想你的手机。当它没有网络信号时,能做什么?
你还可以打开相册看照片,打开备忘录看之前记的东西,打开单机游戏玩一会儿。一台不联网的智能手机仍然是一台功能强大的小型计算机——只是它的"能力范围"被限制在了本地存储的那些数据之内。
但一旦连上网络,手机就完全不同了。你可以搜索任何问题,可以访问全世界的信息,可以和任何人视频通话,可以点外卖、叫车、挂号、转钱。手机还是那台手机,但因为有了连接,它的能力边界扩展了不止一个数量级。一台不联网的手机可以满足你 5% 的需求;一台联网的手机可以满足你 95% 的需求——差距不是来自硬件,而是来自连接。
这个类比可以用来理解 AI 模型的工作原理。
一个训练好的 AI 模型,就像一台没有联网的手机。它"知道"的东西,仅限于它在训练时"见过"的数据。你问它一个问题,它的回答只能来自它内部的参数——那些从数十亿文本中学习到的模式。
这解释了 AI 的一些典型行为:
原因不是它笨,而是它"没联网"。它的知识是静态的、有截止日期的。这个限制在工作中的实际影响比你想象得更大——你问 AI "帮我分析一下这个新版本 SDK 的迁移成本",如果它训练数据里没有这个版本,它只能根据"上一个版本"来推断,分析结果可能完全不准确。
现在,很多 AI 工具已经支持联网搜索了。当 AI 能访问互联网时,它的能力会像手机连上网络一样扩展。
它可以从文档网站读取最新的 API 文档来回答你的问题,可以从 GitHub 上查到一个仓库的最新情况,可以访问实时数据来计算答案。这和"离线模式"下的能力差了好几个级别。
在 Vibe Coding 中,善用这个特性可以让你的效率翻倍。让 AI 查阅最新的库文档而不是依赖训练数据中的旧知识,它给出的代码会更准确、更新。
但联网搜索也不是万能的。它有四个现实问题需要你了解:
第一,联网搜索不是"AI 变聪明了",而是"AI 有了实时参考材料"。 AI 仍然根据自己的理解来生成回答,只是它参考的文档是最新的。如果你让它读的文档本身质量差(比如写得不清不楚的 API 文档),它的回答质量也会受影响。
第二,联网搜索消耗的 Token 更多。 因为它要把搜索到的网页内容也读一遍,这些内容都会作为输入 Token 计入成本。在一次复杂的编程任务中,联网搜索可能让单次对话的 Token 消耗翻倍。
第三,AI 的联网搜索不是"搜到就能用"。 它搜到的东西可能是错误的、过时的、或者不相关的。你需要对 AI 从网上获取的信息保持一定的判断力。AI 不会主动告诉你"这段文档可能是错的"——它倾向于把搜到的东西当作事实来使用。
第四,有些合作工具不会自动联网。 比如 Claude Code 默认不联网搜索,你需要明确告诉它去查阅某个 URL。在实际开发中,你可以手动把最新文档的 URL 发给 AI,效果比让 AI 自己搜索更精准。
我在这一章开头用这个类比,是因为后面的几个核心概念——Token、上下文窗口、成本——都可以用"手机流量"的比喻来理解。这不只是一个有趣的开场,它是你理解后面所有细节的思维模型。
所以当你读到下一节"Token 是什么"的时候,记住手机的启示:AI 的能力 = 本地能力(模型参数)× 联网能力(上下文和工具)。 两者缺一不可。
更展开地说,这个公式在实际使用中意味着:
在 Vibe Coding 的实践中,更好的本地能力意味着你"说一次"就能得到正确的结果。更好的联网能力意味着你的"专属问题"也能得到正确的回答。前者靠模型本身的进步,后者靠你如何给 AI 提供上下文。你可以通过自己的努力大幅改善后者——这正好是下一节要深入的话题。
问 AI:
"请回答两个问题。第一个:'你能实时访问互联网吗?你的训练数据截止到什么时候?' 第二个:'如果我给了你联网搜索的权限,我的编程体验会在哪些方面变得不同?'"
然后追问第三个问题——"请给我一个具体的例子:一个在离线模式下你会犯错、但在联网模式下能正确完成的编程任务。"这个追问能帮你把"联网"这个抽象概念变成具体的实操场景。