真正决定 AI 系统上限的是什么?

在过去两年里,大模型领域诞生了一个极具迷惑性的词汇:Prompt Engineering(提示工程)。

开发者们执着于研究各种模板、咒语和话术,试图通过微调几个形容词来挖掘模型的潜力。大家潜意识里认为,只要 Prompt 写得足够巧妙,模型就能像被点化的天才一样解决所有问题。

但当你走出实验室,试图构建一个真正解决业务问题的生产级 AI 系统时,你会撞上一堵无形的墙。你很快会发现,绝大多数糟糕的输出并不是因为 Prompt 写得不够华丽,而是因为模型处于信息真空状态。

决定 AI 系统上限的,从来不是你如何对他说话,而是他在说话那一刻,手边掌握着什么信息。

一、Prompt 工程的隐含前提正在坍塌

Prompt 工程背后隐藏着一个很少被质疑的假设:模型已经预装了完成任务所需的所有知识,我们要做的只是通过指令把它“钩”出来。

这个假设在写诗、润色文案或回答常识性问题时是成立的。但在复杂的现实场景中,这个前提极其脆弱。

现实世界的任务往往包含:碎片化的外部文档、实时更新的数据库、带有状态的业务逻辑以及多轮对话的复杂背景。在这些场景下,模型表现出的“笨”往往不是智力缺陷,而是信息断层。

如果把大模型比作一台计算机,Prompt 只是启动指令,而上下文才是它赖以运行的内存。

你让一个没有访问权限的模型去分析最新的财报数据,无论你加多少句“请深呼吸”或“一步步思考”,它也只能在幻觉中挣扎。因为模型不是在凭空创造,它是在你划定的知识边界内进行信息的重组与推理。

二、从“怎么说”转向“给它看什么”

Andrej Karpathy 曾指出,我们应该将视角从提示语转向上下文。当我们跳出“语言技巧”的陷阱,从工程角度重新审视时,问题会变得非常清晰:

模型的输出质量,本质上取决于它在决策瞬间能观察到的上下文质量。

这种视角的转变意味着,我们不再纠结于“这句话该怎么写得更聪明”,而是开始思考“在这个时间点,模型最需要看到哪些精准信息”。

一个完整的上下文集合,远比一段文字描述复杂得多。它包含了任务的约束边界、当前系统的状态快照、检索到的外部知识片段以及工具调用的中间反馈。

提示语只是这个集合的引子,而上下文才是真正的能量来源。

三、上下文工程的核心是“精炼”而非“堆砌”

在意识到上下文的重要性后,很多开发者会走向另一个极端:为了给模型提供足够的信息,将所有能拿到的文档、数据一股脑地塞进 Context Window。

结果往往适得其反。这就是业界常说的“Lost in the Middle(中间迷失)”现象:当输入信息过多且冗余时,模型的注意力会被稀释,关键信息会被淹没在噪音中,导致推理性能大幅下降。

上下文工程的核心不是“喂信息”,而是“筛信号”。

一个成熟的上下文管理系统需要解决极其硬核的工程问题:
哪些信息对当前任务是必要且充分的?
如何在高频的对话中保持上下文的连贯与压缩?
在有限的 Token 预算下,如何保留信息密度而非信息总量?

多余的数据是干扰,精准的数据才是信号。

四、从“手艺活”到“工程学科”的跨越

Prompt 工程更像是一种充满偶然性的手艺,它依赖经验、强依赖试错,且难以在不同模型间平移。而上下文工程则是一门严谨的工程学科。

当你开始关注上下文工程时,你的关注点会发生质的变化。你不再关心某个词是否要加粗,而是开始关心:
检索增强生成(RAG)的链路是否足够高效?
当检索结果不佳时,系统是否有自动的退避与补救机制?
不同的 Agent 是否被分配了符合其权限的差异化上下文?

Prompt 是一种调优技巧,而上下文工程是一套系统架构。

这种转变标志着 AI 应用开发正从“玄学调优”走向“架构设计”。真正拉开产品差距的,不再是那几句保密的咒语,而是背后支撑模型运行的、持续且精准的信息供应链。

五、一个判断标准:你的问题出在哪一步?

这里有一个实用的方法来诊断你的 AI 系统:

如果模型的错误源于逻辑混乱、语气不当或理解偏差,那可能是 Prompt 的问题。
如果模型的错误源于它“不知道”某些关键事实,或者在处理复杂数据时丢失了细节,那一定是上下文工程的问题。

而在真实的业务场景中,后者占了绝大多数。

模型不是不会推理,而是你没有给它提供推理所需的原材料。

结语:Prompt 会被弱化,但上下文只会越来越重要

随着模型推理能力的进化,它们对自然语言指令的容错度会越来越高。未来的模型会越来越不需要人类去精雕细琢每一条指令。

但上下文的重要性只会持续攀升。因为世界是动态的,业务是私有的,任务是有状态的。

最终,决定 AI 生产力上限的,不是那句“神来之笔”的 Prompt,而是你为模型构建的、能够实时映射真实世界的上下文系统。

在这个时代,最好的 Prompt,就是让模型根本不需要被反复叮嘱。

如果觉得内容不错,欢迎你点一下「在看」,或是将文章分享给其他有需要的人^^

相关好文推荐:

AI代理的上下文工程

AI的第一性原理是什么?

理解 LSTM 网络 | Ilya Sutskever’s Top 30 Reading List

循环神经网络不合理的有效性 | Ilya Sutskever’s Top 30 Reading List

复杂动力学第一定律 | Ilya Sutskever’s Top 30 Reading List

赋权于民:大语言模型如何逆转技术扩散的范式 | karpathy

软件 2.0 | karpathy

心智的空间 | karpathy

“通用智能根本不存在”?Yann LeCun 与 Demis Hassabis 正面开撕

可验证性 | karpathy

动物 vs 幽灵 | karpathy

2025年 LLM 年度回顾 | karpathy

让 AI 真正拥有“长时记忆”的开端

聊一聊OpenAI新发布的Apps SDK
苦涩的教训

0条留言

留言