07 | 告别 Prompt 工程:AI 时代的人机协同新范式

当谷歌 Gemini 2.5 用一句 "分析 2025 年新能源汽车产业链的 ESG 风险传导路径" 完成传统团队需要三页结构化提示词才能生成的动态风险模型时,一个无可辩驳的趋势已然成型:Prompt 工程正在退居历史舞台。

那些曾被奉为圭臬的 "角色设定 + 格式约束 + 逻辑链引导" 的精密话术,就像胶片时代摄影师在暗房里调试显影液浓度的独门绝技 —— 当数字相机的自动优化算法能瞬间产出专业级成片时,这种繁复的手工技艺便只剩下怀旧价值。

我并不是在呼吁不学prompt了,只是说够用就行,如果你都还没听说过prompt,那这篇文章你可以延后阅读了。我只是认为,我们没必要在殚精竭虑地日益求精打磨prompt了,你应该跳出 "如何说" 的桎梏,转向 "如何做" 的本质突破。

一、从 "编程式指令" 到 "对话式共创":交互逻辑的根本转变

传统 Prompt 工程的底层逻辑,是把 AI 当作需要精确编码的机器。

人们研究如何用 "扮演角色 + 限定框架 + 输出格式" 的三段式话术框定 AI 行为,就像给打字机装上特制键盘。但 o3、DeepSeek R1 等新一代模型的出现,彻底颠覆了这种交互范式 —— 它们不再是被动执行指令的工具,而是具备上下文理解能力的协作伙伴。

面对o3,仅仅给出 "分析俄乌战争前景" 的模糊指令,模型就会自动启动多轮推理:先梳理战场态势、外交动向、经济数据三条线索,再调用开源情报验证关键节点,最终生成包含 60% 概率主剧本和 40% 风险岔路的推演报告。

这个过程中,没有复杂的提示词设计,却比精心撰写的 Prompt 获得更立体的结论。这印证了一个新规律:模型智能度达到临界点后,开放式任务比封闭式指令更能释放潜力。

这种转变要求使用者具备 "导演思维" 而非 "程序员思维"。

就像李安拍摄《少年派的奇幻漂流》时,不会给老虎演员写好每一个动作指令,而是搭建场景让其自然呈现状态 —— 与 AI 协作时,你需要的是设定核心目标,而非规定思考路径。某科研团队用这种方式让 o3 设计实验方案,模型自动引入跨学科视角,提出了三个人类研究者从未想到的创新思路。

屏幕截图 2025-08-18 205044.png

二、迭代:在 "不完美" 中逼近最优解

放弃对 "一次到位" 的执念,是超越 Prompt 工程的第一道门槛。

万维钢老师举过一次应用案例。GPT-4.5 在生成科幻小说时:初始版本仅用 300 字勾勒 "量子回声" 概念,经过 "情节过于简单"" 不够震撼 ""不像大师作品" 三次递进式反馈后,最终迭代出 1.3 万字、融合刘慈欣叙事风格与哲学思辨的成熟文本。

这个过程中,万sir并没有提供任何技巧性提示,只是持续传递审美判断。

迭代的核心价值,在于将人类的模糊直觉转化为 AI 可理解的修正信号。

北京一位投行分析师的实践更具说服力:他让 AI 撰写行业报告时,第一次反馈 "数据维度不足",第二次指出 "竞争格局分析流于表面",第三次要求 "加入 ESG 风险的非线性影响",经过五轮互动,最终输出的报告被高盛引用 —— 而最初的 Prompt,不过是 "分析 2025 年新能源汽车产业链" 这十个字。

这种工作方式暗合创业领域的 "最小可行产品" 理念:

先让 AI 产出基础版本,再通过 "指出缺陷→明确方向→补充信息" 的循环持续优化。与 Prompt 工程相比,迭代的优势在于适应动态需求 —— 当你自己都不清楚最终目标时,精密提示只会框死可能性,而迭代能在探索中逐步明晰方向。就像雕刻家不会一开始就确定每一刀的角度,而是在石头与刻刀的互动中逐渐显现作品形态。

三、追问:挖掘 AI 智能的 "暗物质"

如果说迭代是横向扩展,追问则是纵向深挖的利器。

有效的追问需要掌握 "三阶穿透法"

第一层追问事实细节("这个数据来源是什么"),第二层追问逻辑链条("为什么从 A 能推导出 B"),第三层追问底层假设("如果颠覆这个前提会怎样")。

深圳一位律师用此法让 AI 分析合同漏洞,从最初的表面条款审查,逐步深入到行业潜规则、司法判例倾向甚至对方谈判策略的预判 —— 整个过程没有使用任何法律领域的专业提示词,仅靠持续追问便让 AI 展现出专家级洞察力。

追问的本质是激活 AI 的 "系统 2 思维"。

传统 Prompt 试图一步到位调动模型能力,而追问通过制造认知冲突,迫使 AI 进入深度推理状态。就像苏格拉底的提问法,通过不断提问让真理自行显现。当你问 "这个方案有什么风险" 时,AI 可能敷衍几句;但当你追问 "如果出现黑天鹅事件,第三环节会如何崩溃",模型就不得不调用全部知识库构建危机推演模型。

四、个性化:让 AI 成为 "另一个你"

ChatGPT 的记忆功能带来了范式革命:当模型能记住你过去三个月的对话偏好 —— 你对经济学的奥地利学派倾向、你反感的学术黑话、你关注的环保议题 —— 时,千篇一律的 Prompt 就失去了意义。

构建个性化交互的关键在于 "信息投喂":不仅要告诉 AI 你的身份,更要传递隐性偏好。

比如上海一位班主任的实践颇具创意:她持续让 AI 批改学生作文,同时反馈 "这个评语太生硬,要像鼓励朋友那样",两周后模型给出的评价不仅精准指出语法问题,还能模仿她的口头禅 "这个比喻像星星一样亮"。

这种个性化最终会形成 "认知共生" 关系。就像常年搭档的编剧与导演,无需过多言语就能默契配合 —— 你刚提出 "分析乡村振兴",AI 就会自动关联你之前关注的 "非遗产业化" 案例;你质疑某个结论时,它会用你习惯的 "用数据说话" 方式进行辩解。当 AI 对你的认知模式的理解超过你自己时,Prompt 就成了多余的中介。

五、人的不可替代性:AI 时代的 "稀缺性公式"

尽管 AI 能生成完美文本、设计实验方案、甚至创作诗歌,但有三个领域始终是人类的专属领地。本地情境的掌握便是其一:企业用 o3 分析市场策略时,模型给出的方案看似完美,却忽略了当地经销商的潜规则 —— 直到创始人补充了 "张老板每年要在订货会摆三桌茅台" 的细节,AI 才调整出可行策略。

承担责任的勇气更为关键。 当医生面对 AI 给出的治疗方案时,最终签字的仍是人类 —— 这种 "风险背书" 能力在法律、金融等领域尤为重要。就像船长不会让 GPS 决定航线,真正的决策者必须在 AI 的建议中注入伦理判断与担当精神。

最核心的稀缺性,则是提出 "好问题" 的能力。

在 AI 能回答一切的时代,提问的价值反而凸显。就像爱因斯坦所说:"提出一个问题往往比解决一个问题更重要"—— 当你能问出 "如果城市像生命体一样呼吸,交通系统该如何设计" 时,AI 的创造力才能被真正激活。这种提问力,源于对世界的好奇心、对本质的洞察力,正是机器难以企及的人类特质。

结语:从 "驾驭工具" 到 "培养伙伴"

回望 Prompt 工程的兴衰,本质是人与 AI 关系的进化史。当模型智能还处于 "弱人工智能" 阶段时,精密指令是必要的;但当 AI 进入 "通人性" 的新境界,协作方式就必须升级。就像驯马师与骑手的区别 —— 前者用缰绳控制马匹,后者则通过默契共同抵达远方。

未来的 AI 高手,会像园丁培育植物那样对待智能体:提供阳光(明确目标)、浇水(持续反馈)、修剪(及时纠错),却从不去规定每片叶子的生长角度。在这种关系中,人类的价值不再是控制,而是引导 —— 引导 AI 的智能向着更契合人类需求的方向生长,最终实现 "1+1>2" 的认知跃迁。

这或许就是智能时代的终极协作哲学:不是比机器更聪明,而是比任何人都更懂如何与机器共舞。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容