我经常听到学员抱怨:“我写了那么多提示,AI 怎么还是答非所问?”别急,这不完全是 AI 的问题。很多时候,问题出在提示词本身。

今天,我结合自己制作AI智能体以及使用AI的踩坑经历,总结出给AI发送提示词的5 个常见误区,并且每个都配了真实案例(错误写法 vs 正确写法),再结合一点原理来解释为什么会这样。希望你读完之后,能少走弯路。
误区一:所有东西都堆到系统提示词里
这是我最早踩的坑。当时觉得:system 是“总指令”,那我就一股脑把所有要求都塞进去。结果可想而知——模型经常跑偏,甚至把旧任务和新任务混在一起。
错误案例:【System】你是科研助手。请写白洋淀生态补水的研究大纲,顺便转成JSON格式,再写一篇 800 字综述……system (系统提示词)是“长期规则”,就像定公司制度。你把临时任务塞进去,就等于每天都要员工同时背着“制度”和“任务”,结果混乱。
system (系统提示词)只放角色、风格、边界,user(用户提示词) 负责当前任务。分工明确,AI 在概率生成时少了冲突,答案更稳定。
误区二:用户提示词写得太模糊
这点我深有体会。有次我只写了一句:“帮我写点关于环保的东西”。结果 AI 给我写了一篇空洞的套话,看上去很有道理,但是没有任何营养的空洞的“玩意儿”,对于我完全没法用。
后来我才明白:“模糊”就是没有告诉它具体要干什么、怎么干。
其实想要理解这一点,需要理解AI 的工作原理,AI的工作原理是基于概率预测(感兴趣的可以让多个AI帮你产生以下随机数,多数会出现27或者37)。
如果指令不清晰,它会从庞大的可能性里随便“抓”一条路走,结果往往不符合预期。
如果加上“要点数、字数限制、输出形式”,就像给学生出题时附上“写五条,每条不超过一句话”。范围越清楚,答案越靠近你的需求。
误区三:一次让 AI 干太多事
我们以前常犯的错是“贪心”。比如一句话里要求它:先写综述,再出大纲,还要画对比表,最后转成 JSON。AI 表面答应了,但结果就是四不像。
这就像你让一个人同时做饭、洗衣服、开会,结果每件事都半吊子。
错误案例:多目标容易冲突。AI 在生成时不知道哪个优先,往往各做一点,结果质量下降。
拆分任务,就像流水线生产,一步一步来,每步都可检查。原理上等于缩小模型的“搜索空间”,错误更少。
误区四:不给输出格式
我想让 AI 总结一份报告,结果它写成了一篇散文。我根本没法拿去用。
后来我试着加一句:“请用表格形式输出”,结果一贴到 Excel,直接能用。
无格式输出=自由发挥。结果长短不一,层次混乱,不利于二次加工。 明确格式,让结果可直接落地。原理上是“约束输出空间”,让 AI 优先选择符合框架的词序列。
误区五:没有边界意识
记得有次有人调侃:“让 AI 给我写个诊断书”,结果 AI 真的一本正经写了。这其实很危险。因为你没告诉它:哪些内容不能碰。
AI 不会自己判断,它只会“迎合指令”。
没有边界就容易“乱答”,甚至涉及敏感领域,风险极高。
边界是“护栏”,能避免幻觉和违规。原理上,这等于提前在提示里把“不允许的路径”剪掉,让 AI 生成更安全。
下次当你觉得 AI“不听话”,先问问自己:是不是提示写得太模糊、太贪心、没格式、没边界?只要规避这些坑,AI 的输出会乖得让你惊讶。
— 关于作者 —
我是七木,我有一套关于 AI 智能体学习的课程。欢迎关注我可以获取到这些资料。
扫码限时免费加入知识星球、更多文章、pdf/视频资料免费分享