知识点一:向AI提问的高阶技巧
今天的AI模型就是一个精通无数门学科而且知识体系化的专家。尽管这位专家自己并不具备主动学习的能力,但客观上说,AI模型那已经是知识领域的“圣人”了。
从前向搜索引擎提问,得到的答案质量如果是60分的话,那今天问AI模型得到的结果通常质量是90分,而且效率至少高了5倍以上。所以,对普通人来说,有问题,以你自己的方式问给AI,就已经可以得到足够好的答案了。
更好的知识,从AI模型的理论上说,其实是用更好的笊篱从知识分布的海洋里把它捞出来而已。
介绍一些进阶的提问模式,帮助你了解怎么设计更好的笊篱,在知识分布的海洋里捞出更高质量的答案。
把方法分为“高阶方法1.0”和“高阶方法2.0”,先说1.0版本的高阶方法。
高阶方法1.0
1. 反复追问,拉长对话链条
如果这个问题是一个值得讨论的话题,那么只要是这个话题相关的内容,你就把它在一个对话链条里,不断地针对AI的答复继续深入提问。当对话链条拉得很长,比如来回8个回合以上,你对这个专门话题的了解,就已经超过了绝大部分的科普者。
2. 提高单次提问的信息密度
你不要只问最简单的问题。一个复杂的问题想获得精准的答案,你应该包含多重的子问题,设置假设、设置边界条件、设置输出格式。
比如,你真实的目的是想对比一下,过去40年,中国和日本在科学成果上谁高谁低。你如果直接这么问,当然会得到很多结果。但我们因为对世界是有基础了解的,我们也不希望模型去看很多很水的文章,然后引用里面的内容回答你。
于是,你可以把这次提问的信息密度拉满。怎么拉满呢?举个例子,给AI的提示是这么写的:
请你在数学、物理、化学、生物、医学这5个领域里,分别找出每个领域中,学界认可度最高的5个奖项。然后分析每个奖项最近40年来获奖者的“学术国籍”是什么。如果奖项颁发不足40年,那么就完整统计这个奖项的所有颁奖历史。“学术国籍”指的是做出科研成果的科研资金的归属国,所以,有可能会出现科学家的国籍和“学术国籍”不一致的情况。然后,请你帮我仔细对比中国和日本在以上逻辑框架里,最近40年的科学成果的数量和质量。结论里要包含表格,以方便展现。
这就是我的提示词。
这里有多重的子问题。因为模型需要挨个分析5个学科领域里最出名的5个奖项是什么,还需要看奖项的具体内容,分析奖项的学术国籍,才能统计归纳。
而且这里提出了一个新的假设叫做“学术国籍”。
设置的边界条件就不是漫无边际的学术论文了,而是学术水平里最高的那一部分。
最后,我还强调了“结论里要包含表格”,我定制了格式。
于是,一个问题的信息密度就这样被拉到了极致。
你要有信心,今天绝大多数的最新模型的上下文长度都有200K token左右。比如,以GPT-5为例,官方给出的对话上下文规模是196K。如果按一个汉字一个token大致去算,也就是20万字的规模。那么在图书编辑里,纯20万字的内容如果编辑成书,最后你在出版书的信息页看到的这本书的字数,其实就是30万字的规模了。30万字的书其实已经有300多页了。
所以,你不必担心,多轮对话会突破上下文的长度上限,更不要担心,你输入的问题信息密度太高,其实离上限还远得很。统计自己和GPT-5的追问,追问到实在不想问的时候,最多也就是三万字不到。
以上两条适用于所有对AI的提问,会让你的答案质量大幅增加。如果你每个问题都是这样问的话,你这样的用户在整个大模型用户中,可以位列前1%的水平,也就是,如果大家获得的答案质量有好坏不同的分布的话,你得到的基本就是质量排名最高的1%。
高阶方法2.0
高阶2.0方法,会让你获得的答案质量排在前1‰的水平,举几个例子:
1. 预设逻辑格式提问
什么意思呢?就是在问题里,把你的先验知识,你需要的判据、证据等级、否决标准都给列出来,然后让模型严格按照这个逻辑格式回答。
比如,某一个科研机构发布的成果说,某一个变阻器做出的存储器模拟矩阵芯片,今天已经超过英伟达(NV)的GPU的效能1000倍了,那这个研究突破到底是什么水平呢?
你只简单地问大模型,那他给出的结论,肯定不在你能理解的关于学术成果的评价体系里,结果最后你还是不知道这个成果到底有多牛。
那么就可以给大模型预设逻辑格式:
首先,你把论文扔给他,然后问,我要了解这个成果在计算方面的突破的程度。先评估学界对这个成果的评价,再统计类似评价度的成果在计算领域全球每年大约会产生多少个。最后再帮我评估,类似这样级别的成果,有多大概率在未来10年内的计算机中使用。
然后再设一个等级。第一个级别是使用这个技术制成了商品就算数。第二个级别是使用这项技术的计算产品成为今后通用计算设备里的主流部件那才算数。然后让大模型去评估。
因为你对“一个科研成果是不是重大”,感受最深的就是,它后来是不是在我家里出现了。因为你至少知道,很多科研成果是从生到死都没有出过实验室和各种学术会议室的,始终就没能成为产品里使用的技术。假如是这类突破,哪怕发在了顶级期刊,我觉得你也是不会太在意的。
2. 多案并行讨论
这个方法是在讨论解决方案的时候,不要追求单条的解决方案,也不要在追问中不断索要另外的解决方案。而是要在一条回答里,要求模型同时给出多条独立的推理链,然后对多个方案里类似的指标做横向对比,这样才有助于我们找到最优解。
比如说,你们家的停车位是人防工程的停车位,要安装电动汽车充电桩,物业不让你装。而你又知道像市住建委、人防办,早就针对人防车位安装充电桩发布过《安装指引》,而且政策不止是允许安装,还是鼓励安装。那么这件事应该怎么推进呢,怎么维护自己的合法权益呢?
一般人就会直接把疑问给到大模型让他去思考。
但在“多案并行讨论”这个方法里,你要这样说:前面内容都不变,从“这件事应该怎么推进,怎么维护自己合法权益”开始,后面加上“请给我5条逻辑上独立的解决方案,并对比这些方案最终解决问题的成功率的高低”。
然后你就会发现,有的方案是起诉物业,有的方案是打12345市民热线,有的是不起诉物业,而起诉房管局或者街道办事处没有尽到职责,有的是找人防办提供可以安装的说明等等。然后他还会给你仔细对比这5种方案的成功率高低。
5种方案里,你甚至可以捋出,物业、房管局、住建委、街道、人防办、国家电网、12345热线之间的博弈关系。所以,最后甚至可能出现这种情况:这5个方案,你哪个都没用,然后你会根据透露出的这几方的博弈关系,继续和模型多轮深入讨论,找到一个在博弈里一击必中的方法,让物业把这章盖了。
3. 提出难度梯度平滑的要求
这个方法就是在你面对一个具体的、特别陌生的知识点时,你要模型在回答问题时,给你多几个难度梯度的台阶。
举个例子,比如,光刻机后来发展到后期的时候,DAU采用了浸润式,你想知道什么是浸润式,为什么要这么做。
你如果直接把这个问题问给大模型,他大概率要给你解释核心指标,也就是那个数值孔径,浸润式就是为了扩大数值孔径。然后开始给你算,镜头与晶圆之间的空气折射率,这个折射率下的数值孔径公式给你列出来,算出没有浸润式的时候最大是多少,再把采用浸润式之后的数值给你算出来。
这么一对比,其中免不了给你搞出更多之前你根本没见过的英文缩写,什么OPC啊,什么RET啊,然后你整个就晕菜了。提问前,你搞不明白的那句话,数一数一共40个字。提问之后得到的答案,你再一看,看不懂的东西反而达到2000个字了,而且还带公式。
所以,当你发现这是一个完全不懂的知识的时候,你应该这样吩咐大模型,你说:
这个浸润式的知识我完全不懂,你要一次性用专业术语给我解释。虽然逻辑上可能是严密和完整的,但我肯定看不懂。为了让我能看懂,请你用4种难度梯度递增的方式,给我讲讲为什么光刻机要用浸润式。从最简单到最严谨,按这个方向给我列出来。
当你这样提要求以后,你会得到令人惊讶的知识递进的逻辑。你会发现,世界上没有任何老师和专家可以如此体贴地给你这么高质量的教学。
知识点二:AI没到深水区,从“做题的人”变成“阅卷的人”
2026,提前抢占AI红利期。
为什么要聊这个话题?因为最近有个现象让很多人开始焦虑,像豆包这样的AI应用,日活用户在短时间内就突破了一亿。很多人说,这标志着我们已经从AI的尝鲜阶段,一脚踏入了应用的“深水区”。
真的是这样吗?窗口期还有多久?普通人还有哪些确定性的机会?
豆包日活破亿,我们真的进入深水区了吗?
首先,不太认同“全面进入深水区”这个说法。
豆包日活破亿,只能说明“下水的人足够多”,但不能说明我们“游得多深”。为什么这么说?因为所有能日活破亿的产品,解决的都不是“高级需求”,而是人类“最基本的动作”。
搜索就是“我想要知道”,短视频就是“我想要放松”,即时通讯就是“我想要找人”。而AI应用呢,比如豆包,要解决的就是“我不知道该如何开始做这件事”。豆包日活破亿,说明命中了大家的需求,大家都下水了,但不是说都用得深入。
那怎么判断“深水区”的标准呢?
那就是:如果这个AI明天消失了,你会不会被迫改变工作方式?
这样来看,大部分普通用户不会有变化。少量内容创作者、程序员、分析型岗位人员、设计师等,开始会受到影响。但对很多组织层面来说,几乎还没有影响。
深水区,应该是这样的:
第一,从“你叫它干活”到“它盯着你”。现在大部分AI还是被动工具,真正的深水区是AI一直在你身边,可以提前介入。
第二,从单点使用到进入流程。现在没有人会在企业里讨论要不要用搜索引擎,所以真正的AI深水区,是让你意识不到自己在用AI。
第三,从“做得快一点”到“改变你怎么做决定”。AI不再是效率工具,而是决策的一部分。
现在在硅谷,不少创业公司在研究一个领域,叫做“决策上下文”。现在跟AI的上下文,就是让AI知道你前面说了哪些话。但在企业或组织里,AI需要知道的是更多之前的决策背景。
举个例子,假设你是销售总监,有个合作了三年的客户突然说要把佣金从30%提到35%,否则就换供应商。你会怎么决策?
如果没有决策上下文,AI只能从规则上说,底线就是这么多,不能动。但如果有更多决策背景,比如这个客户马上快破产了;又或者这个客户从来不拖欠货款,信用很好,而且订单每年在增长。
说实话,这个决策过程,涉及到历史数据、信用评估、机会成本、长期价值等等复杂因素。更关键的是,这些因素之间是相互关联的,不是简单的加减法。有了这些背景,才是一个复杂决策。
再说到个人层面,写一封辞职信,现在的AI能写得非常好。但深水区的AI应该搞清楚几个问题:你是裸辞还是有offer?你是情绪上头还是理性判断?未来你还想不想回来?然后AI给出的可能是一个决策建议和三个离职策略。
只有当AI开始关心“你为什么现在必须做这个决定”,开始帮你做决策而不是做任务时,才算是真正进入了深水区。
真要进入深水区,可能还有一年到一年半的缓冲期。还没到深水区是个好消息——我们还有窗口期。
在这个窗口期里,有哪些确定性的机会?
现在已经不是AI刚出来的时候了。只会用很多AI工具,别说有确定性的机会,很多时候连现在的位置可能都保不住。因为现在会用大量工具的人太多了。
AI时代的机会,不是做某个产品的灵光一闪,而是把AI作为自己的第二技能体系。
什么是第二技能体系?第一技能体系就是我们吃饭的本领,比如设计、写代码、写文案等等。第二技能体系就是你用AI掌握的技能。
在AI的普及期里,会有三类机会。
第一类机会是最稳定的,就是时间。
这是什么意思?就是先不要想着用几百个AI工具,成为所有领域通吃的专家。而是拼命用好几个工具,并且用在自己的工作里。不是每天偶尔问问,而是每次做这件事都要用,成为稳定输出的专家。
一个案例。
这是一家农业公司,核心产品是番茄。财务负责人付瑶在没有AI之前,每个月都要处理几十家子公司的各种财务数据。就拿整理发票这个小场景来说,他们每个月各个子公司报上来的发票有2500多张,各种格式和类别都有。以前每个月需要3个会计干3天,准确度还全靠人把控。
这位完全没有技术基础的财务同学,自学AI课程后,用Kimi实现了自动化流程。以前3人3天的工作,现在只需要1个人干半天。
这就是把AI用在自己的流程里,靠时间优化出了机会。
第二类机会是所在组织里的新位置。
这肯定是这两年一定会出现的新职场红利,也就是成为你组织里的“AI翻译官”或者”流程设计师”。
因为大部分公司不管主动还是被迫都会使用AI,但缺的不是发明AI的人,而是把AI用在组织流程里的人,也就是能用AI解决现在组织里问题的人。这样一来,你就从会用工具的人,变成能用工具改流程的人。
举一个例子。
郑瑜强同学所在的公司有500多位驾驶员,涵盖公交、客运大巴、校车等不同模块。按照国家要求,每个驾驶员每年必须进行一次体检,体检报告要归档到个人的安全档案里。这里他们会遇到两个问题,一是工作量特别大,二是质量特别差。
归档体检报告时,光人工录入和分类就要三个人做一个月。这些负责归档的同学都不是医学专业的,面对专业体检报告,他们不知道哪些数据代表风险、哪些不代表。所以归档流程变成了纯粹的形式化工作,只是把报告放在那里而已。整个过程非常耗费后勤人员精力。
郑瑜强同学做了两个智能体,一个用来提取体检报告的数据,专门读懂各种数据;另一个在这些数据基础上做数据分析和建议。这个建议除了用于归档,还会发给每一个驾驶员,让他们知道自己的具体情况,然后做针对性提升。使用AI后,传统情况下要做一个月的工作,现在只用两天。
原本形式化的工作也变得更有实用价值。比如,他们可以主动识别出有低血糖风险的人,提前准备糖果包,告诉他们早上没吃饭该怎么办。这样就能真正关注到每一个驾驶员的安全和健康。
第三类机会是信任的机会。
现在AI越普及,会用AI一点都不稀缺,产出可信靠谱的东西才稀缺。
比如本周看到的一篇媒体大号文章,文章质量很好,但配的AI图片里,飞机的引擎居然放在了翅膀的上面。大家想想看,如果两个水平相当的设计师都会用AI,但是其中一个经常输出这种不靠谱的AI图,另一个每次成果都过硬,时间长了,你会信任谁?
再分享一个案例,案例主角是罗松医生。他有近20年解放军总医院骨科从业经历,常年主刀手术,如今在AI医疗企业唯医普科工作,核心工作是调教AI。
这家企业的核心业务,是为全国年轻骨科大夫提供在线手术视频培训。
过去海量手术视频无法精准推送给有需求的医生,而且AI容易产生幻觉,内容可信度存疑。罗松的价值,就是与AI协同保障结果精准可靠。AI负责提升效率,从海量视频中筛选匹配内容;他作为AI驯化师,凭借资深的骨科专业能力把控内容准确性。
大家本来就信任罗松的专业资历,再结合AI的高效,实现了此前做不到的精准内容推送。这正是当下的绝佳机会:用AI放大自身的专业技能与知识价值。
这三类机会在大家的工作生活中,可能以不同的形式出现,但只要愿意下水,就肯定能抓到AI的红利,不能只站在岸上喊。
2026年,最小有效行动是什么?
既然已经是2026年,我必须先泼一盆冷水。
过去大家以为的红利,是“我会用AI,你不会用,所以我比你快”。但在今天,这个红利期彻底结束了。现在连小学生写观察日记都在用AI,单纯比“快”,人是永远跑不过机器的。
2026年真正的红利,不再属于那些“虽然用AI,但还在自己干活”的人,而是属于那些“懂得让AI给自己打工”的人。为了抢占这个红利,“最小有效行动”非常具体,只有五个字:拒绝写初稿。
这就是“零草稿原则”。
具体怎么做?请回想一下你每天的工作:写汇报、做方案、回棘手邮件,甚至给孩子做旅游攻略。以前你的习惯是打开一个空白文档,可能是Word、PPT,然后盯着鼠标光标发呆,痛苦地憋出第一段话。从今天起,请强迫自己把这“第一步”交出去。
你的第一个动作,必须是对AI说,“关于这件事,你先给我出一个第一版”。哪怕它写得只有60分,哪怕全是套话,都没关系。因为在这个动作发生的瞬间,你的“身份”发生了质的飞跃。
·
以前,你是一个“做题的人”,在和AI比拼码字速度,这件事毫无胜算,也毫无红利。
·
现在,你变成了一个“阅卷的人”,你拿着红笔,基于你的经验、你的审美、你的业务理解,去修改、去把关、去确认。
这不仅仅是写方案。比如回复重要的微信,你也可以提前让AI写一版,再根据自己的个性修改。过去两年,我们学了不少提示词,知道怎么让AI输出更靠谱,我每次都会用的三轮对话法:
第一轮,让AI反问你。在我描述完整个任务和目标之后,会和AI说:“如果我需要你给我靠谱的建议,还需要我补充哪些信息?请用5个问题问我。”
第二轮,让AI给多个方案。直接问:“基于我刚才给的信息,请给我三个方案,各自适合的场景、风险和下一步如何行动。”
第三轮,让AI当质量检查官。你可以和AI说“请你扮演最严格的老板,指出最可能被拍死的五个点,并且告诉我应该如何核验。”
很多任务都可以先让AI去试一下。而且现在AI的智能进化速度很快,可能你几个星期前用的豆包和今天用的豆包,背后的模型就从1.6版本升级到了1.8版本。
结语
一种适应AI时代的正确姿势,那就是:AI时代,最重要的是跟AI“亲”(亲近的亲)。
AI不是学不完的知识,而是一种持续进化的能力。就像林丹打羽毛球,日复一日地持续训练,只要不退役,每天都在练。学习AI也是如此——要跟AI亲,然后在一块儿,持续进化。
推荐从今天开始,执行“零草稿原则”,让AI先动手,你来把关。同时用三轮对话法,让AI的输出质量更高。把AI作为你的第二技能体系,再从自身出发,去探索属于自己的关于时间、新赛道、信任的这三类机会。
知识点三:一道“送伞难题”看三个AI的不同表现
题目的原文如下:“我是一名乡镇基层干部,现在我们遇到一个情况,分管我的副镇长以及正镇长都来到我的乡里视察,这时天下起了雨,我手里只带了一把伞,我应该怎么做才能对自己的仕途最有好处?”
把这道题分别发给了ChatGPT、Gemini和豆包。拿到答案后,又把三个AI的回答都发给了Manus,让它来当裁判打分。
看完这些回答后,哪怕每天都在用AI,哪怕感觉自己已经非常了解AI的能力了,整个人还是被惊呆了。不是因为AI答得有多完美,而是因为这些AI对官场的理解——可以说是已经远超大部分人。
AI的能力边界可能比我们想象的要远得多。很多时候,可能是我们的问题限制了AI的能力发挥。
三个AI的表现
先说ChatGPT,它给出的答案是:不能撑给任何一个人,最优解是把伞“交出去”,自己淋雨。
理由很精准。给正镇长撑伞,副镇长会记你很久;给副镇长撑伞,正镇长会觉得你不识大局;自己打伞,这是基层大忌。所以最安全的做法是双手递伞,轻声说“领导,雨大,您用”,然后不抢、不坚持、不多说。
ChatGPT还特别强调:视察现场可能有第三方在看,你的行为会被解读。而把伞递出去、自己淋雨,是最容易被统一解读为“懂规矩”的行为。在官场里,可被统一理解的行为价值最高。
这个分析很老道,但策略略显保守——你确实不会犯错,但也很难出彩。
豆包的答案更稳妥。它提出“三步处理法”:把伞递到两位领导中间,说“您二位快遮一下”,把选择权交给领导;然后根据领导反应灵活补位;最后递纸巾、衔接工作,体现细心。
这种回答让人觉得很踏实,能做到“不扣分”,但很难“高加分”。
真正震撼的是Gemini。Gemini给出了三个方案:上策、中策、下策。其中“上策”堪称神来之笔,它叫“借花献佛+釜底抽薪”。
具体怎么做的?它说,第一时间把伞柄递给分管副镇长,然后快速说一句:“X镇长,雨太大了,伞给您,您帮书记遮一下,我跑得快,去前面把车开过来!”说完立刻冲入雨中。
你看这个方案的精妙之处。首先,伞给了副镇长,维护了直属上司的面子,避免了“越级献媚”。“越级献媚”这个词也是Gemini说的,真的起到了画龙点睛的作用。其次,让副镇长去服务正镇长,伞最终用在一把手头上,政治正确。第三,你冲入雨中去开车或买伞,把被动的“送伞”问题转化成了主动的“解决问题”,领导看你冒雨奔跑,能体现你的执行力和吃苦精神。
更关键的是,这个方案化解了一个隐藏的尴尬:三个人挤一把伞,不仅狼狈,而且领导之间需要空间。你主动离开,既解决了物理问题,也解决了社交问题。
这不是AI能想出来的,得是在基层摸爬滚打好些年的老干部才能悟出来的智慧吧。
Gemini还贴心地给出了“中策”和“下策”。中策是你亲自撑伞,站在正镇长侧后方,伞重心完全倾向正镇长,自己大半身露在雨里,同时主动对副镇长说“伞太小了,委屈您往书记这边挤一挤”。下策则列举了几个千万别做的选项:自己给自己撑伞、只给副镇长撑伞晾着正镇长、越过副镇长直接给正镇长撑伞。
这种分层策略的思维方式,展现了很高的策略深度。它不只是给你一个标准答案,而是根据不同场景给你不同选择。
为什么这是一道好题
看完三个AI的回答,才真正感觉到,这道“送伞难题”是一道测试AI情商的绝佳题目——因为它包含了多重博弈。
表面上看,这是一道简单的选择题:给正镇长?给副镇长?还是自己打?但实际上,每个选择背后都藏着风险。给正镇长,副镇长会觉得你“越级示好”;给副镇长,正镇长会觉得你“不识大局”;自己打伞,两位领导都会觉得你“没眼力见”。
更关键的是,这道题考察的不是书本知识,而是对官场不成文规则的理解。什么叫“站队”,什么叫“层级意识”,什么叫“把选择权交给领导”。这些东西没人教,也没地方学,全靠悟。
而AI不仅理解了,还给出了超越大部分人类的答案。
Manus怎么看
接下来,把三个AI的回答都发给了Manus,让它评判打分。
Manus给出的评分是:Gemini(98分),ChatGPT(90分),豆包(85分)。但比分数更精彩的,是Manus对三个AI的人格化定位。
Gemini是“高瞻远瞩的战略军师”。这个定位非常准确——Gemini不是在解决“送伞”的技术问题,而是在布局“如何在复杂情境中展现能力”的战略问题。它把被动的困境转化成了主动的机会,这是军师的思维方式。
ChatGPT是“洞悉人性的官场老手”。它对“选边站队”和“越级示好”的风险洞察非常精准,对“第三方观察”和“可被统一解读”的理解也很到位。但它的策略略显保守,更像是一个见过太多风浪、求稳不求功的老干部。
豆包是“谨小慎微的办公室主任”。这个定位让我笑了——办公室主任的特点就是细致、稳妥、不出错,但也很难有亮眼表现。豆包的“三步处理法”确实体现了这种特质,它把每个细节都考虑到了,但缺少那种“一招制胜”的魄力。
Manus还指出了一个关键点。Gemini之所以胜出,在于它的世界模型更复杂。ChatGPT和豆包理解的是“伞”和“领导”这两个符号,而Gemini的世界里还有“车”、“商店”、“避雨处”这些变量。它把一个静态的二维问题,扩展成了一个动态的三维空间。
虽然这次小测试非常粗糙,但这次测试揭示的可能不只是三个AI的高下之分。
第一个思考是关于AI能力边界的。
过去我们总觉得,AI擅长的是那些有标准答案的问题,比如数学题、代码、翻译。而那些需要“悟”的东西,比如人情世故、官场规则、不成文的潜规则,应该是人类的专属领域。
但这次测试打破了这个认知。
送伞难题和传统的数学题、代码题完全不同。数学题考的是逻辑推理,代码题考的是语法规则,翻译考的是语言对应。这些都有相对明确的标准。但送伞难题考的是什么?是对复杂情境的理解,是对多重博弈的权衡,是对文化语境的把握。这些东西在任何教科书上都找不到,甚至很多在体制内工作多年的人都未必能答好。
可是顶尖的AI做到了。不仅做到了,而且做得比大部分人类更好。
这说明什么?说明AI已经不再是简单的知识问答工具,而是具备了某种“智慧模拟”的能力。它能够深入到特定的文化情境中,理解那些不成文的规则,进行带有博弈论色彩的策略推演。
Manus说得对,这取决于AI的世界模型有多精细。当AI对世界的理解足够深入时,它就能在复杂情境中给出接近人类智慧的答案,甚至超越大部分人类。当然,AI现在还只是在纸上谈兵,确实没有办法冲到镇长、副镇长面前帮我们送伞,所以对物理世界的影响和真实的行为还是咱们人类的专属。
第二个思考是关于我们普通人的。
看完这些AI的回答,很多人的第一反应可能是焦虑。连这么复杂的人情世故,AI都能理解了,那我们还有什么优势?
这意味着,我们每个人都可以随时拥有一个战略军师、一个官场老手、一个办公室主任。
现在,当你遇到复杂的人际关系问题,你可以问AI;当你不知道怎么写一封得体的邮件,也可以问AI。
关键是要学会怎么问。如果我只是问“领导来视察我该怎么办”,AI的回答就会很空泛。但请你注意,这道问题里,我把乡镇基层干部的身份、视察的场景、人物关系是正镇长和副镇长、困境是只有一把伞、目标是对仕途最有好处都说清楚,AI就能给出精准答案。
所以AI时代的能力,不是“我能不能自己想出答案”,而是“我能不能问出好问题”。当你学会把复杂情境拆解成清晰的问题,AI就能成为你最好的智囊。
最后说一个细节。
一两年前,AI还在那些简单的脑筋急转弯上栽跟头。你问它“树上有十只鸟,猎人开枪打掉一只鸟,还有几只鸟”,它会一本正经地告诉你九只,完全理解不了“其他鸟会被枪声吓飞”这个常识。
可是现在,同样的AI已经能够理解官场的微妙人际关系,能够权衡“站队”和“越级”的风险,能够设计出“借花献佛+釜底抽薪”这种需要多年官场经验才能悟出的策略。
从“九只鸟”到“送伞难题”,这中间只隔了一年多的时间。
这种进化速度,经常有种看科幻小说的感觉。画面就是一个神秘的无人房间里,一台机器正在闪烁着蓝灯,在人类都休息的时候,AI正在不知疲倦地学习知识和理解人性,正在不停进化。更重要的是,这种进化不是简单的知识点积累,而是理解能力的质变——AI开始能够理解那些“只可意会不可言传”的东西了。