第三部分讲述了很多大脑的局限
一、后见之名——“知道”的错觉
后见之名也就是“马后炮”或者“我早就知道”,且结果越糟糕,后见之明的偏见就越严重。例如,“911”发生后,公众尤其相信那些没能预见到这场灾难的官员玩忽职守。或者听到有人说“在2008年金融危机发生前就知道这场危机不可避免”。但实际上在这些事情发生之前,没有人知道也不可能提前知道。
后见之明的偏见不是根据判断过程的合理性来评估一个判断的好坏,而是以结果的好坏作为判断标准。好的决策产生了糟糕的结果,就指责那些决策的制定者,而对于那些只在时候才能明确看出是正确的决策,其制定者也不会因此得到什么赞扬,这就是典型的“结果偏见”。
造成这种偏见的原因是我们大脑的眼见即为事实的原则。我们会不由自主地去处理手头有限的信息,好像这些信息就是全部事实了。根据这些可得的信息,构建出最可能的连贯的故事,并且深信不疑,最大限度的忽略自己的无知。我们以为我们“知道”了,可是殊不知那只是一种错觉,使我们觉得这个世界比实际上更可知。这种错觉的核心在于我们认为自己了解过去,这也表明未来也应该是可知的,但事实上,我们对过去的了解比我们自以为的要少。
人类大脑的常规局限使它没有足够的能力重构过去的知识结构或者信念。一旦接受了一种新的世界观(或对世界某一方面的看法发生了变化),你就会立即丧失很大一部分回忆能力,无法回想起自己观点改变之前的那些想法了。人类的大脑不但没有能力重构过去,也无法妥善处理没有发生的事。所以人无法预知并控制未来。
系统1的意义建构体系会让我们认为这个世界比现实中的更整洁、更简单、更可预知,且更富有逻辑。对于过去了然于心的错觉带来的更深层次的错觉——可以预测并控制未来。这些错觉让人感到安适,这些错觉还能减轻人们对于不确定性的焦虑感。我们都需要一颗定心丸,想知道我们的行动会有恰当的结果,想知道智慧和勇气一定会带来成功。很多商业书籍就是这样应运而生的。
为什么人们爱读成功学?
这些商业书籍顺应了人脑的光环效应和结果偏见,通过描写特别的个人和企业(常见的)成功与(偶尔)失败的历史,或者分析成功与比较成功企业之间的区别,满足人们对虚幻确定性的需求。书里提供的大脑所需,企业成败的故事与读者实现了共鸣,这里所需指的是关于成败的简单信息,其中明确表明了原因,忽略了运气的决定性力量和回归的不可避免性。这些书维持了读者关于“了解”的错觉,同时给读者上了一些没有什么持久价值的课,但这些读者却偏偏愿意相信这些东西。
内心OS:天哪,远离这些虚假的成功学!
二、有效性错觉&技能错觉
有效性错觉:因预测结果与输入信息之间较好的符合所产生的无根据的自信。认为通过进一步地获取信息,将产生更多相关的辅助预测的数据,虽然可能并非如此。
技能错觉:学到更多知识的人对自己的技能产生了一种无限放大的错觉,进而变得不切实际、过于自信,尤其所谓的“专家”。
两个错觉中都提到了自信,这里的自信是一种感觉,它能反映出某条信息和处理该信息时所体现的认知放松的一致性。对某个判断的主观自信并不是对这个判断正确概率的合理评估。另外,有效性错觉和技能错觉还需要一种强大的专业文化来支撑的。可以说主管自信和专业文化为认知错觉提供了生存土壤。
那些了解更多的人比了解少的人作出的预测强不了多少,知识丰富的人反而常常不可靠,原因是他们过于主观自信。并且这些专家还不愿意承认自己错了,非要他们承认时,他们也会有一大堆的借口。毕竟专家也是人,他们被自己的荣耀蒙蔽了,而且还痛恨错误。
知道了有效性错觉和技能错觉,我们应该了解两点:
1.预测错误无法避免,因为这个世界就是不可预知的;
2.我们不应该相信高度主观的自信就是准确性的指示器(低度自信可能更有益处)。
内心OS:专家预测的准确度比不上扔飞镖的猴子
三、直觉预测VS公式运算
事实证明:专家的直觉预测不如简单的运算来的准确
原因有二:
1.这些专家试图表现得聪明,在预测时会考虑将不同特征进行复杂的结合;
2.人们对复杂信息的最终判断很难达成一致,如果有人要求专家对同一信息进行两次评估,他们通常会给出不同的答案。这种普遍的不一致性很有可能是由于系统1对极端条件的依赖所致。比如,心情好时无论评估什么都会相对积极一些,而公式却不会有这样的问题,输入不变,输出也不会变。
假设公司需要招聘一名销售人员,如果真的想选择最合适的人选,那么应该这样做:
首先,选择一些这个岗位要求的先决条件(比如技能熟练程度、个性稳重程度、可靠性等)。不要太多,6个左右即可。这些条件最好相对独立,同时要保证你通过一个问题就能够对这几个条件进行评估。下一步就是为每个条件都列出一些问题,并想好如何对其进行评估,分数为1~5分。你应该清楚什么情况“最弱”,什么情况“最强”。最后雇佣那个得分最高的人。
四、什么时候可以相信专家的直觉?
某些类型的直觉能够快速习得,因为我们从祖先那里继承了一种机制——学会何时应该感到恐惧,如“一朝被蛇咬十年怕井绳”。这种情感的学习很快,但学习专业技能通常需要很长时间,例如象棋,经过上千个小时的练习以后,象棋大师能够一眼就“读”出棋局。
技能习得有两个基本条件:
一个可预测的、有足够规律可循的环境。
一次通过长期训练学习这些规律的机会。
满足以上两个条件时,就可以培养出直觉来了。象棋、桥牌、扑克都有能支撑技能的统计学规律。医生、护士、运动员以及消防员面对的都是复杂但却基本有序的情境。相反,作长期预测的股票投资者以及政治学者是在有效性为零的环境中进行的。
在毫无章法的环境下,运算法远远优于人工判断有两个原因:运算法比人工判断更可能观察到不怎么有效的线索,还可能通过利用这样的线索将正确性保持在适度水平上。
那么什么时候可以相信有经验的专业人士的直觉?
如果环境有足够的规律性,并且在判断时有机会掌握这些规律,联想机制就会识别这些情境并做出快速且准确的预测与决策。满足这些条件就可以相信直觉。
如果在一个不够规律或效度较低的环境中,判断启发式就会被激活。系统1通常会用另一个问题快速替换掉难题,创造出并不存在的关联。问题被替换得到的判断必定会有偏差,此时的直觉不可信。
五、规划谬误、外部意见与内部意见
规划谬误即过于乐观的规划。采取外部意见是避免规划谬误的有效方法,这里的外部意见常常指基础比率。下面的预测方法能够有效避免对基础比率的忽视:
1.识别对应的参考类别
2.获取参考类别的统计数据,利用这些数据作出基准预测
3.如果有特别的原因说明这个项目多少会比同类项目的乐观偏差更为明显,则可使用此例的具体信息对基准预测进行调整。
还有一点需要注意:相比外部意见,我们更偏向于内部意见。
六、乐观偏见与过度自信
规划谬误是普遍存在的乐观偏见的一种表现形式,人们容易夸大自己预测未来的能力,进而导致乐观的过度自信,这可能会影响到决策。乐观偏见使人们愿意承受更大的风险。系统1的眼见即为事实原则以及替代原则是引起乐观偏见和过度自信的原因。对不确定性的无偏见评价是理性的基石。
乐观偏见和过度自信是系统1特性的直接结果,可被驯服但不能被彻底改变。障碍在于,主观自信是由人们构建的连贯的故事决定的,而不是由支持它的信息的质量和数量决定的。有一个简单的方法可以克服部分乐观偏见,叫做“事前验尸”。当一个机构即将作出一个重要决策但还没有正式下达决议时,召开会议,在会议上询问一个问题:“设想我们在一年后的今天已经实施了现有的计划,但结果惨败。请用5~10分钟简短写下这次惨败的缘由。”
事前验尸的优点在于它引发了怀疑,助长了支持决策的人去探寻他们先前没有考虑到但却可能存在的威胁。
这部分读完最深刻的感觉就是:人生如此艰难!