01
在信息爆炸的今天,我们对专家的依赖也越来越重。
听取专家的意见并没有错,但如果 你完全没有自己的判断,就容易出问题。
因为专家也是人,不可能每次都对的。
这种情况俗称“权威效应”
权威效应,又称为权威暗示效应,是指一个人要是地位高,有威信,受人敬重,那他所说的话及所做的事就容易引起别人重视,并让他们相信其正确性,即“人微言轻、人贵言重”。
“权威效应”的普遍存在,首先是由于人们有“安全心理”,即人们总认为权威人物往往是正确的楷模,服从他们会使自己具备安全感,增加不会出错的“保险系数”;其次是由于人们有“赞许心理”,即人们总认为权威人物的要求往往和社会规范相一致,按照权威人物的要求去做,会得到各方面的赞许和奖励。
权威不等于正确,只能作为一个参考。我们不能把权威的意见作为决策的依据。毕竟权威的意见是在某些特定的条件下给定的意见或结果,脱离了这些条件不一定适用。正确做法是,不能偏听偏信,应该结合当下的条件,自身的情况作出明智的判断,做出正确的决策。
我们从来不指望一把钥匙开一把锁,同样也不要指望一个他人意见而做出自己的决策。
02
2003年,美国发生了哥伦比亚航天飞机失事事件。后续专家在调查事帮起因的时候,发现问题出在了一张名为“飞船失事可爱性的测验数据综述”的幻灯片上。其中“飞行前的模拟飞行测验所使用的泡沫是真正撞击飞船 的泡沫的1/640”这行关键字信息被放在了小字部分,几乎没人注意到这行字。也正是这个原因,为飞机的失事埋下了种子。
尽管在我们的日常生活中,不太可能因为忽略了一行小字而付出生命的代码 ,我仍然要提醒一下大家,在进行重大决策的时候,千万擦亮眼。因为别人强调的重点,不一定是你的重点。
有时,经验会害死人,别人的经验不一定是你的经验,别人关注的重点也不一定是你的重点。这里有个关于“幸存者偏差”知识值得大家学习。
二次世界大战时,美英联军对德国展开了大轰炸。由于德国防空力量强大,美英空军损失惨重,军方找来飞机专家,要求研究战斗机受损情况,对飞机进行改进。专家们检查了执行任务归来的飞机,发现所有返回的飞机机腹都遍布弹痕,机翼却完好无损。于是专家们推断机腹非常容易受到炮火攻击,应该改进机腹的防护。
美国一个统计学家却认为,这证明被击中机翼的飞机都坠落了,而仅仅被击中机腹的飞机都返航了,应该加强防护的是机翼:而不是机腹。军方采纳了他的建议。事实证明,他才是对的。
统计学里将这类情况,称为“幸存者偏差”。
生活中,我们应当避免“幸存者偏差”的出现,避免作出错误的决策。正如别人分享的成功经验无法复用到你身上一样,那些事后总结出来的成功经验经过加工渲染无法还原当时人为因素、外部条件等,如偏听偏信只能让自己陷入误区而不自知。
03
人们在接受信息的时候会产生一种“乐观偏见”,说白了,就是只听自己想听的,主动屏蔽和自己想法相左的观点。
“乐观偏见“也说明 了大脑喜欢在舒适区思考,求同排异。这样的思维模式无疑是舒坦的,同时也是 危险的。因为在做决策 的时候,如果你只听有利于自己的信息,而忽略了不利的违章,很受人导致盲目乐观,从而将自己暴露在风险中。
为什么会这样呢?当我们遇到与过去认知不一致的新观点,就会触发我们的习惯性防卫。习惯性防卫是一种非常常见的心理现象,当我们感觉到自己的观点、尊严可能 会受到挑战的时候,我们第一个反应是 思考对方的挑战和质疑是否合理 ,而是:有敢反反我,和他干!这就是习惯性防卫。
而产生习惯性防卫的原因,是当一个问题出现 在别人身上的时候,我们习惯把这个问题归因于别人,是那个人自身有问题。而当同样的问题的发生在自己身上的时候,我们就不这么想了,反而会把问题归因于外部因素,心理学称之为”基本归因偏差“。别人出事都是人品问题;自己出事,就是外部环境问题。
《第五项修炼》曾引用行为科学的奠基人阿吉里斯(Chris Argyris)的观点:
习惯性防卫的根源是惧怕暴露出我们想法背后的思维。
成甲老师曾在《好好学习》建议人们在遇到这种习惯性防卫的不利影响时,要建立绿灯思维。即我们遇到新或不同的意见时,第一反应是:这个观点一定有用,我应该怎么用它来帮助自己?当发现与我们想法不一致时,我们要换一个想法,这个观点虽然与我观点相左,他为什么提出这个观点,他的思考点是什么?他的观点一定有他的用处。
通过倾听与沟通,让自己的想法与他人的想法作融合与修改,用开放的心态接纳不同的观点。从而让自己学会从不同的维度、视角考虑问题,分辨出什么对我才最重要。
以上三个心理误区,很大程度上会影响你作出正确的决策。这有个小技巧,在你每次做决策时,仔细记录你选择时所考虑的因素,检查自己是否在某个环节犯了错,避免下次犯同样的错。