读完本文,你会了解:
1)为什么我们越来越不知道相信谁?
2)如何解决这个问题?相信自己并提升自己的认知力(好难)
看完了罗胖的《我们到底该信谁?》,我认真的思考半天,他主要的内容总结如下:
1)提出问题,为什么我们感觉不知道相信谁。因为科学本来就是不确定正确的(可证伪),而且往往不正确的多,正确的少是常态,只是因为现在的传播方式,导致了大家感觉科学不靠谱,不知道应当相信谁,而且科学圈的封闭等使得这种感觉更严重。
对于科学的那部分我没有什么意见,毕竟科学本来都是建立在假设之上的,在没有被证伪前我们假设这个是暂时对的,但对于科学圈的说法没啥新意,本来认知模式对于熟人,自然大家会比较易于接受,这不就是熟人的成本低嘛。不仅是科学圈这样,网红圈、财经圈、简书圈不都一样,有哪个圈是真正无成本开放的,你要加入成为圈中人总是要付出代价的啊,至少要获得大家的认同吧,这个过程本来就是大家对你的了解过程,了解了大家总体的信任成本就比较低了。
2)如何解决不知道相信谁?罗胖认为需要认知升级,对于接受什么理论或者观点,需要考虑主观概率,并且根据证据的多寡来不断调整概率,然后根据概率来决定行为。
这不就是大数据的相关性原理吗。
最不能接受的就是第2点,罗胖说这是认知的升级,假设你看待一个问题的初始概率是50%,如果有理由或者证据证明可信度上升,就调整到51%,天啊,有人能区别50%-51%可信概率的区别吗?就算是50%和60%之间的区别,你能明确界定吗?这明显是把我们人的认知水平靠向人工智能的认知水平啊,这哪是升级啊!而且罗胖还说,如果在碰到绝症时,就算5%的概率也要试一下,那这个认知提升不提升又有什么差别?
首先我们来看一下神经网络的人工智能是如何运作的。
神经网络最重要的功能就是分类,而且是让正确分类的可能性尽可能的高(绕口令)。分类就是判断,最后根据判断进行选择,就象我们人对于某个东西是否相信,然后根据相信度来采取行动。(比较技术的描述是,在一个N维的空间里,用于个N-1的超平面方程,将空间一分为二,并将这两个部分归入不同属性的类里。这只是一个神经元,对于神经网络,那情况就复杂得多,以后有机会我会详细写一篇文章,并配上程序。)
接下来就是训练神经网络了,这个和AlphaGo的训练也一样,一般分两种模式,有导师学习与无导师学习。有导师学习是根据样本,计算输出,然后和样本比较,有差异接着调整权重或者参数,一直使得神经元函数能完全符合样本。无导师学习,就是自己从网上学习,用统计的方法来校正神经元函数。
这个方法和罗胖说的根据贝叶斯定理,不断自己调整认知概率有啥不同?
其次这种认知模式真的是升级吗?
把我们的认知模式调整到了我们自己设计的机器一个水平,这是升级?而且我们的大脑还不如计算机的神经网络的速度,用我们的弱点来与人工智能竞争,以后我们不需要做决定了,只要依靠人工智能告诉我们要相信谁就行了。
我们人类的认知中,最重要的是什么?信念、理想、奉献、牺牲、理解,这些东西是无法概率化的。认知模式绝对无法通过这种方式来升级,而且你还不能完全做到,你不是机器。
最后还是回到我们能相信谁?
罗胖的意思其实是相信自己,提升自己的认知能力,只是方法上不太靠谱。
对于医学,我们要接受我们还很渺小,很多时候会无能为力,不要过度治疗和过度检查,让生命走在自己的道路上。
我是哪儿黑,让我们一起走在光明的大道上。