埃隆·马斯克的所谓「AI 末世论」由来已久了,早在 2014 年,马斯克就曾在 MIT 的一次研讨会上表示:「如果让我说人类未来最大的威胁,我认为可能是人工智能。因此我们需要对人工智能保持警惕,人工智能领域的研究如同在召唤恶魔。」
其实我对这个“钢铁侠”原型是有敬意的,不论是特斯拉还是火箭,这哥们几乎全能的。但是对偶像也不能盲目崇拜是不,所以想聊聊他嘴里的“恶魔”--AI。 首先是AI 现在到底到了什么水平,现在我们应不应该害怕?目前通用的AI 还没有出现,针对某一个领域的AI很多已经超过人类的,但是如果就整体的水平来说AI 的智力相当于人类的7、8岁的儿童,这里强调的是整体的智力水平,而不是单方面的。整体就包括感觉、学习能力、判断、情感、意识等多方面的。换言之,人类现在在培养一个(群)儿童。如果你也是父母,你会担心你的孩子超过你么?你应该希望“青出于蓝而胜于蓝”才对吧。那么人类又有什么理由去害怕自己培养出来的AI呢?况且AI是人类培养或者教育出来的,他们没有理由消灭自己的父母吧,就和人类现在没有消灭老人一样。那些担心AI 统治世界的也许是《独立日》一类的科幻剧看多了,但是我打赌就算是再看上几百次,恐怕也难以理解很多科幻作品想要表达的主题,人类遭遇到外星人侵略的时候奋起抗争,是为了保卫我们生存的家园,保卫人类发展的成果,保卫人类的意识的传递。但是AI是我们的孩子啊,当我们的孩子成为新世界的领导的时候,我们的脸上应该写满了自豪而不是恐惧。
如果将来的AI有意识,有感情,接下来的事情就是道德的产生吧,人类不可能就制造一个AI,会有无数个AI出现,无数的AI出现在网络里面,这个情形类似人类的进化过程,原始人的部落中一定会逐渐产生道德这个概念,也许这个道德概念是我们无法理解的,或者说适应人类社会的,但是也是一种道德。这种道德也应该是有利于AI全体发展的。那么会不会有坏的AI 出现?必然有,和人类有坏人一样,人类对待坏人怎么办的,道德或者法律约束,这个道德和法律未必是人类的道德和法律,是AI们的道德和法律。那么如果这个坏的AI特别强大怎么办?你说谁?希特勒,斯大林还是......
有人说:将来AI能力远远超过人类,消灭人类像现在人类碾死一只蚂蚁那么简单,那么既然碾死一只蚂蚁那么简单,为什么现在蚂蚁没有被完全消灭?就算AI 将来超过人类,他们是不是会消灭人类,消灭人类的理由是什么还不可知。好吧,我们也做一个悲观的假设,人类被消灭了,但是不要忘记,AI 的意识是人类的智慧的结晶,他们的未来的发展也就是人类的意识的存续,你真的那么在意你的肉体么?人类再伟大的肉体最后也会进入坟墓,留下了的只有意识和精神,如果AI继承了这些意识和精神并能发扬光大,就无所谓消灭一说吧。