AI跟人脑还差多远,还是早已把人脑远远甩在后面了?毕竟,作为AI(人工智能)的一个典型代表,AlphaGo(阿尔法狗)已经彻底打败人类快3年了。
电子计算机、人脑、AI是现在我们最能想到的“智能”的代表。我们先直觉地理解一下这三个系统:它们都可以看成一个黑匣子,信息通过输入端进入黑匣子,黑匣子对信息进行一系列操作,产生“答案”,从输出端输出。比如,输入的是“请计算1+2”,输出是“3”;或者,输入的是刘慈欣的大脑,输出的是《三体》。
这个黑匣子一定能完成两个任务:处理信息、记录信息。
1. 电子计算机
处理信息:通过中央处理器(CPU)处理信息,CPU由数量极大的开关(“逻辑门”)组织在一起,每个“逻辑门”可以想象成“如果A,那么B,否则C”这样的操作。
储存信息:信息单独储存在外部设备里,比如光盘、硬盘、小本本,与CPU是独立的。
2. 人脑
处理信息:通过神经元之间的相互连接,电信号、化学信号在神经元之间的传导,来处理信息。
储存信息:通过这些相互连接本身(比如连接的强弱)来储存信息。
3. AI
AI笼统地说是指模拟、延展人的智能的各种技术,包括了很多方面。有些方面跟电子计算机的处理方式很像,比如专家系统(大型的“如果…那么…否则”结构);有些是从模拟人脑的行为方式开始的,比如神经网络(neural network)或深度学习(deep learning,相当于多层神经网络,比如下图有3层神经网络),用计算机来模拟神经元的连接,来实现信息处理,这是目前最成功的AI的实现方式。比如打败人类围棋冠军的AlphaGo就是采用的深度学习的算法。我们这里讨论AI,只狭义地指神经网络或深度学习。
处理信息:和人脑类似,通过模拟的神经元之间的相互连接,信号在神经元之间的传导,来处理信息。
储存信息:和人脑类似,通过这些相互连接本身(比如连接的强弱)储存信息。
神经网络和人脑一样,如果要完成某项任务,必须通过一定的学习、训练,就像小孩必须通过学习,才能获得处理某些事情的能力。也就是说,必须用大量的数据来训练神经网络。这也是迅速催生Big data(大数据)产业的原因。
AI是不是已经超越人脑了?
还没有。
目前AI的一个难题是,它们不能相互学习(transfer learning)。一个会下围棋的AI没办法教会一个会开汽车的AI下围棋,它们之间没有语言可以交流,开汽车的必须从零开始学习下围棋。所以,虽然我们能制造出各种精通某一特定任务的AI(称为弱AI),但还造不出精通各种任务的AI(称为强AI)。造出强AI,就好像一劳永逸了。
虽然从“单一任务”到“普遍任务”好像是一个很简单的过程,但这中间可能隔着一个鸿沟。就像竹蜻蜓可能已经有2000年的历史了,但第一架直升机要等到20世纪了。
这个鸿沟在哪里?
我们先来看一下,这三个系统分别是怎么思考、独立学习、相互学习的。
1. 电子计算机
思考:当你问电子计算机一个问题之后,CPU在磁盘中搜索储存的资料,按照你告诉它的算法来计算,然后输出答案。其实它自己并没有“思考”。
独立学习:电子计算机其实不能独立学习。你必须告诉它应该怎么做,它只是帮你完成你所的步骤,只是它比你算得快得多而已。
相互学习:它虽然不能独立学习,但是可以把相互学习理解成,把硬盘A中的东西拷贝到硬盘B中的空闲位置去,相当于B掌握了A的知识。
2. 人脑
思考:信息进入大脑后,根据神经目前的连接状况来计算,然后给出答案。
独立学习:新信息新知识进入大脑后,大脑的神经连接会相应地改变,就相当于把知识融合进了大脑。读同一本书,由于每个人原来的神经连接是不一样的,所以读完这本书,每个人神经连接的改变也是不一样的,“一千个人眼中就有一千个哈姆雷特”。
相互学习:小明给小红解释为什么天是蓝的(他们通过共同的语言交流),小红理解后,他的神经连接会相应地改变,这样,小红就学习了新知识。注意一点,虽然现在他们都知道了天为什么是蓝的,但是他们对这一件事的神经连接并不一定是一样的,或者说,他们的理解并不一样,这取决于他们之前的神经连接(比如以往的教育)。
3. AI
AI的思考和独立学习的过程跟人脑是相似的。但目前的AI还做不到相互学习,由于下面三个原因:
首先,它不能像电子计算机一样,把东西直接拷贝过来,因为AI不是通过“小本本”来储存信息的。
第二,AI不能像人脑一样能通过语言交流(至少目前还不能)。
第三,不能强行把两个AI连起来,变成一个更大的AI,就像没办法把两个人脑强行连变成一个更强的人脑(至少目前还不能)。
原则上,可以试试下面几种方案:
A. 用各种不同的数据、任务来训练一个庞大的AI,原则上最终它能掌握所有的任务。但是,由于任务的种类是庞大的甚至无穷的,每遇到一个新任务,人类就需要额外再训练它,这也就失去了制造这个强AI的意义,因为你必须强迫它持续学习,不可能一劳永逸。
B. 如果强行连接AI的方法被发明出来,就可以把各种各样的弱AI连起来,变成一个极大型的AI的网络,来处理各种各样的任务。虽然这种方案也不能一劳永逸,但是人类只需要连接新的弱AI,而不需要重新训练整个AI网络。
C. 如果人类发明了AI之间的语言,或者AI自己发明了自己的语言,使得他们能够相互交流,那么造出一个什么都会(而且比人类都做得好)的AI就有可能了,而且不再需要人类的干预。
方案C是人类最想实现的,也是人类最害怕的。害怕当你创造出了一台人工智能之后,你以为不管它怎么牛,你总可以扯掉它的电源,然后肆无忌惮地问它:“世上有上帝吗?在哪里?”这台人工智能自己拔掉自己的电源说:“就在这。”
其实,人脑并不比目前的AI差。
人脑的神经元数量远远比AlphaGo的神经元数量多。但是为什么AlphaGo能赢我们?其实是因为它只会下围棋(就像一个人用它的一生去完成一个任务),再加上它的运算速度确实比人类快(就像你肯定不可能比计算机算账算得快),而且可以一天24小时一直做这件事。
事实上,在AI的交流语言没发明之前,让弱AI去学习各种任务以期望它变成强AI,它一定不会比人类做得好。
人类如果没有语言、不能相互交流,人只是单个的个体。但是一旦人类的语言被发明出来,相互之间可以交流,就会形成“智能更高”的群体,比如原始时代的一个部落。如今,在全人类可以相互交流的时候(互联网时代),相当于一个崭新的智能形式又出现了。
这其实和大脑的原理是一样的。单个的神经元可能不具有智能,或者具有“极其少”的智能。当神经元之间可以通过电信号交流了,大脑就出现了,比单个神经元更高的智能就出现了。
对比人类的例子,可以把单个人类类比成单个神经元,语言类比成神经元之间的电信号,整个人类群体类比成整个大脑,那么互联网时代的人类就像是很多神经元组合成了大脑。
没有理由相信,人类的智能是智能的终极形态,就连我们现在觉得是“神”的强AI也不一定是。