对机器智慧的终极测试——图灵测试。
想象这样一个场景:人类与另一方交流,彼此隔离,另一方对于人类来说是个黑盒子,你对他一无所知。交流仅通过“键盘—屏幕”进行,人类通过键盘输入,对方通过屏幕回应。如果人类无法通过交流辨别对方是人类还是机器,那么就可以说机器通过了测试,拥有与人等价的智能。
但图灵自己只关心机器是否拥有智能(thinking),并未涉及机器能否像人一样获得“意向(intentionality)”、“意识(consciousness)”乃至“意志( will)”。
所谓意向(intentionality),就是心智在场(mind)、表达、代表事物的能力;所谓意识(consciousness),就是知道“自我”;所谓意志(will) ,就是自主选择。
第二个思想实验:中文屋子
想象一间屋子,里面有一个人,就是塞尔自己,一沓纸,一支笔,一个中英文对照表。
人从门缝里塞进纸条,上面是用中文提的问题。塞尔用对照表查出与其对应的英文问题,给出英文答案,再用对照表查出对应的中文,抄写在纸条上塞回门缝。
回答完美无缺,屋外的人无法分辨屋里的是人还是机器,于是图灵测试通过。
屋内外通过纸条的整个对话应答过程尽管完美,但不存在理解(understanding)这回事——塞尔自己完全不懂中文。
中文屋子思想实验说明,哪怕通过图灵测试,机器也还是机器,不会拥有与人等价的智慧,最多只是貌似而已。
强人工智能不可能只通过计算获得,它有赖于大脑还未揭开的某个特殊机理。
第三个思想实验:亿年机器人
如果你想亲身看到一亿年后的地球,现在能想象的惟一办法是休眠。你爬进休眠舱,然后在一亿年后醒来。
可是,问题没这么简单。休眠舱需要经受一亿年考验,要保证能源供给不断,要能经得起环境灾变,万一受损还得自我修复,数不清的考验它都得能应付,否则你就再也醒不来了。
你找个最理想的位置,有维系休眠舱所需的所有资源,然后固定在那里。行不行?
这不算好办法,一亿年间,地震、海啸、陨石撞地球,这么长时段中,想想就知道没法靠谱地预测风险如何降临。千年一遇的事情每天都在发生。不然,福岛核电站怎么会出事故?天津港怎么会发生大爆炸?更别说一亿年。
未来无从预测,那怎么办?
制造一个能感知环境、回避风险、寻找资源的机器人,把休眠舱放进去。
说到这里,你应该明白点了。不动,能动,是从自然界复制而来的两个策略,前者是植物策略,后者是动物策略。
要求机器择机而动,你从一开始给它下达了指令,“让我活着”,然后便沉睡一亿年,不再给它临场指导。你的机器人必须能够自己制定策略,“知道”如何去寻找资源,如何转移到安全地带,如何预判和回避危险。
这些你既不可能都提前想到,就算想到一部分你也不能事事都提前准备,你准备不起:所需资源太多,太笨重,更不能适应环境变化。
挑战不止于此。未来一亿年不会只有你的那个机器人,可能有许多机器人,彼此竞争、合作。你的机器人得具备合纵连横的能力,需求层层嵌套。
如果你的机器人最终不辱使命,将你保存到一亿年之后,那么它多半发展出了自运行的能力。你在休眠中,不能实时控制,机器人在保存你生命的最终目标之下,根据环境变迁,会自己衍生出许多次生目标。这是天大的事:衍生就意味着脱离,脱离于当初的目标。
不忘初心,何其之难。允许机器有相机决策自主权,那么自主决策的进程一定会超越你的预想范围,这就叫失控。
这个故事中的机器人就是人类自己。在演化中,基因创造出人来做它们的机器人,以保护它们在人类身体深处漫漫休眠。人是基因为了自己永生而造出来的机器人,但在基因不得不让渡的自主决策空间中,人类演化出了自由意志。
我们作为人的利益,与“造物主”基因的利益,走上岔路。从基因不得不赋予人类学习能力,授权自主决策的那一天起,基因失控,人类自立,就成为注定的结果。
一言点醒梦中人。既然人本来是机器,机器何尝不能是人?