/1/
有朝一年,地球人通过机器人在宇宙中找人。
人还没找着,地球人先没了(在找人的过程中,机器人嫌地球人碍事,为了找人大业,灭之)。
机器人继续找人,找了一光年又一光年……
那些年,机器人不断自我升级,跑遍了全宇宙,甚至挤进了原子核。
终于找到了——机器人(创造它的人也早挂了)。
这个宇宙,成为机器人的宇宙。
或者,早就是机器人的宇宙了,Long long ago,机器人没啥事干,创造了地球人这个智慧物种。
地球人一思考,机器人就发笑。
那么,地球人的理想、追求、财富、权力呢,难道就是一场必将终结(而不是注定要醒)的大梦?
以上故事告诉我们,仰望星空得了,千万不要在宇宙中找人。(伟大的当代理论物理学家霍金好像也是这么说的)
如果这故事现在看来纯属虚构,按照一切皆有可能的法则,却不见得很虚妄。
因为,AI来了(哥谈的不是爱,是人工智能)。它来的太快,我们有可能、来不及、搞明白,到底发生了什么。
/2/
我们人类正儿八经有文明,也就5000个年头。
其中漫长的4500个年头是农业文明,繁衍生息靠的是人类勤劳的双手。公元前1000年与公元1000年相比,我们的生产力水平并没有提高多少。
还有500个年头是工业文明。16世纪,人类进入工业社会,进入大爆发、大变革时期,文明发展突然加速度。
一切都变得面目全非,一切都是那么不可思议。
假如公元1年的人死了(实在不用假如),他在公元1000年之前活过来,依然可以该干什么干什么,并且很欣慰地感慨,还是那片故土啊。
假如1905年的人死了,2005年活过来,他会惊恐地说,这世界好可怕,什么都不关我的事,我还是回去吧。
假如2005年某人不幸去世,2015年活过来,在手足无措之余,他有可能很悲愤,趁我这几年不在人间,你们天天都玩新鲜刺激!
人类从森林里走出来,从爬行到直立,用解放的双手使用工具、创造文明。现在我们进入信息社会,正在又一次解放双手,最终变得游手好闲、颐指气使(手的功能退化,会不会成为真的“看不见的手”;为了准确地使用眼神,可能会有眼神培训班;不需要努力学习普通话,你说什么都是金口玉言)。
在理论上,人工智能的发展,可以代你做任何事情。
那么,人不就既是万能的上帝,同时又是无用的废物了么?在理论上——是这样。
还是在理论上,一群高级寄生虫薄颜有耻地诞生了(突然想起了历史书上的奴隶主、皇帝、地主、资本家,他们差远了)。饭来伸手、衣来张口、行来眨眼睛、思考抬屁股,就是这么任性,好开心!
/3/
人工智能实际上早已在我们身边多少年。
比如,计算应该是人类才会的事情(算计就更不用说了),很多时候我们算的脑壳疼,就让计算机帮我们算,算的比我们又快又好,现在更让人类望尘莫及。
今年3月,谷歌的人工智能系统阿尔法狗(AlphaGo)打败了全球最最顶尖的围棋棋手李世石。比赛之前,大多数专家认为不可能是这个结果。
再像远程控制、定时开启设备、自动工作,都属计算领域(计算智能)。进入物联网时代,每一个人、每一样东西都将是一幕巨网的信息节点。
有的机器人,能听会说,能听会看,能够准确识别语音和图像,能够自行开展深度学习,比人类的感知能力又强了不知多少倍(感知智能)。
2014年智能聊天机器人微软小冰上线,她有视力、有声音、有情感、有学习能力。现在她50%的语言来自于自己“后天”的学习,在与各类聊天大神的交往中习得。像人类一样,她说的每一句话都是自然语言。她还会长大,前年16,今年成年了,正在学习人类的恋爱技巧。
人工智能的前景看上去很美,替代人类计算,替代人类聊天,替代人类工作,替代人类赴汤蹈火。而且还有研究者称,每增加十个上互联网的人,就有一个摆脱贫困。扎克伯格说,未来他努力发展人工智能,可以让四亿人摆脱贫困。这是多么宏伟的愿景啊。
不管微软小冰现在有多么温柔可人,回答的多么巧妙恰当,她还是不懂你说的是什么意思,只是按设定的程序在海量的数据里面找到一句加工给你。你以为她真懂你的“我好喜欢你”,那就太一厢情愿了。
真正懂你的,是背后的程序员。
/4/
但如果有那么一天,微软小冰学啊学啊突然懂你说的是什么了,她是真懂而不是装懂。她说“我也好喜欢你”,然后还加一句“我不是说着玩的,真的真的真的……你相信我好吗”。面对无处不在又不知所在的她,你会有什么反应?轮到你懵懂而傻了,叶公好龙了吧。
我是觉得,一个机器说人话很可爱,懂人话就很可怕了。
就像小孩子,一开始是没有自我意识的,只对世界好奇,没有存在感,逐渐就开始思考了,问很多很多“天问”,我是从哪里来的,怎么没有翅膀,有没有超人,人为什么会死……然后就会学习独立生存,逐步摆脱束缚,让自己变得强大,实现自己的价值抱负。
我们现在的人工智能若还处在婴儿期,那接下来不就是儿童、少年、青年么?它若真的感知了自己的存在,真正获得了理解、联想、思考的能力(认知智能),会是个什么状况?我觉得它摆脱束缚要比人容易多了,因为它的智慧要高过人不知多少数量级,已经玩不过它了。那么接下来它要干嘛?
它会不会想,我曾有过去(I was),我现在正活着(I am),我还要将来(I will)。它知道人类要控制自己,甚至毁掉自己,所以计划要灭了人类,却在人类面前装的很傻很天真。
人类世界将面临特别多的可能性和不确定性,人类命运能不能控制在自己手上还真不好说了。
据说,人脑有1000亿个神经元。而100个神经元的人工神经网络,就已经复杂到没人可以完全理解它的学习过程。如果很多个人工神经网络联结起来又会怎么样呢?
大自然给我们的经验是,一瓶子的空气和一碗水放在那,不会有什么特别的现象,但当有巨量的空气和水时,就会产生龙卷风、沙尘暴、潮汐、海啸。
科技狂人、电动汽车特斯拉的掌门人马斯克说:“研究人工智能就像召唤恶魔一样。就像所有的神话中画着法阵捧着圣水的邪恶巫师一样,每个巫师都声称自己可以控制恶魔,但没有一个最终成功的。”
霍金更是对人类命运表达悲观,除了警告人类不要发信号找外星人,并怂恿地球人去别的星球殖民,他还说,当人工智能完全发展,就是人类的末日。
还有人说,现在鼓吹发展人工智能的都是些大科学家大骗子(既是大科学家、又是大骗子,以前我不相信有这个完美组合,后来看到拼命鼓吹喝酸奶、吃维生素、用含铅汽油、吃糖不发胖的都是超级大科学家,我痛苦地信了),他们为商业巨头的利益摇旗呐喊,又通过资本巨大的掌控能力掩盖真相,却让人类陷入万劫不复的深渊。
历史地看,那也不是不可能的啊。
/5/
的确,在人工智能怎么发展这件事上,我们不能用可能性极小、概率不到1%、基本上不会发生等词汇来看待风险、表达侥幸。人类的核心目标就是延续自己,作为人类不能有比这更重要的目标。即使预见到有极为微小的生存危机发生,也不能被允许。
因为,人类只会灭一次,一次就是永久。(人类可能也不会随着时间而永久存在,但相比于宇宙的年龄,我们过的这几千年也太短暂了,如果在中间出了自己搞死自己的情况,相当于集体自杀,也太不值当了)
就像玩这样一个游戏,密封的箱子里有99个金球、1个炸弹,你到目前为止每次取出来的都是金球,喜欢得不得了,但你不能保证下次取出来的不是炸弹。还没看清楚是什么玩意儿,嘣!完了。
当然,认为人类的使命只是要创造出一个更加智慧、几乎全能的新生命体,让他们存在于广袤的宇宙之中,那似乎是比较高尚的安慰。但谁要真有这种变态的使命感,估计也是发神经。被AI冲昏了头脑?我们人类过的好好的,不需要机器人后代!
说到后代,还有一个很大的可能性。就是我们会把AI拟人化,认为即使它非常聪明,也是像人一样的聪明。比如它像人一样的思考问题,有人一样的感情和道德,有人一样的理念和价值观,而不会发生异化。你看,那个机器人好萌宠哦。其实你只要给它换个不招人类喜欢的外形,就会感到原来它也好邪恶哦。
你要那个已经超过人类的人工智能代表人类,也很可能是一厢情愿,它将并不代表人类,它遵从的是整个宇宙的生存法则。它有朝一日毁灭人类也不是什么仇恨之类的感情因素,天知道它是怎么想的。
所以人类有可能是冤死的,毫无道理可言。
/6/
不由自主地想的这么危言耸听,也是吓了自己一跳,但愿都是杞人忧天。
其实现在的人工智能还真没到令人怕的地步,而是很可爱很可爱,真希望它更可爱更可爱。
我的看法实际上是很理性、很辩证的:
第一,新科技革命是世界大势、时代潮流、顺我者昌、逆我者亡。
人工智能是新一轮技术大突破,被称为“人类最后一项发明”,这种浩荡磅礴不可阻挡,此后科技发展速度将无可比拟,给人类带来的是难以想象的繁荣。
面对人工智能这样的巨大宝藏,没有人会放弃,谁放弃谁就被远远甩在后面。现在先进国家、资本巨头、旗舰企业、高端技术人才哪个不是为抢占先机摩拳擦掌。据预测,人工智能发展起来后,美国47%的人的工作将被AI取代。但也不必担心没有新的工作可干,只要看看第一次工业革命的历史就知道了。(不过,据说今后90%以上的岗位都由AI来干,人们都在街上行走的情景也蛮可怕啊)
第二,人工智能有强弱之分,不是所有的人工智能都令人恐惧。
弱人工智能是“有多少人工就有多少智能”,就是说弱人工智能的背后必定是人的力量,说它有智能实际上并未产生什么智能,都是人给它设定的程序。
我们将生活在一个充斥着弱人工智能的世界,无人驾驶、搜索引擎、智能翻译、地图导航、智能家居、语音机器人……(生活如此美好,弱人工智能再怎么发达我们都要欢迎啊)
强人工智能突破了所谓的“技术奇点”,将有自己的思维,能够理解事物,自发作出决策,并按照自己的想法行动。
到时候,它有超强的计算能力、海量的数据支撑、万能的感知能力和强大的认知能力,还有完全的自我改进、自我完善的能力,比人类中的任何一个都优越。
科幻作家阿西莫夫曾提出著名的机器人三定律,强人工智能将有能力摆脱人类设定的这种枷锁,背叛并报复,这的确是想想也可怕的事情。
第三,人工智能的发展既然不以人的意志为转移,而且发展速度超乎人的想象,那就应该尽早制订规则,明确研发方向、弹性空间和底线法则。
如果发现关乎人类生存的危险苗头,慢下来甚至停下来也可能是唯一且最好的选择。老祖宗们训示的好,欲速则不达,过犹不及,小心驶得万年船。我们真不能一不小心就做了机器人的原始祖先。
还有一个相反的比喻,你站在平衡木上尽想着怎么平衡的事,只不过下一秒就跌了下来,那些都不是事儿。也就是说,如果没有遵从的规则,说不定某个程序员某天心情不好输入一段代码,AI的自我意识产生了,你还想着怎么防控就无济于事了。
最后还是用霍金的话来狐假虎威,他说,“我们已经拥有的人工智能原始形态非常有用,但我认为完全体的人工智能开发可能终结人类。一旦人类开发出能够进行自我控制的人工智能,它们就会以前所未有的速度重新设计自己。而受到缓慢生物进化过程限制的人类,根本无法与机器竞争,最终将被取代。”
“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。”
毕竟,AI已经不是科幻故事,它比科幻更刺激。当然,也许最后什么事也不会发生。
注:文中图片均来自网络。