最近在非营利性组织“未来生命研究所”(Future of Life Institute)网站上的一封公开信得到了包括马斯克与人工智能领域顶尖专家、图灵奖得主约书亚·本吉奥(Yoshua Bengio)等在内的上千各领域专家的联名签署。
有兴趣的可以看看这封公开信,链接放在下面了。
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
目前由于签署人数太多网站暂停了签署功能,我们不由得要问为什么会有这么多人,并且还主要是主流定义的精英人士反对目前这个阶段对于人工智能的进一步研发,关于AI他们到底看到了什么,担心的又是什么。
一、公开信里讲了啥
有兴趣的可以直接打开上面的链接看看公开信原文的内容。我看了一下,简单把信中的内容大致总结成以下四点:
1.目前的人工智能陷入失控,没有人,即使是它的创造者也无法预测以及可靠的控制它;
2.只有当我们确信它的影响是积极的,它的风险是可控的时候,才应该开发强大的人工智能系统。因此呼吁所有AI实验室立即暂停至少6个月的时间训练比GPT-4更强大的人工智能;
3.人类应该利用暂停的时间来共同开发和实施一套确保人工智能安全可靠的协议;
4.目前的人工智能已经够好用,大家可以享受AI的成果了。
这篇文章主要就是针对第1、2、4这三点来谈一谈。第3点太专业化,我不懂,交给专家。
二、我们为什么担心人工智能
其实说白了,人们之所以担心open AI开发GPT,其背后的核心原因在于对未知的恐惧。
这里所谓的“未知”,不是指什么万一人工智能有了自我意识之类的猜测。因为在我看来什么是自我意识这事本身人类就还没研究明白,谈这个有点早了。我所说的未知,其实是指人们可能是在历史上首次面对人工智能这么一个工具:这个工具确实是由人类制造的,它也确实往往做到了人类让它做的事,但偏偏没人能够说清楚它到底是怎么做到的。
这才是这封公开信里提到的“没有人,即使是它的创造者也无法预测以及可靠的控制它”的本意。
有些人不理解,既然这玩意儿是我们制造出来的,为什么我们不知道它是怎么做到我们让它做的那些事的呢。这要从传统的编程与目前人工智能的主流技术深度学习之间的本质差异说起。
传统的编程的本质大概是这样。首先程序员你得完全理解你要做的这个事的逻辑与规则,并且事先定义好问题的解决方法和步骤,最后就可以编写代码按照之前的设计来实现。所以本质上编程是基于因果论的,程序员自己知道整个程序是基于什么样的流程在运作,于是这种方式天然有可预测性与可控制性。
但人工智能不一样,就以人工智能发展到现在主流的深度学习为例。它是基于数据的机器学习方法,不需要明确定义问题的解决方法和步骤。相反的,深度学习模型通过训练来学习从数据中提取特征和分类的方法,从而实现问题的解决。
这是什么意思呢,简单来说人工智能就不是基于因果论的,它是基于统计学。一个数据输入后它通过算法训练出来的模型匹配一个结果来输出,但中间发生了什么却相当于一个黑箱。
恐惧就来自于这个黑箱,各种猜测也来自于黑箱。
它是不是产生自我意识了?它是不是会伤害人类?它是好的还是坏的?统统不知道,因为我们无法用传统编程的方式来看看里面实际发生的各种规则和逻辑是怎么回事。如果从这个角度来看,其实它有点像人类大脑的感觉,任何其他人的脑袋其实对于我们来说都是黑箱,我们只知道对方做了什么,但是不知道对方怎么想的,以及对方还想做什么。
三、现在的人工智能够用了吗
首先什么叫做够用,多少算是够用了。我讲个不知真假的段子大家可以体会一下。
据说,1930年代末期,当时的IBM公司总裁托马斯·沃森曾经在一次会议上表示,他认为全世界可能只需要五台计算机就足够了。注意哦,他说的五台是当时那种放在现在来看巨笨重巨慢的计算机。但实际上,当时持有这种观点的不只是托马斯·沃森一个人,还有很多人持有这种类似观点。实际的情况大家很清楚了,他们的看法在未来几十年里都被证明是极其错误的,计算机无论是从数量还是性能上完全是不够用好嘛。
类似的事情其实经常发生,不只是在电脑上,在很多新技术新产品出现的时候也会有人觉得够用了。信了这一套观点的,如果是普通人还好,但如果是企业家或者商人那无疑就很悲催的。原因是什么呢,是什么导致了让无数聪明的脑袋出现了错到离谱的判断。其实最主要的就是人们往往低估了需求的增加。
就像一个被称为帕金森定律(Parkinson's Law)一样,它是由英国历史学家和作家西奥多·帕金森(C. Northcote Parkinson)在1955年提出的。帕金森定律的原文是:“工作会自动填满你规定的时间。”
我们用帕金森定律来转写一下“五台电脑就够用”的故事,那就是“需求会自动填满你增加出来的电脑性能”。并且真实情况是,有时候反而是需求的增长比性能的提升还快,用手机的人基本都知道我在说什么。有时候明明换了新手机,但没过多久好像存储或者性能又不够用了。
所以回到我们要讨论的问题,现在的人工智能够用了吗,你们觉得呢。
四、结语
回到那封公开信这事上,我看了一下有哪些联名签署的人。
最亮眼的是排在前四的大佬。有图灵奖得主,有人工智能领域的大神,有马斯克以及苹果的联合创始人。并且大家接着往下看这份千人名单还可以发现,这些人基本都是各类领域的主流精英人员。
说个不好听的,很多人,特别是绝大部分中国人甚至都还没感受到这一轮以GPT-4为代表的AI技术带来的变革以及生产力的飙升呢,就开始有人要出来反对AI了。
正如有句话说的,AI已来,只是分布不均。
说实话,他们反对AI继续升级的理由各有各的,但我腹黑的想一想,如果从下面这个角度来说,他们确实应该反对AI的继续升级。因为GPT-4已经严重威胁到大量他们的员工,也就是白领的职业生存了。那么GPT-5一旦出来,会不会把一些不怎么样的老板也一并干掉?
如果GPT-5真能如联名公开信中呼吁的那样被暂停6个月,那么中国能获得难得的半年时间来追赶。在这一波以chatGPT为代表的AI技术上中国实在是输得太彻底,而留给中国队的时间真不多了。但我真正相信的是:GPT-5或者更强AI的研发不会暂缓。
因为如果联名签署公开信有用的话,这个世界的规则应该由中国和印度来写才对。