读到这一节,我很佩服作者瑞·达利欧对计算机系统和人工智能技术的预见性,其论述完全契合当下的发展情境。本书出版于2017年,那时他68岁,就已清晰勾勒出人机协作的框架与边界。
作者将计算机视为具备“毅力”、不带偏见且记忆力强大的机器,其决策更快、更全面,且免疫于从众行为。但他也深刻地指出,它终究替代不了人脑,因为它不具备常识、理解力、想象力和创造力。它应是人类决策的良伴,而非替代品。
他尤其强调,在深刻理解人工智能之前不要过度信赖它。他区分了三种计算机辅助决策技术:专家系统、模仿和数据开采。他推崇的是“专家系统”,即由人将深思熟虑后的决策原则转化为算法(就像为房间设置温度调节器),而非盲目相信机器学习从数据中挖掘出的、无法解释因果关系的“黑箱”模型。后者在未来情境变化时会非常危险,因为计算机没有常识,很容易发现错误的关联。
他的核心忧虑在于,人类竞争的天性可能会驱使我们过度信任那些超出我们理解范围的、由计算机发现的因果关系。这种信任有时会带来成效,有时则会适得其反。他相信AI将带来极快、极了不起的进步,但也担心它可能导致灾难。
然而,他最终的态度是乐观的。他坚信世界上最好的决策者将是那些“将理性、想象力和毅力,与计算机算法结合起来的人”。
人脑与科技的结合,如同司机使用GPS,是用以辅助而非替代我们的导航能力。人类正在走向一个既令人兴奋又危险的新世界,而未来会美好的唯一前提是:我们不是把头埋在沙子里,而是勇敢地准备好应对之道。
以下是书中内容:
系统化和计算机化的决策
未来,人工智能将对人类所有方面的决策产生深刻影响,尤其是在人类已经进入的这个新时代,关于人的信息极为透明,这二者结合会产生极大的影响。现在,不管你喜欢与否,任何人都可以轻易获取你的数据信息,对你进行深入了解,而且这些数据可以被输入计算机,从你会买什么商品到你的人生价值观如何。尽管这让许多人觉得恐慌,但30多年来在桥水,我们一直在把极度透明和算法决策结合起来,并发现这样做成效非凡。事实上我相信,不久之后,这种计算机化决策将变得常态化,几乎和人脑决策一样正常。
人工智能不是一个新概念。早在20世纪70年代,当我初次尝试计算机化决策时,这个概念就已经存在了将近20年(“人工智能”一词首次出现于1956年达特茅斯学院的一场会议)。尽管从那时到现在很多情况发生了变化,但人工智能的基本概念始终不变。
举一个极简单的计算机化决策的例子。假设你在住房供暖方面有两项原则:当温度降到20℃以下时开暖气,午夜到凌晨5点之间关暖气。你可以用一个简单的决策公式来表达这两项原则之间的关系:如果温度低于20℃,时间不在午夜到凌晨5点之间,就开暖气。在搜集很多这样的公式后,你就可以创建一套决策体系,这套体系能够处理数据,权衡和应用各种相关标准,并提出决策建议。
用算法表述投资决策标准,然后用历史数据来检验,或者用算法表述工作原则,然后用其来帮助管理决策,都不过是智能温度调节器的更大、更复杂的版本。与人脑决策相比,这能让我们更快地做出考虑更周全、更少情绪化的决策。
我相信这种做法会变得越来越普遍,计算机编码会变得和写字一样重要。计算机在帮助决策方面的作用,迟早会变得像它们今天在收集信息方面的作用一样大。当计算机帮助我们决策的时候,它们将了解到我们的情况,包括我们的价值观、长处和短处。它们将能自动地找到在特定领域比我们更强的人的帮助,从而能给我们提供合适的建议。不久之后,我们的计算机就能和其他人的计算机对话,并以上述方式合作。事实上这已经在发生了。
设想这样一个世界:你能利用科技接入一个系统,可以在系统里输入你正在处理的问题,并向全世界这方面最受好评的思考者请教解决办法,以及背后的理由。这一点将很快得以实现。不久后,在几乎所有你面临的问题上,你都能利用全世界最高质量的思考,并得到能权衡不同观点的计算机化系统的指导。例如,你将可以询问,基于自己的情况,你应当选择什么样的生活方式或职业生涯,或者基于其他人的情况,你应当如何与他们沟通。这些创新将把人从自己的头脑中解放出来,释放出一种无比强大的集体思维模式。桥水正在这么做,并发现这种思维模式比传统思维方式好得多。
听到这样的观点,人们经常会说,人工智能将和人类智能竞争,但在我看来,人类智能和人工智能同舟共济的可能性更大,因为这能带来最好的结果。计算机要复制人脑的许多功能,如想象力、综合分析能力和创造力,要经过很长时间,甚至永无可能。这是因为人脑天生就储存着亿万年生物进化培育的各种能力。许多计算机系统依据的是决策“科学”,依然远远不如“技艺”有价值。在最重要的决策方面,人类依然比计算机做得好。你只需看看最成功的人是什么样的人就明白了。软件开发工程师、数学家和博弈论研究者并不是最成功的,最具有理性、想象力和毅力的人最成功。
计算机模型需要被输入合理信息,信息需要解读,而只有人类智能可以开展这种解读。例如,计算机无法告诉你,与亲人共处时间和工作时间的相对价值如何,如何达成最优的时间分配组合,使两种活动的边际效用都达到最大。只有你知道你最看重什么,你愿意与谁共度人生,你想要什么样的环境,只有你能最终做出最好的决定,尽最大可能实现这一切。而且,我们的很多思考来自自己无法理解的潜意识,所以把人类思考彻底模型化是不可能的,就像从未抽象思考过的动物不可能定义和学习抽象思考一样。
但在很多方面,人脑也无法与计算机竞争。计算机的“毅力”比任何人都强得多,因为它能全天不间断地工作。计算机能处理海量信息,而且速度飞快,其可靠性和客观性是人类永远无法比拟的。计算机能让你注意到无数你从未想过的可能性。也许最重要的是,计算机对群体偏见和从众思维免疫。计算机不会顾虑自己的结论会不会受人欢迎,而且从来不惊慌失措。在“9·11”事件那段可怕的日子里,当整个美国深陷伤痛时,从2008年9月19日到10月10日,当道琼斯指数下跌3600点时,我常常想拥抱我那些风雨不惊的计算机。
这种人和机器的结合很美妙。人脑与科技合作的进程促使人类进步,正是凭着这么做,人类从茹毛饮血走向了信息时代。所以世界上最好的决策者是这样的人:拥有理性、想象力和毅力,知道自己看重什么、想要什么,同时也利用计算机、算法和博弈论。我们在桥水利用计算机系统,就像司机利用GPS一样,是用系统来辅助我们的导航能力,而不是替代它。
5.12 在深刻理解人工智能之前不要过度信赖它
当人工智能使用者在没有深刻理解它的情况下就接受机器学习创造的算法所假定的因果关系,甚至根据这些认识来行动时,我就对人工智能的危险感到担忧。
在解释原因之前,我想先阐明我的用词。人们经常轻率地使用“人工智能”和“机器学习”,并将其作为同义词,但二者大不相同。我把当前的计算机辅助决策技术分为三大类:专家系统、模仿和数据开采(这是我的分类,不是科技界常用的分类)。
我们在桥水使用的是专家系统,设计者根据自己对一系列因果关系的理性理解将决策标准表述出来,然后观察不同条件下会出现什么不同情况。
但计算机也能发现规律并将其应用于计算机决策,而不需理解这些规律背后的逻辑。我把这种决策技术称为“模仿”。当同样的情况以可靠的方式反复不变地发生时,例如在一场规则极其严格的游戏中,这一做法也许有效。但现实中事物不断变化,所以这样的系统很容易与现实脱节。
数据开采是近年来机器学习发展最快的领域,是指功能强大的计算机消化大量数据,从中寻找规律。尽管这种做法很常见,但在未来与历史不同的情况下,这是有风险的。在机器学习不包含对现实的深刻理解的情况下,以机器学习为基础构建的投资系统很危险,因为当人们广泛相信并应用某些决策规则时,价格会受到影响。换言之,一个深刻见解在众所周知之后,其价值会逐渐衰减。在没有深刻理解的情况下,你弄不清楚过去发生的情况是否真有价值,即使有价值,你也弄不清楚其价值是否已经消失,甚至走向负面。常见的情况是,一些决策规则变得非常流行,以至对价格产生很大影响,从而使反向操作成为更合理的做法。
谨记,计算机是没有常识的。例如,计算机很容易曲解事实,看到人早上睡醒后吃早饭,就认为睡醒导致人饥饿。与其下很多我拿不准的押注,还不如下较少的我拿得准的押注(最好是互不相关的押注),同时,无法说明任何决策背后的逻辑,对我而言都是无法容忍的做法。很多人因为发现机器学习比形成深刻理解容易得多,就盲目信任机器学习。而对我而言,深刻理解必不可少,尤其是对我做的事情而言。
我的意思不是模仿系统、数据开采系统没有用。事实上我相信,在未来的事物发展范围和格局与过去相同的情况下,这些系统对决策很有帮助。有了足够强大的计算能力后,所有可能变量就都可以纳入考虑。例如,通过分析不同形势下国际象棋好手弈棋的数据,通过分析不同手术期间杰出外科医生的手术流程,人们可以创造出很有价值的下棋程序或手术程序。早在1997年,计算机程序“深蓝”就用这种方式击败了全球排名最高的国际象棋棋手加里·卡斯帕罗夫。但当未来与过去不同、我们因理解不深而无法识别所有因果关系时,这一做法是行不通的。凭着理解这些因果关系,我没有像其他人一样犯错误,最明显的例子是2008年的金融危机,当时几乎所有人都以为未来会和过去一样。把全部注意力集中于符合逻辑的因果关系,我们将能看到事情的真相。
想想看,人脑其实就是以某种方式编程的计算机,处理数据,发出指令。我们可以编排人脑的逻辑和作为工具的计算机的逻辑,让它们彼此合作,甚至相互检验。这是一种美妙的做法。
例如,假设我们要归纳出能解释物种进化的普适规律。理论上,只要我们有足够的处理能力和时间,这就是可能的。当然,我们需要把计算机得出的公式弄明白,以确保这不是一堆从数据中提取的大杂烩,即不同因素只有相关性,没有因果性联系。我们可以不断简化这些规则,直到实现毫无疑问的精确度。
当然,鉴于人脑的处理能力和速度有限,要对进化过程中的所有变量形成丰富的理解,是一个永远无法完成的任务。那么,我们的专家系统采用的那些简化法和理解法真的是必需的吗?也许不是。在我们检验的数据之外还会发生其他情况,这样的风险肯定是存在的。尽管如此,我们仍然可以说,与某种看起来成立但机理不清晰的公式相比,我们把以数据开采为基础的公式视为解释物种进化的普适规律,并依赖这些公式预测未来10年、20年、50年的变化,是风险相对较低的做法(至少可能有助于科学家治疗基因疾病)。
事实上,我们对理解的强调也可能太过了,有意识的思考只是理解的一部分,也许我们导出一个公式并用它来预测未来变化也就足够了。在我个人看来,与依赖我不理解的算法相比,对因果关系形成深刻理解所产生的兴奋、安全性和教育价值要有吸引力得多,所以我依然倾向于这种做法。然而,是我的逻辑和理性,还是我较低层次的偏好和习惯在促使我这么想?我不能确定。我希望就此问题询问人工智能领域最杰出的人才(并请他们向我提问)。
最有可能发生的情况是,人类酷爱竞争的天性将促使我们越来越信任计算机发现的、超出我们理解范围的因果关系。这种信任有时会带来成效,有时会适得其反。我想人工智能将带来极快、极了不起的进步,但也担心它会导致人类的毁灭。
人类正在走向一个既令人兴奋又危险的新世界。这就是我们眼前的现实。而我一如既往地相信,如果我们不是把头埋在沙子里,而是准备好应对之道的话,未来会美好得多。