AI专题7:更聪明的社会。 8:AI时代需要什么领导技能? 9:人要更像人

AI专题7:更聪明的社会

1.要用AI最好整个社会一起协调,大家都用AI。

2.应用AI可能会在一时之间放大社会波动,我们最好小心行事。

3.减少AI对社会震动的好办法是先模拟。

4.现在的趋势就是从个别公司在个别任务上使用AI,到系统性地使用AI,到整个社会围绕AI展开。AI会让我们的社会变得更聪明。在这个过程中,企业和政府部门都有大量的工作可以做。


《权力与预测》对AI全部期待就是做预测。因为预测对经济效率的提升是宏观的,是决定性的:预测能促进资源更有效的调配。

简单说,AI的预测能让社会更聪明。

普及AI有「点解决方案」「应用解决方案」和「系统解决方案」三个层次。

如何在一个组织或者一个城市中实施系统解决方案。

《权力与预测》书中举了两个例子,保险和医疗。

AI替代而导致裁员最多的就是保险公司。这挺合理,毕竟保险业务最重要的事儿就是做预测,而在这种数据密集的领域AI很擅长预测。

以房屋保险为例,所有的业务可以分成三个主要的决策——

1. 营销:分析潜在的客户人群,看看他们的价值有多大,能转换成客户的概率有多高,决定下多大功夫去争取;

2. 承保:根据房屋的价值和出事故的风险,计算一个合理的保险费,要既能让公司盈利,又在市场上有价格竞争力。

3. 理赔:一旦房子出事,客户索赔,你要评估那个索赔是否合理合法,加快理赔进度。

所有这些决策中的预测部分都可以交给AI。比如现在有些保险公司已经把理赔给自动化了。你家遭遇了一场冰雹,屋顶被砸坏了,保险公司并不需要派人去现场查看——你自己拍张照片发过来,AI看一眼就能给你估价,该赔多少钱直接办理,省时省力。

但这只是点解决方案。系统解决方案,是保险公司不但要跟你算钱,而且应该干预你对房屋的保养。

现在的保险公司看到房屋风险比较大,就提高你的保费。AI化的保险公司看到风险大,则会以保费为杠杆,要求你采取行动降低风险。

比如说,美国49%的房屋火灾都是在家做饭导致的——不是一般做饭,主要是油炸这种做饭方式。有些家庭从来不做油炸食品,有些家庭经常搞油炸,那么让这两类家庭为火灾保险交同样的钱,就不太合理。以前保险公司不得不对他们收一样的保费,是因为不知道谁家爱用油炸。

现在保险公司可以这么干。问你可否在厨房安装一个装置,每次用油炸就自动记录下来。客户第一反应肯定是不同意,说这涉及到我的隐私。但如果AI预测足够精确,保险公司就可以跟客户谈,说如果允许我装这个装置,你的保费可以降低25%。你说客户会不会接受?

再比如,保险公司根据AI预测,觉得你家房子的水电管线有点老化了,容易出问题。它可以主动找你,说我能不能给提供点补贴,你把你家的管线修缮一下?

目前,保险公司还不愿意这么做,因为这首先意味着实际保费降低了——保险公司更喜欢加价而不是减价。但如果AI足够精确,保险公司就可以看到灾害切实减少了,理赔费用一定会降低,那么它的利润是增加的。那这么做就有双重的好处,不但保险,而且减灾。

而这一切都只有在你能把账算得非常清楚的情况下才能实现。

医院里的急诊室有个特别常见的状况是病人胸口痛。对这种情况医生必须判断是不是心脏病,是心脏病就得赶紧处置。但问题是,急诊医生并没有很好的诊断方法。

通常的做法是搞个正式的检查,而心脏病检查对患者是有害的。准确的测试需要用心导管之类,会直接给身体造成一个创伤;又或者哪怕只是做个最简单的X光或者CT,也有辐射。

于是有两个经济学家,发明了一套AI诊断系统,能根据患者外表的几个症状指标预测是不是心脏病、是否需要进一步正式检查。研究表明这套 AI系统比急诊医生的诊断更准确。

跟AI对比发现,很多不应该做有创检查的患者被急诊医生要求去做了有创检查。这似乎可以理解,毕竟让患者做检查医院可以多收钱。但是系统也发现,有很多应该去做检查的病人,急诊医生没有让他们去做检查,而是打发他们回家了——有的患者为此错过了治疗时间,甚至导致了死亡。

要这么说的话,如果改为用AI诊断,不但对患者大有好处,对医院也有好处。你的工作流程不需要改变,你的诊断时间还减少了,你也没少收钱,对吧?

可是事实证明,医院大多都不愿意采用AI。

医院,是一种非常保守的机构。可能正因为有太多新技术等着医院去采纳,它很不愿意采纳新技术。每采纳一个新技术都要重新培训医生、重新审议流程。而且新技术还有风险,有时候测试时挺好的,一旦用上了,却又没有那么好。新技术还会影响各部门的权力分配,有各种连带问题。

所以医院改革是最难的。但是如果医院可以系统性地采纳AI诊断,急诊室会是什么样呢?

某人感到胸口痛,打电话到医院。医院AI通过他对症状的描述,也许结合他身上智能手表的读数,直接预测是不是心脏病。医生根据AI的报告,如果认为这个人没事,可以让他根本不用来医院。如果判断这个人的确是心脏病发作而且很严重,就直接派救护车过去,救护车上的医生还会携带能缓解心脏病的仪器,到病人家里先采取一些手段,争取抢救时间。

这是对整个急诊流程的改变。

在《权力与预测》这本书看来,任何组织都可以被看作是决策组织。书中搞了一个应用AI的战略方案,是从填一个表格开始——

表格的第一项是组织的核心任务,这个不变,有没有AI都是这个任务。

然后把核心任务涉及到的几个决策都列出来,标记好这些决策是由哪些部门来做的。

再把每一项决策分成「预测」和「判断」两部分,列出目前都是哪些部门负责这些工作。

再考虑如果把预测都交给AI,涉及到的各个部门,会受到什么影响……按照这个思路去考虑组织机构的变革。重点看趋势。

从AI的点解决方案到系统解决方案不会过渡很长时间,因为点解决方案有一个驱动系统解决方案的趋势。

特别好的例子是开餐馆。对餐馆来说,准备食材是个关于不确定性的游戏。客人只能点菜单上的菜,这给你提供了一定的方便,只要准备特定的几种食材就行。但你会发现客人点菜具有波动性,有一阵流行这个有一阵流行那个,食材消耗是不确定的。比如你每周都订购100磅牛油果。有时候100磅太多了,没用完得扔掉;有时候又太少,客人点了这道菜却没有。

现在我们假设你用上了AI, AI能精确预测下周大概需要订购多少牛油果。于是你有时候一星期订30磅,有时候订300磅。你减少了浪费还保证了供应,你的盈利提高了。

但是请注意,因为你的不确定性减少,你上游供应商的出货不确定性增加了。他很喜欢你每周都订100磅,现在你变来变去,他的销售就产生了波动。他怎么办?他只好也用上AI。

以前他每周固定采购25000磅牛油果,现在他有时候订5000磅,有时候订5万磅。那你说他的上游会怎样?也得用AI……以此一直推到种植牛油果的农民,也得用AI预测市场波动才行。

因为一家企业的波动而引起整个供应链的大幅波动,在供应链管理领域中这叫「牛鞭效应(Bullwhip Effect)」。牛鞭效应会导致库存增加、服务水平下降和成本上升等等问题。这个思想实验告诉我们两个道理。

一个道理是要用AI最好整个社会一起协调,大家都用AI。

另一个道理是应用AI可能会在一时之间放大社会波动,我们最好小心行事。

怎么减少AI对社会的震动呢?一个好办法是先模拟。

讲个有意思的故事。美洲杯帆船赛是一项历史悠久的赛事,但是参赛队伍都很讲究科技。人们一直在想办法改进帆船的设计。这里面有个很有意思的动力学,就是帆船设计变了,人操控帆船的技术也得跟着变才行。你得找到操控这个新设计的最佳方法,才能知道这个设计到底好不好。

传统上,你设计出一个新型帆船,得让运动员先尝试用各种不同的方法驾驶它。运动员要熟练掌握一个新方法是需要时间的,好不容易掌握了,还不知道是不是最好的。也许换个设计、用另一套驾驶方法,效果会更好……可是那么多搭配,你哪有时间一次次训练新方法呢?这里创新的瓶颈是运动员。

2017年,新西兰队跟麦肯锡咨询公司共同发明了一个新办法,那就是用AI代替运动员试驾新帆船。

设计好一个新帆船,先用AI模拟水手的操作,用强化学习的方法先把AI训练好,让AI找到驾驶这种船型的最佳方法。这个速度比人类运动员可快太多了。

当然真正比赛中你不能让AI上场。但是找到船型和操控方法的最佳组合之后,可以让AI教人类运动员怎么驾驶帆船。就这样,运动员不用参加反复的试验,就学会了最佳操控方法。

这个故事的精神是有什么新方法可以先在模拟环境中演练。这其实也是蒂姆·帕尔默《首要怀疑》一书说的「虚拟地球」的价值所在:有什么新政策,先在虚拟地球里测试一下,看看是什么结果。

事实上,就在2022年,新加坡已经搞了一个「数字孪生体(Digital Twin)」,一比一复刻了一个虚拟新加坡。开发这套系统用了几千万美元。现在新加坡政府搞城市规划,什么动作都可以先在虚拟新加坡里测试一下。

比如如果新加坡要用AI管理交通,担心会不会对整个系统造成比较大的波动,就可以先在虚拟新加坡里测试一下这个做法。

现在的趋势就是从个别公司在个别任务上使用AI,到系统性地使用AI,到整个社会围绕AI展开。AI会让我们的社会变得更聪明。在这个过程中,企业和政府部门都有大量的工作可以做。

而你的生活也会因此而改变。你能接受在家里做个油炸丸子都能影响房屋保险吗?你会觉得AI对人的干预太多吗?

如果AI的干预意味着你的保险费下降,生活更方便,财富更多,我想你会接受的。

还是跟电力类比,如果将来到处都是AI,我们就可以忘记AI——我们只要模模糊糊地知道什么行为好、什么行为不好就行,而不必计较背后的数字。AI会自动引导我们做出更多好的行为,也许整个社会会因此变得更好。







AI专题8:AI时代需要什么领导技能?

1.「存在智能」是有关“大问题”的智力,比如我为什么活着,什么是爱。

2.对商业最有用的两方面智能,你不会被AI取代:一个是情感智能,了解你自己和了解别人;一个就是存在智能。


在ChatGPT的冲击之下,我们急需新思想来理解这个AI新时代。

这一讲开始讲微观的商业,特别是公司领导力。

AI时代公司跟公司之间的差异在哪呢?领导力的价值如何体现?这家公司如何比别家公司更能赚钱呢?

先讲个小例子。OpenAI把API流量价格降低了10倍之后,几天之内就涌现出无数个基于GPT的小应用。其中很多都是业余的个人,写几行程序弄个网站,实现一个功能就能吸引很多人来用。

最需要的一个服务是把一本书输入给GPT,然后用问答的方式来学习。结果这样的应用现在已经有好几个了,其中最火的一个叫ChatPDF。它上线不到一周就有了十万次PDF上传,十天就有了超过30万次对话——

然后它推出每月5美元的付费服务,开始赚钱了。ChatPDF的作者只有三千个Twitter粉丝,可是现在Twitter上有无数人谈论这个工具。

大家起点都一样,为什么ChatPDF就能抢跑成功呢?创办这个网站需要的所有工具都是现成的,它的人气不是完全来自AI。仅仅是因为它运气好吗?

ChatPDF网站的界面简洁而友好。直接就上手,还针对学生、用于工作和一般好奇的人分别说明了这个东西有什么用。它的服务分为免费和收费两档,免费也很有用,收费也很便宜。它还有自己的用户社区。

对比之下,竞争对手,比如PandaGPT,做的虽然也不错,但是各方面的直观性和友好度就差了那么一点点 ——

这一点点看似简单,实则不容易做到。你必须非常理解用户,才能提供最舒服的使用体验。

这一点点,也许就是AI时代最值钱的技能。

现在只有像猪肉之类的通用必需品才只看质量和价格,大多数商品都得讲讲品牌和市场定位,尤其网络时代还得讲跟用户的互动。为此你需要两点——

第一,你得非常理解现在的用户想要什么。

第二,你得让人认可你。

也就是认识和被认识,理解和被理解。而这些,恰恰是AI所不能给的。

《门槛:AI时代的领导力》(The Threshold: Leading in the Age of AI)。

作者尼克·查特拉思(Nick Chatrath)是个商业咨询专家,现在自己创业了,以前在麦肯锡当过顾问。

这本书的主题是AI时代的领导力应该是什么样的。查特拉思的建议叫做「门槛」,意思是两个房间中间的位置——这种领导力要求你把新和旧结合起来,把心灵和大脑结合起来。门槛领导力有啥不一样呢?

先回顾一下领导力的演变。

最早的领导力是「英雄主义」。我是这个狼群中最能打的,所以你们都得听我的,我说怎么办就怎么办……这是最土的领导。

近现代以来出现了「军队式」的领导力。讲究稳定和可靠性,做事得有章法,不能朝令夕改。这种领导力的问题在于容易出官僚主义,类似于国企,什么都讲制度和流程,有时候忘了初心。

后来主流管理学倡导「机器式」的领导力。它以目标为核心,讲考核、问责、任人唯贤,提倡比较扁平的组织结构,追求效率最大化。这是国内民营企业常见的领导方式。这种领导力的问题在于它可能会让视野窄化,过于关注具体的目标,时间长了会产生倦怠,乃至于丧失视野。

前面这三种可以说都是卖猪肉思维,比的是执行。

新一代管理学倡导的一种领导力是讲「价值观和愿景」。说我们不是一个只知道赚钱的公司,我们是为客户创造价值……它讲究「服务式领导」,希望员工对要做的事情达成共识,不但知道做什么更要知道为什么。这种领导力的问题是现在社会上各种价值观是冲突的,共识难以达成。那怎么办呢?

查特拉思提出的「门槛领导力」,就是要充分认识事物的复杂性,能够处理有矛盾冲突的观念。门槛领导力特别讲人格魅力:你的公司,本质上是你的人格的放大——你有多大的认知,公司能做多大的事;你的认知有多复杂,公司才能做多复杂的业务。

怎样培养门槛领导力呢?查特拉思说有四个途径:「静心沉思」「自主思考」「具身智能」和「增长意识」。关键在于,这些都不是AI能有的智能。

智商只是一个数字,并不能概括你所有的智能维度。现在认知心理学家把人的智能大体分成9类——

1. 逻辑和数学;

2. 语言;

3. 空间;

4. 欣赏大自然,了解生物;

5. 音乐;

6. 身体和感觉的协调;

7. 了解你自己;

8. 人际关系,也就是对他人的同情之了解;

9. 存在智能(existential intelligence),也就是有关“大问题”的智力,比如我为什么活着,什么是爱。

其中这个「存在智能」因为难以量化评估,它到底算不算是一种智能,学术界觉得还不好说——但是查特拉思特意把它列在这里,因为他认为这是很关键的一个商业能力。查特拉思预测,后面这四种能力,AI在短期内都无法超越人。

尤其对商业最有用的两方面智能,你不会被AI取代:一个是情感智能,了解你自己和了解别人;一个是存在智能。

情感计算为什么这么难?查特拉思列举了四个理由,认为AI在短期内既不能学会人的情感,更不能理解人的意识。

第一,检测情感非常困难。所谓能看脸判断人的情绪的「微表情」学说已经被证伪了。现实是不同文化、不同场景下,人的情感流露可以很不一样。人非常善于伪装和隐藏自己的情感——这是进化给人的社交本能——你不可能搞一套编码让AI自动识别。

第二,我们人都是在实践中学习理解别人的情感。你从小跟朋友们摸爬滚打,你惹怒过别人,你被人惹哭过,通过这些互动反馈你才学会了情感。AI没有这样的学习机会。

第三,人的情感十分复杂。经过几百万年的演化,人脑的逻辑运算能力虽然一般,但是情绪运算绝对是无比发达,是「系统1」的快速运算。我们能在复杂的环境中感受到微妙的危险,能自己给自己建构情绪,能用直觉做出难以名状的判断。情感会受到当前环境、人生经历、文化智慧等等方面的影响,以至于有DeepMind的科学家曾经对查特拉思说,这么复杂的计算可能是AI算力所无法达到的。

第四,人有一些感觉是无法用语言表达的。

哲学家有个基本概念叫「感质(qualia)」,意思是某种特定物体带给你的特定感觉。你对红色的感觉是什么?喝牛奶是一种什么感觉?你没有办法向一个盲人解释红色,也没有办法用语言向一个没喝过牛奶的人精确描写牛奶……那AI,又怎么能知道呢?

AI的有些认知是人理解不了的——但是别忘了,人的有些认知也是AI理解不了的。既然AI连人最基本的感觉都无法了解,又怎么能指望它做情感计算呢?

你必须切实理解人的情感和人生的意义,才能处理好现代社会中的各种冲突和矛盾。

查特拉思当过一段CEO,他发现客户和投资者最经常问他三类问题——

1. 认识自我和他人:你的团队都是谁?你的客户是谁?

2. 目的:你希望你的组织实现什么,为什么?

3. 伦理和价值观:你将如何处理数据隐私之类的道德问题?

这些都是只能由人,而不是AI,回答的问题。ChatPDF,它把客户分成三种类型,分别介绍这个东西对你有啥用;它在推动AI应用的普及;它有价值观,它强调了分享,最大限度保留了给免费用户的服务。ChatPDF的创造者的确很有商业意识,同时也的确很有极客精神。

AI当然能给你建议各种方案,但是像免费还是收费、要花多大成本保护用户隐私这些充满矛盾和悖论的问题,是你自己必须做的选择。那些不是智力题也不是知识题,而是人格题。

对公司来说现代社会正在变成熟人社会,你需要内圣外王的能力。查特拉思也像瓦德瓦一样,提倡用沉思——或者说冥想——的方式思考这些问题。

查特拉思说:「无论领导者在领导时认为自己在做什么,他们都在揭示自己的本质。」

你和你的员工是什么样,公司就是什么样。你们既是在探索自己是谁,也是在帮助客户发现他们是谁……这些听起来都很简单,实则比编程什么的困难得多,也重要得多。

自动驾驶AI的道德选择必须预先由人来制定,你怎么制定?比如说,汽车在紧急时刻是优先保护车内的人,还是车外的人?你要选择保车内的人,社会会谴责你;你要选择保车外的人,客户不会买你的车。你怎么设定才能让大家都满意呢?再比如说,训练AI模型的数据有偏见,无形之中对某些客户造成了歧视,你怎么向公众解释?

以前卖猪肉大家无所谓,现在哪怕是卖服装的布料,人们都会对你的价值观有所要求。现在所有商业都是演艺业(All business is show business——《娱乐至死》),所有品牌竞争都是人的精神内核的较量。

AI只是放大了这种较量。

ChatGPT这波浪潮给我们的一个启示是用上AI是很容易的,任何公司都能以非常便宜的价格购买OpenAI的算力。一家有AI而没有内核的公司,就如同现在很多所谓书法家,练了一辈子字,写的确实挺好看,但是没内容:你让他写个横幅,他只会什么“天道酬勤”“自强不息”之类的俗词儿。他们应该被AI淘汰。






AI专题9:人要更像人

1.培养情感智能和存在智能的两个途径,是「具身智能」和「自主思考」。

2.「具身智能」,是通过身体去体察自己和别人的情感。

3.身体提供了情感,是大脑不可缺少的一个信息来源,是人的思考过程中的关键一环。有了身体我们才可以「自主思考」。

4.那些你任性而为的时刻才是你真正活着的时刻。AI不是取代人而是解放了人,AI能让我们活得更像人。


2023年3月15日,OpenAI发布了GPT-4。GPT-4来得比我们想象的快,能力也比我们想象的强。它是多模态的,可以处理图像和声音;它能根据随便写在一张餐巾纸上的需求给你编程创造一个网站;它的各种生成能力都大大增强了。

可能让人印象最深刻的,是GPT-4参加人类主流考试的水平。它在美国律师执照统考(BAR)上的得分超过了90%的考生;它在美国生物奥林匹克竞赛的得分超过了99%的考生;它在GRE语文上取得了接近满分。它的数学成绩还没有达到最优,但是给它测试了几道奥数题,它答对了。

GPT-4这些成绩要申请美国名校的研究生,绰绰有余。

而且它还在以更快的速度迭代。

面对这个局面,教育应该怎么办?人应该怎么办?现在整个社会必须重新思考这些问题。

人相对于AI有个绝对的优势,是AI至少在短期内赶不上的——那就是人更理解人。

AI再厉害也得听人指挥,最终做决策的必须是人,这叫底线思维;一切生产、一切科研都是为了人,这叫不忘初心。人的需求必须是各项事业的出发点和落脚点,所以理解人永远都是最重要的智能。

而AI不可能比人更理解人。AI再厉害它也没有肉体,它不是碳基生物,它没有人的感知能力。

AI时代,在逻辑运算、听说读写那些一般认知项目上,我们已经输了——我们要发挥长板优势,就必须让自己更像人而不是更像AI。

AI时代的商业要求你认识自己、认识你的团队、认识你的客户,要求你有情感智能和存在智能。查特拉思提出培养这两种智能的四个途径。

这一讲说「具身智能」和「自主思考」。

具身智能,是通过身体去体察自己和别人的情感。

2018年,查特拉思跟百度金融服务事业群组(FSG)有过一段合作。这个部门后来搞了个产品叫度小满金融。像这种互联网金融业务是怎么来的呢?

中国有经济活动的人口总共是9亿,这9亿人中有5.5亿人,在中央银行没有信用记录。这使得他们没有办法获得贷款。但是生活中人总会有个临时借点钱的需求,没有信用记录就只能跟亲戚朋友借,总是不如向机构借方便——互联网金融就是要解决这个问题。

互联网公司的优势在于,它可以通过你在网上活动的记录判断你的信用。比如蚂蚁金服有你的淘宝购物数据,那些数据能预测你有没有还款能力。

百度的数据则是体现在百度地图、百度应用商店、百度阅读等应用中。百度知道你平时都读什么书、有怎样的学习习惯、下载了哪些应用程序,百度对你有个画像。

那你说读书跟会不会还钱有关系吗?有关系。百度搞了些小范围实验,把申请贷款的人分组做A/B测试,根据实验结果中的还款情况,结合百度的数据,就可以训练一个AI,预测符合哪些特征的人会还款。这样就可以给每个用户一个信用评分。

那你说这一切都是AI啊,人的能力在哪里?请注意,数据分析并不都是纸面上得来的知识。

要想真正理解数据就得深入到用户中间去。百度是派人到现场去跟用户聊,了解他们的日常生活是怎样的,他们怎么看待还款的道德。特别是潜在客户中很多都是年轻人,他们对自己的还款能力缺乏认识,他们不太理解借那么一大笔钱意味着什么,百度得想办法帮他们理解。哪怕同样的硬数据,你在服务的过程中操作方法不同,得到的结果也会不同。

这些都要求你跟用户有情感沟通。这些是AI所不能做的。

百度内部的工作讨论也需要情感。比如数据隐私问题,根据一个人使用阅读APP读书的记录来决定是否给他贷款,请问这合理吗?我找你借钱,就得把我在网上各种活动的数据都给你,让你比我老婆更了解我,这好吗?

我们站在用户角度从外边看,肯定觉得这些互联网商人真是唯利是图,无所不用其极……但是站在百度的角度看,他们也有各种不得已。首先这有法律问题。再者,如果你滥用数据,将来用户就不愿意使用你的产品了。可是不用数据,互联网金融又没法搞。

百度也很头疼,召开了各种会议进行道德辩论。辩论中每个人都结合自己切身的感受、是带着情绪在讨论这件事应该怎么办。百度这个公司做过一些坏事,但是里面也不都是坏人。

辩论的结果大概是拥有用户数据的部门不能直接把数据交给金融部门,而是自己先做数据分析,只给金融部门一个标签或者分数。这样在中间搞个阻断,保护用户的隐私。

这些不是AI生成的算法,这是有情绪功能的人们讨论出来的主意。

而情绪并不是纯粹的大脑功能,情绪跟身体非常有关系。

当你向人传达一个很困难的信息的时候,你会出汗。有人表扬你的时候,你的胸口会有一种紧缩感。感到爱意的时候,你的胃可能会翻腾。而且情绪和身体的互相影响是双向的。你刚刚走过一个会摇来摇去的索道,心跳加速的情况下遇到一个异性,那个心跳信号会让你以为自己遭遇了爱情。在饥饿状态下逛超市会让你购买更多的东西。人的肠道神经系统被称为“第二大脑”,这使得经常情绪紧张的人也会经常肚子疼……

我们很多时候是通过身体的反应了解自己的情绪。那AI没有身体,它怎么能有人的情绪呢?它怎么能理解人的情绪呢?它怎么能预测人的情绪呢?至少目前为止情绪功能还是人的优势。

充分感知自己和他人的情绪,区分不同情感之间的微妙差别,会对你的决策有重大影响。

门槛领导力还包括抒发情绪。有时候团队需要你讲几句,鼓舞人心或者感染气氛。你怎么说好呢?

比如说,诗歌,是人类最常见的一种表达情感的方式。而诗歌具有鲜明的身体烙印——诗歌之所以是诗歌,是因为它有韵律和节奏;韵律和节奏之所以对人有效,根本上是因为人要呼吸。

AI也能写诗,它可以把格律做得很严谨,但是我们预计它很难掌握好节奏感中饱含的情绪,因为它没有嘴和呼吸系统:它不能体会一首诗歌大声读出来是什么效果。现实是哪怕最先进的GPT-4,做最擅长的英文诗,韵律也很蹩脚。

只有真实的情感才能打动人,而真实的情感需要身体和声音配合表达。你的鲜明个性需要肢体语言配合。你要想体现自信就得站直了。你要想让人相信局面尽在掌握之中、你不但不焦虑而且很快乐,最起码你得给个微笑。

身体对人的影响还包括能量。如果你没睡好、身体很疲惫,大脑再强也不能好好运转。能量充足了,整个精神面貌都很积极。

AI没有这些。

培养人的独特智能的另一个途径也跟身体有关,那就是自主思考。

人是由肉体构成的这件事,对我们的智能的意义,可能比我们想象的要大得多。肉体不仅仅是大脑的维护系统,人不仅仅是一台大脑。

从柏拉图到启蒙运动、一直到现在很多人鼓吹意识上传,都是把人主要当做大脑,忽略身体。比如电影《黑客帝国》里人们都被泡在液体里,接一堆管子,身体成了电池,只有大脑是活跃的,照样能在虚拟空间里体验完整人生。

但是查特拉思认为,这些缸中之脑,不是完整的人。

因为身体对人的作用并不仅仅是维持生存——身体还提供了情感。身体,是大脑不可缺少的一个信息来源。如果考虑到肠道神经,身体还是人的思考过程中的关键一环。

事实上,我们甚至可以说,正因为身体也会影响思想,每个人才有自己的独立思考。

你想想,如果人都可以被简化为缸中之脑,大脑又可以被视为一个处理信息的独立器官,那你就可以轻易控制每个大脑的信息输入。这跟AI有什么区别?哪还有什么独立思考可言?

身体最根本性、哲学性的功能还不是能提供情感,而是身体让人有了更多的信息输入渠道。你的身体对外界会有各种感知,那些感知是主观的,是每个人都不一样的。健康的人、残疾的人、病人、胖或者瘦,高或者矮,感知都不一样——正是这些不一样,让我们有了不一样的思考。更何况有身体才有生活,才有成长,才有从小到大不同的经历,才有了千变万化的个性。

绝对的「独立思考」恐怕是不存在的,毕竟每个人都在从外界联网提取信息;但是有了身体我们至少可以「自主思考」。有了身体,就没有任何力量能完全控制对你的信息输入。

查特拉思观察,有具身智能的团队往往在文化上都有活力,在道德问题上更深思熟虑。首先这样的团队有情感交流。但更重要的是,组成这样团队的人具有不可控性。他们不是机器,不是你设定他怎么想他就怎么想,他们都会自主思考。正是因为每个人的自主思考,团队才有了不同视角,才有创造性和活力,才有生成性的发挥,才能处理复杂问题。

训练AI最快的方法是什么吗?是用一个现有的AI生成各种数据和语料,直接训练新的AI。这样训练不但速度最快,而且也最准确。但是因为你没有新鲜的语料,这样练出来的AI也不是新鲜的。

那就是说,如果每个人都活得像AI一样, AI就没有新训练素材了,AI会停止进步。

新数据是人生成的。人不是程序,人不应该按照固定规则生活。人生的使命就是要制造意外,增加信息。有些意外来自你的情感,有些来自你的身体的独特感知,有些来自你自主的思考——不管来自哪里,它们一定不是来自AI给你的灌输,一定不是来自你对领导意图的揣摩。

那些你任性而为的时刻才是你真正活着的时刻。

这么说的话,AI不是取代人而是解放了人。AI能让我们活得更像人。人其实大有可为,因为人是一种最复杂的东西。你去跟任何一个人聊,只要他跟你说人话,不打官腔不背诵洗脑信息,你都会收获一些让你感到意外的东西,都会发现他有独特的视角和想法。

……当然,这一切的前提是AI还没有掌握人的情感。那如果将来AI能够完美复刻人的情感,我们又该如何呢?

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容