1000天后,AI技术本身能发展到什么程度?

前两天在得到上听到了一篇关于ai非常不错的文章。现摘录如下:

我们可以给市面上的观点归归类,你会发现,未来的AI技术,主要面临着三个能力节点。每突破一个,都意味着能力的极大跃迁。

第一个能力节点,我们可以称之为,顶级答题者。

简单说,就是基于既定目标,能完成得比人类更出色。注意,关键词是“既定目标”,也就是人类设定的目标。

假如按照这个标准,你甚至可以认为,现在世界上最好的围棋手、最好的写作者、最好的医疗诊断专家,都已经是AI而不是真人了。

在很多领域,AI都已经达到甚至超越了人类顶尖水平。但它们有一个共同特点,都是在“既定目标”下完成任务。下棋、写文章、做诊断,这些目标都是人类预先设定的。AI无法自己决定“我今天想做什么”。

这就是第一个能力节点,顶级答题者。这个节点,AI已经在快速实现中。

第二个能力节点,我们可以称之为,出题者。

也就是,懂得自定义目标,能够自己决定“该做什么”。腾讯首席AI科学家,前OpenAI的科学家姚顺雨最近有个判断,叫,AI正在进入“下半场”。什么意思?上半场是“能做什么”,下半场是“该做什么”。上半场拼的是执行力,下半场拼的是判断力。

但注意,这里的“自主”,仍然有很大的局限性。因为这些AI系统仍然需要人类设定最初的目标和奖励函数。

什么是奖励函数?简单说,就是告诉AI什么是“好”,什么是“坏”。比如,AlphaGo的奖励函数是“赢棋就是好,输棋就是坏”。医疗诊断AI的奖励函数是“诊断准确就是好,诊断错误就是坏”。这些标准,都是人类预先设定的。

还有一种技术叫目标分解。它可以将大目标分解为小目标,看起来AI好像在“自主规划”。但问题是,最初的那个大目标是谁给的?还是人类。

而且这里还有一个更深层的问题,价值判断。比如,一个人面临选择,是追求财富,还是追求健康?是追求事业,还是追求家庭?这些选择背后,都有价值观在起作用。而AI目前不具备价值观。

至于AI什么时候能越过这道门槛,即使是在AI业内,人们的分歧也很大。比如,马斯克认为,2030年,AI就能实现完全的自主研究。而OpenAI的团队认为,不用等到2030年,只要2028年就能实现。但据说,有人在AI从业者中做过调研,发现很多人对这个时间的平均预测,大概是2099年。没错,大概73年之后。

最高级的是第三个,也是最后一个能力节点叫做,自设计。也就是,自己设计自己。

为什么说这是最后一个能力节点?因为到这步,AI已经能够自主设计自己的智能和身体,不用等待人类的指令。到时,AI将完全摆脱人类的束缚。我们在科幻电影里看到的终极AI,比如《黑客帝国》里的母体,《终结者》里的天网,还有变形金刚,都属于这个级别的智能体。

想象一下,AI不仅能改变自己的程序,还能设计自己的物理结构。它可以从碳基生命变为硅基生命,可以从地球生命变为太空生命。它完全摆脱了进化的枷锁,成为“自己命运的主人”。借用《生命3.0》的作者,泰格马克的话说,人类的进化需要几万年、几十万年。但AI的自我迭代,可能一夜之间就完成了,它可能会在某个时刻完成人类永远也完不成的创造。

泰格马克对这个“自设计”的时间点有个预测。他认为,可以“自设计的AI”将在22世纪实现,也就是大概200年以后。到时,人类将彻底退出AI的进化轨道。它一路绝尘,从此再与人类无关。

关于这个问题,历史学者,也是《AI文明史·前史》的作者,张笑宇老师有个很特别的观点。他认为,很多人的重点都放在研究技术上,但是,还有一件很重要的事可能被忽视了,这就是,我们对待AI的方式。张笑宇老师认为:“1%的人怎么对待99%的人,AI未来就会怎么对待我们。”

什么意思?你看,AI是用人类的数据训练出来的。假如我们输入的数据里,充满了强者对弱者的剥削、精英对普通人的轻视、资本对劳动者的压榨,那么AI学到的,就是这套逻辑。

换句话说,AI如同一面镜子,它会照出人类社会最真实的样子。你输入什么,它就学会什么。我们今天怎么对待彼此,AI未来就会怎么对待我们。所以,假如弱者创造了强者,那么强者应该保护弱者。这不仅是道德问题,更是生存问题。在AI文明真正到来之前,人类必须始终善待彼此。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容