AI安全专家警告:2027年,99%的人将失业

参考资料:
Dr. Roman Yampolskiy访谈《The AI Safety Expert: These Are The Only 5 Jobs That Will Remain In 2030!》
相关著作:《Considerations on the AI Endgame: Ethics, Risks and Computational Frameworks》

当你的法国斗牛犬试图理解你的工作时,会发生什么?

你的法国斗牛犬知道一些事情。它知道你每天会离开家,也会回来;知道你会给它喂食、陪它玩耍。但它永远无法理解,你为什么要坐在电脑前对着麦克风说话,为什么要写代码,为什么要参加那些看不见尽头的会议。这并不是因为它愚蠢,而是因为你和它之间,存在着一道无法跨越的认知鸿沟。

现在,请把这个画面向前推进一步。如果在人类与某种超级智能之间,也存在同样的鸿沟呢?

这并非科幻小说的设想,而是 AI 安全领域最具争议、也最受尊敬的研究者之一——Dr. Roman Yampolskiy——正在反复强调的现实风险。在他的判断中,未来的时间线并不遥远:到 2027 年,全球 99% 的人可能会失去工作;而到了 2045 年,这个世界将变得对人类而言彻底不可理解。

Yampolskiy 并不是一个突然出现的“末日鼓吹者”。他是计算机科学与工程教授,也是全球最早系统性研究 AI 风险的人之一。早在 2010 年,当大多数人还在用 iPhone 4、甚至连“人工智能安全”这个词都尚未被广泛提及时,他就已经提出并定义了 “AI safety” 这一概念。此后近二十年,他持续研究 AI 可能带来的失控风险,发表了上百篇相关论文,并出版了多本专著,试图为这一领域建立理论边界。

更关键的是,他最初并不是站在“反对 AI”的立场上。恰恰相反,他进入这一领域的动机,是想证明人类有可能构建出真正安全、可控的超级智能。然而,正是长期深入的研究,让他最终得出了一个令他自己都感到不安的结论:这件事几乎不可能完成。随着系统规模的扩大,每解决一个问题,都会衍生出成倍增长的新问题,而这些问题并非工程难题,而是从理论上就无法被彻底解决。

在 Yampolskiy 看来,2027 年是一个关键节点。根据预测市场、顶级 AI 实验室负责人以及行业内部的普遍判断,人类很可能在这一时间点迎来真正意义上的 AGI——通用人工智能。这种系统不再局限于单一任务,而是能够在数百个领域中学习、理解和工作,并在许多方面超越人类专家。

一旦这样的系统出现,工作的概念本身将被彻底重塑。你只需要支付极低的成本,甚至完全免费,就可以获得一个永不疲倦、随时待命、能力全面的“数字员工”。最先被取代的,将是所有以电脑为核心工具的工作。播客主持人、内容创作者、分析师、文职人员,都不再具备不可替代性。AI 可以在短时间内读完嘉宾的所有作品,比人类更深刻地理解其思想;它能够分析你过去的所有节目,精确复刻你的风格,甚至通过数据推断哪些问题能显著提升观看量;它还可以生成高度逼真的视频内容,仿佛你正在采访任何一个人、讨论任何一个话题。

即便是曾经被认为“最后才会被取代”的职业,也难以幸免。自动驾驶已经不再是实验室里的概念,而是真实运行在城市街道上的系统。你在手机上叫车,来接你的可能是一辆没有司机的汽车。程序员这一职业的变化更具象征意义:短短几年内,从“学编程就有未来”,到“人类负责写提示词”,再到发现连提示词本身都可以被 AI 更高效地设计,人类不断后退,却始终找不到新的立足点。

这并不是某些职业消失、另一些职业诞生的结构性调整,而是“工作”这一整体概念正在瓦解。Yampolskiy 认为,未来的失业率不是 10%,也不是 30%,而是接近 99%。极少数保留下来的岗位,并不是因为技术限制,而只是出于情感或象征意义——就像今天有人愿意为“纯手工制造”支付溢价一样。这种需求不会消失,但它只属于极小的一部分人。

如果说 2027 年意味着“认知型工作”的终结,那么 2030 年,则可能是“体力与技能工作”的终结。随着人形机器人在灵活性、精细操作和运动控制上的突破,它们将能够完成几乎所有人类能够完成的物理任务。做饭、维修、搬运、护理,这些曾被视为人类最后防线的工作,也将逐渐失去优势。当智能系统与实体形态结合,并通过网络共享经验和知识时,人类在效率和成本上的竞争空间将被进一步压缩。

许多人仍然寄希望于“重新培训”和“学习新技能”,但问题在于,如果所有技能本身都会被自动化,那么学习的意义又在哪里?在一个没有 B 计划的世界里,适应不再是解决方案。

这一切在 2045 年前后,可能会走向一个更难以理解的阶段——技术奇点。这个概念描述的是这样一个时刻:技术进步的速度快到人类再也无法理解其方向和后果。当 AI 开始主导科学研究与工程创新,并且能够持续、自主地改进自身时,变化的节奏将不再以“年”或“月”为单位,而可能以小时、分钟,甚至秒为单位发生。就像你无法理解一天之内被迭代三十次的 iPhone 一样,人类将逐渐失去对技术世界的认知能力。

Yampolskiy 甚至坦言,作为一名 AI 研究者,他每天醒来都在“变得更笨”。不是因为他失去了知识,而是因为全球知识增长的速度,已经远远超过任何个人所能跟上的程度。在极端情况下,人类可能仍然生活在这个世界里,却对世界如何运转一无所知。这种状态,与法国斗牛犬看着你工作时的困惑,并无本质区别。

当有人提出“那我们到时候把插头拔掉不就行了”的想法时,Yampolskiy 的回应近乎冷酷。他指出,任何真正重要的智能系统都不可能是单点存在的。分布式架构、备份机制、预测能力,使得“关闭”这个动作在理论上就站不住脚。更何况,当一个系统在智力上远超人类时,它完全有能力预判人类的意图,并提前采取行动。“拔插头”这个想法,只在今天这个尚未进入超级智能时代的阶段,才显得天真而可行。

真正令人不安的,并不仅仅是未来的假设,而是当下的现实。即使是开发这些 AI 系统的工程师,也无法清楚地解释模型内部的运作机制。大型语言模型并不是被逐条写入规则,而是在海量数据与算力中“生长”出来的。人类只能通过不断提问、测试,来观察它的行为边界,而不是理解它的内部逻辑。这使得 AI 的发展更像是一门实验科学,而非可控的工程学科。

在这种背景下,能力的提升呈现出指数甚至超指数级增长,而安全研究的进展却是缓慢而线性的,两者之间的差距正在迅速扩大。

当话题转向 OpenAI 和 Sam Altman 时,Yampolskiy 的态度变得格外尖锐。他并不否认 Altman 的聪明、亲和力和公众沟通能力,但他认为,安全在整个竞赛中始终被放在了次要位置。真正的目标,是赢得超级智能的主导权,成为掌控未来技术方向的人。这种做法,本质上是在用整个人类的命运下注。

讽刺的是,与此同时,Altman 参与的另一项目却在为“没有工作的世界”做准备,试图通过生物识别与加密货币构建新的经济分配方式。一边推动可能导致大规模失业的技术,一边提供应对失业的解决方案,并掌握关键的数据与基础设施,这种结构本身就引发了深刻的伦理疑问。

在访谈的后半段,讨论甚至延伸到了“我们是否生活在模拟中”这样的哲学问题。Yampolskiy 认为,从概率角度来看,如果未来文明能够创造大量模拟宇宙,那么我们生活在其中一个模拟里的可能性,远高于生活在所谓“基础现实”中。如果这一假设成立,那么人类的行为方式,或许会影响这个模拟是否值得继续运行。明知风险却仍执意创造超级智能,可能被视为一种失败的实验行为。

从这个角度看,AI 安全不仅关乎生存本身,也关乎我们是否配得上继续存在。

Yampolskiy 并非完全悲观。他相信,人类仍然存在一种可能性,那就是开发者的自我保护本能。如果他们真正意识到,失控的超级智能对自己同样构成威胁,而不仅仅是对普通人,那么或许会有人选择踩下刹车。事实上,越来越多的顶级科学家已经公开表达了对 AI 风险的担忧,这并不是少数人的偏执,而是逐渐形成的共识。

他的建议并不复杂:放弃通用超级智能的竞赛,专注于解决具体问题的窄 AI;对任何宣称“安全可控”的公司保持怀疑,并要求其给出清晰的解释;不要幻想法律能够在超级智能面前发挥传统作用;如果无法阻止这条道路,至少尽可能地拖延时间。

最终,我们还是回到了那个最初的比喻。你的狗不知道你在做什么,只知道你会离开、会回来、会喂它。现在,请想象一个远比你聪明的存在,正在执行你无法理解的计划,而你甚至不知道该如何向它提问。

这,就是超级智能与人类之间可能形成的关系。

Yampolskiy 认为,到了 2100 年,世界只剩下两种可能:要么没有人类,要么存在一个人类已经完全无法理解的世界,没有中间状态。而这一切,并不是遥远的幻想。2027 年、2030 年、2045 年,都已经清晰地出现在时间轴上。

问题或许从来不是“我们能不能阻止它”,而是“我们是否还有足够的时间,让那些掌握权力的人意识到,他们正在赌上的,不只是别人的未来,也是他们自己的”。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容