2040年,人工智能可能会加剧核稳定性

兰德公司的一份新文件发现,到2040年,人工智能有可能取代核威慑的基础。


据报道,虽然人工智能控制的世界末日机器被认为是不可能的,但人工智能对核安全的危害反而在于其潜在的鼓励人类潜在的世界末日风险。

冷战期间,相互确保破坏的条件通过确保任何袭击能够通过毁灭性的报复来应对,从而维持了超级大国之间的不安宁和平。因此,相互确定的破坏通过减少两国采取可能升级为核战争的行动的动机来鼓励战略稳定。

兰德新出版物称,未来数十年,人工智能有可能削弱相互破坏的条件并破坏战略稳定。改进的传感器技术可能会导致诸如潜艇和机动导弹等报复力量可能成为目标并被摧毁的可能性。

研究人员说,尽管国家不打算进行攻击,但他们可能会试图将第一次打击能力作为获得对手的讨价还价的手段。这破坏了战略稳定性,因为即使拥有这些能力的国家无意使用它们,对手也不能确定这一点。

“非核心战争与人工智能之间的联系并不新鲜,实际上两者之间有着交织在一起的历史,”Edward Geist是非营利,无党派研究机构兰德公司的纸和副政策研究员的共同作者说。“人工智能的早期发展大部分是为了支持军事努力,或是考虑到军事目标。”


他说这种工作的一个例子是20世纪80年代的Survivable自适应计划实验,该实验试图使用AI将侦察数据转化为核定位计划。

据报道,在偶然情况下,人工智能还可以通过提高情报收集和分析的准确性来提高战略稳定性。虽然人工智能可能会增加二次攻击力量的脆弱性,但改进用于监测和解释对手行为的分析可以减少可能导致意外升级的错误计算或曲解。

研究人员说,考虑到未来的改进,最终人工智能系统有可能开发出虽然易出故障,但比人类替代品更不易出错的功能,因此长期稳定下来。

“有些专家担心人们越来越依赖人工智能会导致新的灾难性错误,”RAND的论文和副工程师的合着者Andrew Lohn说。“在技术成熟之前使用人工智能可能会有压力,或者它可能容易受到敌对颠覆的影响,因此,未来几十年内保持战略稳定性可能极其困难,所有核大国都必须参与培育制度以帮助限制核风险。”

兰德研究人员根据他们在核问题,政府部门,人工智能研究,人工授精政策和国家安全方面的专家在一系列研讨会期间收集的信息进行观察。


©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 本白皮书前期在国标委工业二部和工信部科技司的指导下,通过梳理人工智能技术、应用和产业演进情况,分析人工智能的技术热...
    笔名辉哥阅读 24,160评论 2 143
  • 第六章 超级认知能力 一、功能与超级能力 今天我们来研究,当超级智能真的被实现出来以后,它会不会真的威胁人类。如果...
    丹菡阅读 4,171评论 3 18
  • 在篮球场上,我们挥洒着汗水,投篮、传球、抢断,我们用尽各样的方式,去体验篮球运动所带给我们的心理刺激与快乐。对于常...
    篮球伊甸园阅读 274评论 0 0
  • 晚上哄娃睡觉,我没有写作业又一层睡着了.被俏俏的电话吵醒,处理点工作的事情,原来还是自己考虑的不周全,布置的...
    长路曼曼1982阅读 730评论 0 0
  • 第8天 第2期 在这个年代,手机已经成为了多数年轻人生活中不可或缺的一部分。我们也经常收到家人的批评说:玩玩玩,一...
    卡片菌阅读 248评论 0 0