谷歌公司删除其AI技术不用于军事战场的条款引发了广泛争议。起因是前几日,谷歌为了争取政府军事订单合同,重启了之前曾引发员工抗议合作计划Maven,删除限制条款包括旨在不伤害人类的武器或其他技术,以及违反国际准则的监视技术。
在DEEPSEEK研发团队小试牛刀,力挫英伟达股价之后,在国家间的AI军事化竞赛中,科技公司可能被裹挟进入国家战略,技术"中立性"逐渐让位于现实政治需求。顺便说一下,春晚上扭秧歌的机器人,已被网友P图成了“末日机械战警”。
现代AI(如计算机视觉、决策支持系统)的军民两用特性,使得"军事用途"的定义边界日益模糊。联合国数据显示,全球已有30多个国家研发致命性自主武器(LAWS),其"算法决定生死"的特性可能突破战争伦理底线。AI驱动的无人机集群、网络战工具可能使军事冲突更易爆发。兰德公司研究指出,AI决策速度可能压缩人类反应时间,增加误判风险。
2021年联合国《特定常规武器公约》会议已多次讨论,若AI武器造成平民伤亡,法律责任应由开发者、军方还是算法承担?然而这些讨论,并没有阻止人们像发现芝麻开门后的宝藏那样,觊觎科技带来现代战争的获利。
诚然,现阶段AI仍属"狭义智能",但复杂系统的不可解释性(如深度学习的黑箱问题)可能导致意外后果。例如,2016年微软Tay聊天机器人被迅速训练成种族主义者。人们在未能建立更高的认知之前,是否会被人工智能提供的虚假信息左右,仍为可知。于此同时,AI军事化可能引发"监控-反击"的技术螺旋,刺激全球军备竞赛。MIT研究表明,AI武器系统扩散可能使恐怖组织获得不对称打击能力。在这里,有哲学家指出,将杀戮决策委托给算法,可能使战争脱离人道主义框架,演变为纯粹的技术效率竞赛。
好在,人们早就意识到了这点,极力推动可解释AI(XAI)和"道德嵌入"技术,如DARPA正在研发的具有伦理约束的自主系统。同时,加快《禁止致命性自主武器系统公约》立法进程,目前已有28国支持全面禁止LAWS。国家层面应主导科技巨头应建立独立伦理审查委员会,如微软与OpenAI的合作协议中包含军事用途限制条款,这种模式值得借鉴。以及,通过"技术智囊团"等机制,让社会共同参与AI军事化应用的边界划定。
人类是否会被AI反噬,本质上不取决于技术本身,而取决于我们如何构建技术发展的伦理框架和全球治理体系。就像当年核弹的研发也是一样,他释放的威力可碾压世上一切文明。包括现代战场上,某国仍在用核弹的威慑力,避免战事进一步扩大化。所以,任何超越时代的科技应用,都是一柄双刃剑。是否会引发人类毁灭的灾难,决定权掌握在它被何人所用。
说回本次谷歌修改的条款给我们的警示是,当资本逻辑与国家安全需求合流时,技术向善需要更强大的制度约束和公民监督。正如赫拉利在《未来简史》中所言,"最危险的不是机器人觉醒,而是人类在算法崇拜中主动放弃自由意志。" 技术的中立性神话已被打破,人类正站在选择文明方向的十字路口。