医海无涯,AI同舟。关注「AI医学」,助力科研之路。
生命未来研究所 (Future of Life Institute,简称FLI) 是一家总部位于美国剑桥的非营利组织,致力于研究人工智能、生物技术等新兴科技的安全性和风险,推动人类在这些领域的可持续发展。
近日,FLI向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。
截至目前,除了马斯克外,公开信还得到了许多知名人士的支持,包括诺贝尔奖得主斯蒂芬·霍金 (Stephen Hawking)、苹果联合创始人史蒂夫·沃兹尼亚克 (Steve Wozniak)、互联网先驱泰德·纳尔逊 (Ted Nelson)、图灵奖得主约书亚·本希奥(Yoshua Bengio)、Stability AI首席执行官埃马德·莫斯塔克(Emad Mostaque)等科技界领袖人物。
这些知名人士的签署,也进一步表明了人工智能安全问题的重要性和紧迫性。
这封公开信中写道:
广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认。
正如广泛认可的“阿西洛马人工智能原则(Asilomar AI Principles,阿西莫夫的机器人三大法则的扩展版本,于2017年由近千名人工智能和机器人专家签署)中所述,高级AI可能代表地球生命史上的深刻变化,应该以相应的关照和资源进行规划和管理。
不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——能理解、预测或可靠地控制。
“当代人工智能系统现在在一般任务上变得与人类具有竞争力,我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该发展最终可能比我们更多、更聪明,淘汰并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?”
“只有当我们确信它们的影响是积极的并且风险是可控的时候,才应该开发强大的人工智能系统。这种信心必须有充分的理由,并随着系统潜在影响的规模而增加。OpenAI最近关于通用人工智能的声明指出,‘在某些时候,在开始训练未来的系统之前进行独立审查可能很重要,并且对于最先进的工作来说,应该同意限制用于创建新模型的计算量增长。’我们同意。那个某些时候就是现在。”
这封信呼吁,所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。
这种暂停应该是公开的和可验证的,并且包括所有关键参与者。
如果不能迅速实施这种暂停,政府应介入并实行暂停。
人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,并且无可置疑。
这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。
与此同时,信中指出:
AI开发人员必须与政策制定者合作,以显著加快开发强大的AI治理系统。至少应包括:
建立专门负责AI的有能力的新监管机构;
监督和跟踪高性能人工智能系统和大量计算能力;
推出标明来源系统和水印系统,以帮助区分真实与合成,并跟踪模型泄漏;
强大的审计和认证生态系统;
界定人工智能造成的伤害的责任;
为人工智能技术安全研究提供强大的公共资金;
以资源充足的机构来应对人工智能将造成的巨大经济和政治破坏(尤其是对民主的破坏)。
这封信最后写道,
“人类可以享受人工智能带来的繁荣未来。成功创建强大的AI系统后,我们现在可以享受‘AI之夏’,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。社会已经暂停其他可能对社会造成灾难性影响的技术。我们可以在这个领域也这样做。”
“让我们享受一个漫长的AI之夏,而不是毫无准备地陷入秋天。”
医海无涯,AI同舟。关注「AI医学」,助力科研之路。