一、可怕的机器人:以及它们对英国公众的意义
剑桥大学Leverhulme未来智能中心的研究人员和BBC,共同发起一项调研,对大约1000名英国人,进行了定量和定性调查,以了解人们对日益强大的人工智能系统的态度。
研究人员描述了与人工智能相关的四个希望以及与之相反的四个恐惧。他们把这些感觉描述为:
-(永生:野蛮)-我们会永生,但我们可能会失去人性。
-(舒适:退化)-一切变得轻松,但我们可能会退化。
-(满足:异化)-人工智能可以完美回应我们的需求,但正因为如此有效,以至于我们更倾向选择人工智能而不是人。
-(支配:叛乱)-我们可能会有更好的机器人军队,但这些机器人军队可能最终杀死我们。
哪些恐惧和希望可能成真?
研究人员询问了人们,他们认为哪些事情是可能的,哪些是不可能的。48%的人认为有可能出现“舒适”,42%的人认为可能出现“支配”,35%的人认为可能出现“退化”。在不可能发生的事情方面,35%的人认为不可能出现“野蛮”,28%的人认为不可能出现“永生”,26%的人认为不可能出现“满足”。
谁来开发人工智能?
在被调查者中有一个广泛的共识,那就是AI无论如何都会发展。
但61.8%的受访者不认为“他们能够影响人工智能未来的发展”——显然权力剥夺成为普遍的感受。
为什么重要?
公众的态度将对日益强大的人工智能系统的发展产生重大影响。如果我们错误地判断公众的情绪,那么很可能社会将更少的采用人工智能,更少看到AI的好处,并且更加怀疑政府或其他人发表的关于人工智能的言论。同样有趣的是,当人们非常支持人工智能发展时,社会可能会发生什么?政府和其他参与者的行为会有什么不同呢?
Source:http://www.aies-conference.com/accepted-papers/
二、算法、数据和人工智能的伦理和社会意义:研究的路线图
现有工作中存在重大差距:
1、缺乏对关键概念的共同理解。
2、技术和舆论证据使用不足。
3、对原则和价值观之间的紧张关系关注不足。
三个研究重点:
1、解决歧义。一些关键的概念,比如偏见,可解释性,被用来表示不同的东西,这可能会阻碍进步。应澄清术语,注意如何在实践中使用它们,并就定义达成协商一致的意见。
2、识别并解决紧张状态。没有充分注意这一领域许多问题所特有的权衡特点。该报告建议,通过观察一项特定技术的成本和收益如何在不同群体之间、在短期和长期之间,在个人和整个社会之间分配,来解决这一问题。
3、建立证据基础。我们需要更好的证据来证明技术的当前使用和潜在影响,以及我们未来应该期待的技术进步,公众舆论。这些都是伦理讨论的重要内容。
Source:Ethicaland societal implications of algorithms, data, and artificial intelligence: aroadmap for research (Nuffield).
三、想要阻止你的AI系统被用于不好的目的?考虑一个负责任的AI许可证
Responsible AI Licenses(RAIL)由人工智能研究人员(专利律师/程序员)和美国西北大学教授Brent Hecht等共同开发。
1、目的:
RAIL提供源代码许可和最终用户许可,“开发人员可以在AI软件中包含这些许可,以限制其使用,”这些许可证包括限制使用、复制和分发可能有害的技术领域应用程序代码的条款”。
许可证的设计考虑到了人工智能技术的通用性,这意味着“可以用于更快、更准确的癌症诊断的同一种人工智能工具,也可以用于功能强大的监控系统”。这种缺乏控制的情况在开发人员开发开源ML或AI软件包时尤为突出,这些软件包是各种最有益的ML和AI应用程序的基础。
2、工作原理:
它的工作原理是限制人工智能和ML软件在特定的有害应用程序列表中使用,例如监视和犯罪预测,同时允许其他应用程序使用。
3、为什么重要:
这类授权计划的出现,反映出一些人对人工智能技术在今天的应用感到焦虑。如果像这样的许可被采用并被技术的用户所遵循,那么它就为开发人员提供了一种非商业的方式,来稍微控制他们的技术是如何被使用的。但实际上,像RAIL这样的方法对恶意行为者不起作用,他们在从事恶意活动时会忽略或突破特定软件许可证中的任何限制。
Source:https://www.licenses.ai/
四、使用大规模计算变革科学
研究人员认为,驾驭越来越多计算的能力是科学发现的关键。
斯坦福大学、苏黎世大学、加州大学伯克利分校和伊利诺伊大学香槟分校的研究人员收集了2017年在斯坦福大学举办的一系列讲座的笔记,发布了一份学术研究人员使用大规模云计算技术的宣言。对两种流行趋势进行了回应:
1、在一些科学领域(例如机器学习),许多科学发现,是通过使用日益大规模的计算系统做出的;
2、许多学术研究人员无法进行大规模的计算实验,因为缺乏资源和/或认为它过于困难。
为什么计算重要:
作者预测“大规模计算实验的出现将作为科学进步的基本途径,补充传统的归纳法(在观察科学领域)和演绎法(在数学科学中)”。他们指出,“在我们看来,目前对机器学习(及其各种深度学习)的热情高涨似乎证明,大规模的计算实验已经开始取得成效,是时候了。”这些回报的例子包括:谷歌和微软从统计机器翻译转向神经机器翻译,计算机视觉研究人员转向使用基于深度学习的系统,以及特斯拉等自动驾驶汽车公司使用越来越多的深度神经网络。
为什么重要:
固有的人工智能研究的一个问题是“大计算”和“小计算”,在少量的实验室(例如,FAIR, DeepMind,OpenAI, Google Brain)能够访问大量的计算资源,而大部分的人工智能研究人员只能在自己构建的GPU桌面上工作,或者尝试访问越来越无关紧要的大学超级计算集群。
能够弄清楚如何使单个研究人员使用大量计算变得简单,使更多的人更容易进行大规模实验,有望加快科学进程。
五、思考来自人工智能的风险:事故、误用和结构
对人工智能风险的讨论往往会将其缺点分为事故风险和误用风险。这掩盖了一个潜在危害的重要来源,作者称之为结构性风险。
misuse-accident的观点将注意力集中在一个点上,在这个点上,一个糟糕的参与者将技术用于恶意目的,或者一个系统以一种意想不到的方式运行。而且这种观点往往只关注导致伤害的因果链的最后一步,进而将政策重点放在关注最后一个因果关系的措施上。
从结构的角度看,在许多情况下,即使一个点或者一个参与者的行为发生了变化,风险水平也基本保持不变。就像雪崩一样,追问是什么导致了斜坡变得如此陡峭,而不是什么具体的事件引发了它,可能更有用。
从结构的角度来看:在没有事故或误用的情况下,技术可以通过重要的方式塑造世界,从而产生重大的负面影响。例如,欧洲铁路系统已被认为是第一次世界大战爆发及其波及范围的一个重要因素,它使部队和武器能够大规模运输到整个大陆。
人工智能和结构的两种关系:
首先,人工智能如何影响结构环境和激励,其次,这些环境和激励如何影响人工智能系统的决策。
有很多例子表明,人工智能可以以有害的方式影响结构。人工智能可能破坏核大国之间的稳定,损害二次打击能力,增加先发制人升级的风险。人工智能对经济竞争、劳动力市场和公民自由的影响的担忧也属于这一类。
反之,结构本身也会增加与AI相关的风险。比如2018年初Uber自动驾驶造成的致命的交通事故,经调查发现,不是系统没有识别到人,也不是制动系统失灵,而是工程师迫于市场竞争的压力和内部新CEO的压力,有意使他们的制动系统相对于竞争对手看上去不过于敏感造成的。另外,在国际上,如果没有国际协调机制,各国可能会被迫牺牲安全来实现军事人工智能。
政策建议:
1、人工智能政策群体必须扩大。从社会科学和历史学中吸收更多的专业知识是解决这一问题的一种方法,因为这些学科在通过结构性视角处理复杂问题方面更有经验。
2、应该花更多的时间考虑创造或调整AI集体规范和制度的可能性。鉴于人工智能带来的许多重大风险无法通过单边行动加以解决,所以如何通过协调的方式改变人们的行为,往往是最有效的政策方向。
Source:ThinkingAbout Risks From AI: Accidents, Misuse and Structure (Lawfare).