先看摘要:
内容提要 作为人工智能技术一大应用的自动驾驶汽车所获得的自主性具有纯技术本质,依该自主性,不能合乎法理地得出应赋予自动驾驶汽车以法律人格并由其自负责任的结论。自动驾驶汽车逐渐获得技术意义上的自主性,使得机动车道路交通事故责任将无法继续以驾驶员的过错作为责任基础,为充分救济事故的受害人,可以考虑引入机动车保有人的严格责任。由于自主系统的引入,自动驾驶领域的产品责任在缺陷和因果关系认定方面将面临特殊困难,消费者的合理期待标准、“事物自道其缘”法理的适用以及监管标准的确立能够在一定程度上缓解困境,却不能从根本上解决问题。随着自动驾驶汽车的制造商和设计者等对于车辆控制能力的不断提高,他们有可能获得车辆保有人的身份,并最终实现机动车道路交通事故责任和产品责任在自动驾驶领域的合流。
关键词 自动驾驶 智能机器的自主性 机动车道路交通事故责任 产品责任
里面的不少内容很有深度,可以说是对“反智化”一文章的细化。
首先看“自主性”:
开美国自动驾驶汽车立法之先河的内华达州 2011 年 AB 511 法案,对“人工智能”下了一个定义:人工智能是指使用计算机和相关设备以使机器能够重复或模仿人类的行为。。。。
但是,如果将自动驾驶汽车的上述运行机制认定为一种“行动”,则是对于“行动”一词赋予了过宽的含义。因为,“行动”是一个专用于人类的词汇。虽然动物也如人类一样可以从一个地方转移到另一个地方,但是我们通常不把动物的位移称为“行动”。对于“行动”,米塞斯给出的定义是:力求达到目的;也就是说,先选择一个目标,然后借助于手段来达到所追求的目标。“行动”这个范畴包含着下述概念:手段与目的、取与舍(评价)、成功与失败、利润与亏损。这一定义深刻揭示了“行动”所内含的目的因素。自动驾驶汽车虽然能够依据上述运行机制将乘客从家里运送到目的地,但是其行程的目标却离不开乘客的指示。
这个与SAE中的框图,strategic vs. operational的区分是一致的 —— 虽然在旅行目的的确定下,也有更小的“目标”,但也都是人类需求所定义,机器自身不产生目标:
因此,建立在“感知—思考—行动”基础上的智能机器人的所谓“自主性”,应该主要从技术层面来理解。事实上,《机器人民事法律规则》也指出:机器人的自主性可以被界定为在外部世界作出独立于外在控制或影响的决定并实施这些决定的能力;这一自主性具有纯技术本质,且其自主性程度取决于机器人被设计成的可与其环境进行交互的复杂程度。。。
总结而言,目前阶段的人工智能没有自主目的、不会反思、不会提出问题、无法进行因果性思考、没有自己的符号系统,显然不具备人类心灵的能力。
而且,如果实现了真正自主的人工智能:
如果人工智能有意识,就不会服从人类为之设定的规则,至少应该是与人类一起制定规则,更可能的甚至是智能机器为人类设定规则。。。。
例如,对于其过错的判断究竟是应该以理性人这一假想的人像为基础,还是应该考虑其本身的超强能力,就成为需要考虑的问题。相应地,对于其过错与损害之间的因果关系的探究,也会相当困难。原因很简单,因为我们已经无法理解超级人工智能了。在这种情况下,欲赋予超级人工智能以法律人格,让其屈从于人类法律的调整,便是我们人类的一厢情愿。
而对于弱人工智能能:
而就现阶段的弱人工智能而言,在财产特定化基础上赋予其法律人格,原则上服务于“限制本应为弱人工智能的致损事故承担责任的人类的责任”这一目的。由于自动驾驶汽车不具有自己的“生命”,不具有自己的财产,所以其账户里的责任基金只能来源于人的资产的分割与特定化。
粗浅的理解:就是脱那啥放XX了 —— 这和法人等的产生不同:
财产的特定化,在遗产的限定继承和将遗产本身作为一个财团法人方面,就有所体现。近代以来,企业的产生、主权者之间的经济竞赛的需要,使得财产的特定化以法人或者信托的形式得到极大发展。
随后作者展开了各种“虽然、但是、而且、并且”的论断,我摘取认为最重要的核心吧:
主张给予智能机器以法律人格的观点都通过与法人的类比来进行论证,但是论者显然忽略了这样一个重要事实:法人只能借助于自然人才能从事民事活动。主张构建纯粹法理论并严格区分法律与道德的凯尔森,虽然将法人主要理解为一种秩序或者结构,但是仍然承认:“行为和不行为只能是人(human being)的行为和不行为……当有人说到法人的行为和不行为时,一定是有关人的行为和不行为。” 所以,法人虽然以自己的责任财产作为承担民事责任的基础,但也是借助于自然人来响应法律的行止要求、接受法律的规范调整的。从这个意义上说,通过类比法人来论证智能机器的法律人格,是不成功的。
而对于自主学习能力:
自主学习能力带来的问题主要是人类对智能机器的控制力下降,以及使得智能机器的行为具有一定程度的不可预测性。从因果关系理论的角度来看,或许人们会据此认为,智能机器超越了人类对它的控制,成为事故发生的替代原因。
但是:
哈特和奥诺尔讨论法律中的因果关系时,对于人的行为是否构成介入(替代)原因这一问题所提出的主要判断标准即在于介入的行为是否体现了介入者的自由意志和自主选择。。。
在目前的技术条件下,智能机器尚不具有自主意识和自由意志,而从经历和交互中学习的能力,是智能机器的一个核心特征,所以其设计者和制造商不仅完全可以预料到智能机器能够进行“后天的”学习和经历,而且这种能力正是其设计者和制造商所追求和利用的。换句话说,在某种程度上,智能机器被设计成具有不可预测性。
最重要的是:
瓦格纳也认为,虽然自动系统的具体行动无法预测,但是这并不意味着这些系统的风险在事前无法被认识到。相反,汽车生产商事实上认识到并且接受了自动驾驶汽车的安全风险,因为它们是由算法控制的。因此,任何人如果允许机器作出自主决策,都应该能预见到机器总是会失控并且应当为此承担责任。
更进一步,将自动化类比于奴隶:
人类驭使具有智能的工具,其实有着悠久的历史。在奴隶社会,奴隶主驱使奴隶为自己的生产、生活从事劳动或提供各种服务。奴隶当然也是具有智能的,但是这并不妨碍奴隶主对于奴隶的致害行为承担责任。
所以,论证终于结束了:
所以,智能机器给民事责任承担带来的问题,应该主要不是由于机器具有智能而无法分配责任的问题,而是如何分配责任、现有的责任规则是否需要以及如何作出相应调整的问题。