还是先看摘要:
〔摘 要〕 随着自动驾驶汽车等智能机器人的自主性、学习和适应能力不断增强,一方面很难将其看作是人类手中的简单工具; 另一方面伴随而来的可预测性、可解释性、因果关系等问题将使得证明产品缺陷责任等既有侵权责任变得越来越困难,可能带来责任鸿沟,使得被侵权人的损害难以得到弥补。面对可预期的责任挑战,侵权法、合同法等法律规则的不充足性和局限性将逐渐显现出来,对新的法律规则的需求也将变得越来越迫切。为此,欧盟、英国、美国等已经开始探索新的责任框架。为了更合理、有效地对智能机器人造成的损害分配法律责任,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是潜在的法律方案; 但立法者或者法院最终选择何种方案,需要进行全方位的论证,以便实现法律的利益平衡目的。
〔关键词〕 自动驾驶汽车; 智能机器人; 严格责任; 差别化责任
首先看定义吧:
为了讨论的方便,下文将不使用人工智能、人工智能系统等模糊性概念②,转而采用智能机器人这一概念,并将其界定为具有以下特征的实体: ( 1) 通过传感器、与其环境进行数据交换以及数据分析等方式获得自主性( Autonomy) ③的能力; ( 2)从经历和交互中学习的能力; ( 3) 具有可见形体; ( 4)随环境而调整其行为和行动的能力。按照这一定义,自动驾驶汽车、医疗机器人、护理机器人等都可以被智能机器人涵盖,而自主性( 包括自主进行决策) 和学习能力则是其核心特征; 而且在某种意义上,已经没有很强的理由将其继续看作是供人类驱使的被动工具。
题眼在于“获得自主性(Autonomy)” —— which is objected by SAE,所以出发点似乎就不对。
接下来的讨论是责任框架的来源,所有的物都是人的代理:
传统的机器不具有法律人格的属性,仅仅是个人、公司或者其他法律上的“人”的工具或者代理,这些法律主体在既有法律之下对其各自的行为负责。
这是责任框架的基础,因为只有人能承担人类社会的责任;但如果不存在“自主性”,其他的分析。。。不看也罢。
另外,就是下面这个对于法律解释学的论断我是支持的:
诚然,技术进步总是会给法律提出这样或者那样的挑战,但是法律的可预测性和张力使得法院通常可以依循法律解释学,得心应手地应对新出现的情况,而不需要对既有法律规则做出较大变动。但是,法律解释学并非一颗灵丹妙药,不但有其局限性,而且也会失灵,在一些新情况下难以确保法律的利益平衡目的之实现。完全自主的自动驾驶汽车等智能机器人的出现和发展,将会带来这样的新情况。