人工智能侵权的责任承担困境与出路探究

2019-02-18 08:36赖玉强袁秀洋
重庆开放大学学报 2019年1期
关键词:强制保险监护人主体

赖玉强,袁秀洋

(1.西南政法大学 民商法学院,重庆 401120;2.成都鼎元泰富资产管理中心,四川 成都 610042)

一、序言

自1956年夏“人工智能”这一概念被提出以来,对于什么是人工智能,社会各界仍然没有形成一个统一的认识,难以作出公认的定义,各学者都是基于自身的理解进行界定。在这些个人理解中,笔者认为,美国人工智能学会前执行委员会委员罗素的见解最为合适,即人工智能是类人的行为、类人的思考、理性的思考、理性的行动。

2017年国务院发布的人工智能产业发展计划和2018年10月中共中央政治局组织的关于人工智能的集体学习,彰显了党和国家发展人工智能产业的决心与毅力,人工智能的发展在政策上获得了极大的支持。但是,人工智能这个新事物的出现必将与既有的传统社会体系发生冲突,进而导致很多的社会以及法律问题出现。2018年10月曝光的马蜂窝智能点评案、2018年3月19日Uber无人驾驶测试车自动驾驶软件出现故障致使行人死亡、2017年的网络“邪典”视频事件等人工智能侵犯相应权利的事件的发生,给我们敲响了警钟。

在法律规制缺失的背景之下,如何应对人工智能导致的损害,其将承担怎样的民事责任成了我们法律人亟待解决的难题。作为法律人,“宜未雨而绸缪,毋临渴而掘井”。然而,目前的学界、实务界和司法界对此问题虽然有一定的关注,但关注的度与面还不够。文章将对人工智能侵权的责任承担困境与出路进行一个初步的研究,探索域外立法以及司法实践,对侵权责任和产品责任在人工智能领域的适用难题进行剖析,提出合乎法理、情理以及时代发展潮流的解决方法,即建立人工智能责任强制保险制度,创立人工智能替代责任承担规则。

二、人工智能侵权的责任承担困境

人工智能侵权时,若按照传统的法律思维,会想当然的将之归于一般侵权责任和产品责任,但是这却忽略了人工智能将会对现有的责任体系造成怎样的冲击和适用难题。笔者于本部分将对一般侵权责任和产品责任的适用困境略作分析。

(一)侵权责任的困境

我国侵权责任法规定,一般侵权责任的构成,应当具备下列条件:(1)行为的违法性;(2)实际损害的发生;(3)因果关系;(4)行为人的主观过错。在人工智能领域中,受害人需要证明以上四个责任构成要件才能使责任主体承担责任。对于传统的侵权事件,侵权责任法的适用较少遇到基础性难题。但是,在面对人工智能侵权时,一般侵权责任的适用却变得力不从心。笔者将于下文一一论述。

1. 一般侵权责任主体适用的难题

基于传统的民事法律关于民事法律关系主体与客体的规定,一般侵权责任的构成是以行为人是独立的法律主体为先决条件的。但在人工智能深度发展的今天,人工智能将拥有独立思考并能独立行为的能力,其是否具备法律人格,即人工智能能否成为法律主体,应否具有现行民法规定的有关权利能力与行为能力,具备何种程度的权利与义务,法律的规制却是缺失的。这对于一般侵权责任主体的适用造成了严重的阻碍,即应是由人工智能承担责任还是由其他人承担责任,学界对此存有争议。在此,笔者想谈谈对人工智能法律地位的看法,以便保证该点及下文的论述完整性。

人工智能应否具有法律地位的问题,学界对此执辞不一。按照其性质,笔者在此做简要的总结:a.人工智能只是我们人类基于自身发展所创造的工具,其存在的目的,只是为人类服务,它不应具有法律地位,这是“非法律主体说”;b.人工智能虽然能作出一定的行为,但是他是完全听从人类指挥的,它的身份就如同古代地主家的奴隶,具备一定的行为能力,可自主行为,这是“无权利能力的法律主体说”;c.人工智能是人类的代理人,代理人类独立实施代理行为,为法律上独立的主体,这是“独立法律主体说”[1]。

以上的定性,均未能对人工智能作出准确的概括。我们对人工智能法律地位的思考,应采取科学、审慎的态度。人工智能有其鲜明的特点,它具有独立的思考能力,拥有自我深度学习能力,这是我们不能忽视的重要因素。但是从根本上来讲,无论其如何发展,其仍然是人类创造出来的服务于自身的,其地位不可能超出人类,甚至不能达到与人类同等重要的程度。它所能至多拥有的,笔者认为,只是有限的民事行为能力以及民事权利能力,这种能力在一定程度上可类比于未成年人,是类人。基于联结主义,是一种电子人[2]。这是由人工智能具有权利能力和行为能力、现有法律主体制度的规制不能及其理论可能和对人工智能的风险规制需要决定的[3]。

若将人工智能直截了当地视为普通的产品,则在其由于缺陷侵权时可直接适用产品责任,作为侵权人侵权工具时可以适用侵权责任,追究有关行为人的责任。但是,如上所述,这种拥有有限人格的法律主体导致损害的发生时,能否当然适用《侵权责任法》关于一般侵权的法律规定呢,是由机器人承担责任还是由第三人承担责任?笔者以为,在学界、立法以及司法实践对该问题达成一致意见之前,答案似乎都是模糊的。

2. 过失与因果关系证明的困难[4]

一般侵权责任的成立,还应当以行为人具有主观过错为前提,但是人工智能拥有高度智能化的选择以及判断能力,在很大的程度上,其是摆脱了人类的控制而自我行动的。同时,虽然人工智能所使用的算法是透明的,其应用模型基于商业需要却不是,人工智能具备其特有的内部决策逻辑,这一逻辑在某种意义上甚至人工智能制造者自身都难以理解,更遑论一般公众使用者或者案件裁判人员了。这些无法被忽略的事实使得我们在进行案件裁判时,难以实用于解释还原事故发生时的真实情景,造成司法归因难题。此时,倘若将故意与过失直接归属于人工智能似甚为不合理;同时,使用者自身也无故意与过失,若我们违反基础的公平与正义原则,让清白的使用者白白承受这一后果,这将是司法制度的退步。这样一来,将导致我国侵权论所坚持的主观过错要件难以得到解释,使得一般侵权责任难以实用于确定人工智能导致损害的责任归属。

笔者认为,当人工智能高度智能化时,其能否具备法律主体资格以及自身的能动性、可预判性、可解释性等因素导致的归因难题,都将导致我们的一般侵权责任在强人工智能领域中难以适用。

(二)产品责任的困境

产品责任,是指产品存在缺陷发生侵权,造成他人损害,生产者、销售者等应当承担的侵权责任。在一般产品责任的适用过程中,受害人需证明侵权责任法规定的三个责任构成要件,即证明人工智能存在缺陷,人工智能导致了损害以及缺陷与损害之间有因果关系。但是,同一般侵权责任,产品责任在人工智能领域适用时也面临产品缺陷、过失等证明的困难,以及技术中立免责情况。笔者认为,这给受害人寻求司法救济增添了诸多障碍。

1. 人工智能缺陷证明的困难

在产品责任中,归责原则是最严格的无过错责任,但是仍以人工智能存在缺陷为前提,受害人只有证明产品存在缺陷,并因为缺陷招致损害,产品的销售者、生产厂家、设计人员才应当承担损害责任,而无论其有无过错。在比较法研究中,如美国在2017年通过了自动驾驶法案,致力于人工智能在自动驾驶领域的民事责任承担问题研究,明确了自动驾驶侵权的责任承担主体。在此基础上,美国的密歇根州与佛罗里达州均规定,技术人员必须有能力在必要的情况下确保能控制自动驾驶车辆,若违反上述要求,法律将要求其承担产品质量责任。其主张通过产品责任填补损害,弥补受害人的损失,但是,他们忽略了人工智能已经不是简单的可以直接定义为产品的物品了,且产品责任在面对人工智能时,仍会遇到难以克服的缺陷证明难题。

按照我国既有的法律规定,不符合国家标准和行业标准的产品为具有缺陷的产品。但在人工智能领域,由于法律天生的滞后性,这两个标准都是缺位的。同时,具有自主性,依托大数据、超级计算机以及深入学习的人工智能,打破了我们的既有规则限制,使得寻求缺陷证明难于上青天,试举一例以明之。以2018年3月美国Uber公司自动驾驶汽车测试发生交通事故导致行人身亡为例,倘若国家法律或者行业标准规定,自动驾驶汽车根据既有设置的数据判断路上行走的物体为行人或者是车辆,该车辆在事故发生后检测出存有缺陷,自不待言构成责任承担的要件。但是,若根据当时的情况,汽车的所有行为都符合有关的缺陷标准呢?此时又如何证明缺陷,这不得不说是给我们提出了难题。

我们将目光转移到域外来看,在美国法中,缺陷的判断标准主要是风险—效益标准以及消费者预期标准。但在人工智能领域,这两个标准存在其自身的缺陷。对于前者来说,新一代的人工智能能够自主学习,并基于自身的独立学习产生新的算法。证明高级智慧产品是否存在缺陷,需要司法裁判人员及当事人具有极高的专业技术知识,且对于某些系统层面产生的新算法缺陷的证明是困难且受争议的。对于后一个标准,消费者的预期是难以预估的,一味保护消费者的预期,将不利于行业的健康发展,是弊大于利的。在欧盟法中,法律所规定的缺陷是指穷尽一切的可能,产品没有提供人们所期待的安全性。同美国法的第二个标准,人工智能产品的算法以及设备技术非常复杂,会妨碍人工智能的使用者的期待,导致消费者的期待难以预测协整,导致在实践中该标准难以用于判别人工智能是否存在特定的标准[5]。

2. 技术中立免责适用导致的困境

从亚里士多德将技术视为一种工艺性活动,到韦伯从事实判断与价值判断的角度出发,基于工具理性认为技术本身是排除个人主观意志能力、摆脱情感因素,处于价值中立立场的。该理论运用于司法实践,演变为技术中立是否免责[6]。近年来,国内最为著名的引用技术中立原则主张免责的应为声名大噪的快播案。迄今为止,快播案引发的学术讨论仍基本聚焦于“技术中立”可否作为该案的有效抗辩以及各种法律条文上的咬文嚼字[7]。笔者认为,我国谓之以技术中立免责的原则指的是一种与价值中立不同的责任中立,即只要技术的使用者和设计者主观上没有故意与过失,他们便不对技术在实践中的负面影响承担责任。例如,菜刀的发明者并不因菜刀被运用于杀人而承担相应的刑事责任,因为其发明菜刀的初衷是提高生活的便利,而不是用于杀人[8]。在高度发达的人工智能领域,人工智能脱离了简单的产品的范畴,但其本质上仍然是一项技术,只不过是高度发达的技术。当损害发生时,在司法实践中进行责任认定时,在能够确认责任承担主体的面前,我们必将面临有关人员提出的技术中立免责的抗辩。而技术是否中立,应否作为免责事由,在司法实践中操作起来确实存在困难,从而使得产品责任未能得到有效运用。

综上所述,笔者认为,在如今的技术能力之下,在人工智能广泛参与我们的教育、法律、医疗、农业等行业成为不可逆转的时代潮流的情形下,必将导致诸多的法律问题。侵权责任在人工智能是否是侵权主体、过失责任的证明方面存在很多的问题,使得侵权责任在人工智能导致损害时,无法有效地运用,以维护有权主体的合法利益。当我们求助于产品责任时,强人工智能在某种程度上已经超出了产品的范畴,加之缺陷证明的困难和技术中立免责抗辩事由的引用,使得产品责任也不能很好地保证我们的合法权益。

三、我国人工智能侵权的责任承担出路

基于公平正义原则,有损害必有责任。但是面对人类被人工智能所牵制,且这一连续性的过程对人类而言是极其隐秘的困境,人工智能似乎脱离了人类的掌控,超脱于外,此时的人类也似乎将逃离法律与道德的红线,落入自身设计和制造的算法统治怪圈,使得难以在损害发生时有效地追究有关当事人的责任。若各国在面对人工智能造成的损害时,如丈二和尚,摸不着头脑,后果将不堪设想。因此,不管是参考国外的立法,还是自我发展,考虑上述事实,我们均应该进行有关的制度创新。

(一)建立人工智能替代责任承担制度

1. 法律基础与成立要件

承前所述,人工智能是一种拥有有限人格的智能化主体,笔者认为,其地位在一定程度上可类比于现行法律中的无民事行为能力或者限制民事行为能力人。倘若我们将其视为民法总则规定中的被监护人,则人类与之关系类似于监护人与被监护人之间的关系,那么当人工智能侵权发生时,可适用替代责任进行追责。当然,在讨论替代责任作为人工智能侵权的责任形式之前,我们需进行分析。

我国的侵权责任法第三十二条规定,当无民事行为能力或者限制民事行为能力人实施侵权行为,造成他人损害时,由其监护人承担相应的责任。同时,若监护人尽到自己的监护职责的,可以减轻其责任。在赔偿问题上规定,若无民事行为能力人、限制民事行为能力人自身拥有一定的财产,应先以其财产进行赔偿,不足部分再由监护人承担。该法律的规定,其立法本意是为了保护行为人履行自己监护职责的积极性以及社会公共利益。在侵权法中,监护人替代责任的成立,需符合以下四个要件:第一,监护人没有实施直接的侵权行为,同时,无民事行为能力或限制民事行为能力人对第三人实施侵权行为并致人损害;第二,承担有关侵权责任的是监护人;第三,监护人同实施侵权行为的被监护人之间存在特定关系;第四,监护人对被监护人承担侵权法上的控制义务。前三个条件自不多言,需要简要叙述一下第四个条件。

参看英美法系国家以及我国民法总则、最高人民法院的司法解释和侵权责任法的规定,监护人其责任承担基础主要来源于“控制义务理论”[9]。我国法律所称控制义务,是一种要求监护人实施必要的,能有效管理、监督以及控制与自己有特定关联的被监护人的行为,以防止其侵害他人合法权益的义务。这种义务,其性质特殊,并非法律规定的一般意义上的义务。这种义务在监护人与被监护人之间的监护关系成立伊始便基于二者之间的监护和被监护关系自动发生。监护人有着这样的义务,其便需实施特定的行为,以防止被监护人脱离自己的监护范围,实施违法行为,侵害他人的合法权益。假使行为人违反了该义务,则法律将会对其科以处罚,使其承担责任。这与人工智能的使用者不能基于二者之间的关系,不能使其脱离自身控制而实施违法行为乃一脉相承。

我国民法总则及侵权责任法对监护人由于被监护人实施的违法行为承担替代责任的规制,主要有以下几个方面。其一,监护人承担的责任是一种严格责任。法律要求,即使监护人履行了自己合理的注意义务,当被监护人实施侵权行为致人损害时,其依然要承担相应的责任。其二,监护人承担有关责任不以被监护人存在判断能力以及行为能力为前提条件。同时,即便被监护人实施的是故意侵权,监护人也应当承担责任,并且这种责任不是监护人与被监护人之间的连带责任。最后,即便监护人在该侵权损害中承担的是无条件的替代责任,但是根据有关法律的规定,应先以被监护人自有财产担责,不足部分由监护人以其所有的财产补足。

2. 替代责任在人工智能领域的适用

根据上文的简要论述,我们可以发现,在人工智能导致损害的责任承担中,使用替代责任进行规则是十分具有契合性的。

(1)人工智能使用者对人工智能具有控制义务。由于人工智能的存在,必将给一方主体带来利益,否则其存在便不具有价值。这样想来,基于社会的公平与正义,人工智能的利益受益方则有义务防止给其带来利益的当事方侵害第三人的合法权益。同时,在监护人主体方面,由于人工智能是具有极强的专业性的,非专业设计无法控制其出厂后自主行为的风险,因此我们应当特别强调人工智能设计者的责任。当然,人工智能,即便是强人工智能多半都会经销售者之手,我们也应将销售者列为强人工智能的监护人之一,这样有助于增强人工智能流通领域中销售者的注意义务以及严格履行自己的“控制义务”。最后,则是我们的最终使用者。强人工智能进入社会生活领域之后,则处于使用者的控制之下,其将享有人工智能带来的利益,不管是经济上的还是精神上的,他们作为人工智能的监护人的合理性自不赘述[10]。

(2)人工智能的赔偿与监护关系中的赔偿具有相似性。在现有的社会背景下,人工智能逐渐具备了自身的财产,诸如阿联酋的机器人索菲亚。因此,在赔偿问题上,由于人工智能是电子人,具有法律地位,其拥有自身的财产,我们应首先以其享有的财产进行赔偿,财产不足以赔偿时,再以有关监护人的财产进行赔偿。这样既能较为合理地保护有关主体的合法权益,实现和维持社会的公平与正义,也能促进人工智能的“监护人”,即利益保有者仍能积极创造和适用机器人,保持行业发展的积极性。

(3)其他方面。一方面,由于监护关系中的替代责任的成立,是不以被监护人存在行为能力以及责任能力为前提的。采取替代责任,符合人工智能自身的特点。另一方面,人工智能的监护人承担严格责任,能够促使或者说倒逼其在享有权益的同时,积极履行自己的义务,管理、控制与其存在特定关系的人工智能,使其不能脱离管控实施违法犯罪行为侵害他人的合法权益。

总的来看,笔者认为,在人工智能领域实行替代责任,是严格责任,我们将避免证明侵权责任中的过失的难题;同时,技术中立免责的抗辩事由以及缺陷证明的困难都在一定的程度上得到了解决,可以说是较为合理的一种新的制度构想,在实践中也具有极强的可操作性。这有利于实现社会的公平和正义,为新经济的发展保驾护航,同时也可在一定程度上保护受害人和合法权利者的切身利益。

(二)建立人工智能强制保险制度

我们可以看到,机动车交通事故责任强制保险制度自实施以来取得了良好的社会效果,在事故发生时,既能有效地保护受害人的合法权益,使其损害得到有效的补偿,又能减轻肇事者的经济负担。人工智能领域导致的损害,在大数据市场化的今天,由单一的国家政府部门或者个人来承担责任,显得尤为吃力。

放眼域外,在《欧盟机器人民事法律规则》和相关“决议”中,欧盟主张重构责任规则。法律事务委员会提出了两个建议:建立人工智能强制保险机制和赔偿基金。德国于2017年6月16日正式公布实施了号称引领世界的《道路交通法》。此法修改的第一要务正如上文所述,是明确肯定了自动驾驶技术的机动车可以在道路上行驶。另一重要方面,此次修法力图增强对受害人的保护。这种强化体现在强制保险赔偿额度的上调、事故证据留存与驾驶人义务调整等方面[11]。英国议会2016年提出的关于无人驾驶汽车法律责任问题的提案中,主张将机动车强制责任保险扩大到产品责任。我们也应该进行借鉴,在人工智能侵权的责任承担中,建立人工智能强制保险制度,从而获得有关主体共同承担风险的机会[12]。这样,将十分有助于我国的人工智能高速发展,实现党和国家的战略发展目标。

人工智能领域的强制责任保险制度,应该区别不同种类的人工智能,设置不同的强制保险制度内容。以自动驾驶汽车为例,参考现行的《道路交通安全法》以及《机动车交通事故责任强制保险条款》,可将机动车交通事故责任强制保险做如下调整以运用于人工智能自动驾驶领域。

1. 保留并提高财产损失限额额度

我国现有的强制保险制度对赔偿限额采取的是一种二分模式,即赔偿限额的计算因机动车在道路交通事故中有无责任而有所不同。从实施效果来看,保留现有的限额制度是十分有必要的,但是,由于经济的发展以及人工智能侵权事故的损失重大性,我们应当提高人工智能强制保险制度的财产损失限额,以更好地发挥人工智能强制保险制度保护受害人、分散风险的功能。

2. 增加“交强险”投保主体[13]

作为人工智能自动驾驶领域的受益者,我们应该考虑,将自动驾驶汽车的生产者或者消费者增设为投保主体,以此分散风险。要求生产者或者销售者每出售一台自动驾驶汽车,都应购买强制保险,以此提高受害人受偿权的保障率。而且,我们可以看到,在量子卫星、遥感技术、大数据等高速发展的未来,道路交通事故发生概率必然大大降低,增加“交强险”的投保主体不但不会损害保险公司和生产者的合法权益,阻碍其发展,反而会大幅提高保险公司营运积极性,甚至催促车企抢夺汽车保险公司的部分市场份额。

四、结语

我们的这个时代,人工智能的发展已经成为不可逆转的大趋势,我们面临着是否应当放松人工智能领域的缺陷审查标准、司法实践中的事实查明和隐私保护困境、立法落后以及民法典是否应当设立针对人工智能的特殊侵权责任体系等问题,其对传统法律体系的冲击,需要我们每位法律人站起来积极应对。虽然,笔者提出的建立人工智能导致损害承担替代责任的构想可能会在一定程度上解决部分问题,但立法机关在制定民法典分则时,也应该积极考虑人工智能领域的各种法律事实,并积极作出回应,使司法机关审理有关案件时能够有法可依。再者,建立人工智能责任强制保险制度、赋予其有限人格、采取人工智能登记备案制度等措施,或能在笔者设想的人工智能替代责任之外,为人工智能侵权的责任承担起到一定的积极作用。当然,我们在保护有关主体的合法权益的同时,也应该为人工智能的发展留下法律空间,实现经济与法律的和谐共生。

猜你喜欢
强制保险监护人主体
论自然人破产法的适用主体
石狮市妇联依职权申请撤销监护人资格
监护人责任之探究
技术创新体系的5个主体
购房按揭强制保险若干问题分析
我国医疗责任保险制度研究
关于遗产保护主体的思考
怀旧风劲吹,80、90后成怀旧消费主体
对药物临床试验受试者的法律保护之思考
School Admission择校