智能机器人的侵权责任研究

2020-03-12 13:52郑远民贺栩溪
甘肃政法大学学报 2020年3期
关键词:提供者设计者机器人

郑远民,贺栩溪

一、问题的提出

2016年11月,在第十八届中国国际高新技术成果交易会会场,一台名为“小胖”的机器人突然自主打破参展现场的玻璃,并砸伤路人,成为我国首例智能机器人伤人事件;(1)《全国首例机器人伤人事件》,载搜狗百科,https://baike.sogou.com/v157526406.htm?fromTitle,2019年3月23日最后访问。同年,一辆来自谷歌公司的自动驾驶汽车雷克萨斯RX450H在测试过程中,因变道而撞上公交车,谷歌公司在随后的书面声明中承认其在事故中存在责任;(2)《谷歌无人驾驶汽车撞上公交车:或首次担责》,载央广网,http://tech.cnr.cn/techit/20160301/t20160301_521496418.shtml,2019年3月23日最后访问。2018年3月18日晚上,美国亚利桑州发生一起交通事故:一名49岁的女子在横穿马路时,被一辆处于测试阶段的Uber自动驾驶汽车撞倒身亡。(3)《Uber发生全球首次自动驾驶致死事件》,载搜狐网,http://www.sohu.com/a/225949503_100105579,2019年3月20日最后访问。

随着人工智能技术的快速发展,智能机器人侵权的新闻频见报端,侵权责任的承担成为现实中亟须解决的问题。现有法律如何适用,能否满足智能机器人的侵权损害赔偿在学界还没有定论,突破现有法律的观点亦不断被提出。本文主要对学界的争议进行梳理,结合国内外现有立法例及司法适用,从智能机器人侵权责任的主体、归责原则、举证责任及强制责任保险等方面对智能机器人侵权责任做较为全面的探讨。

本文的研究对象——智能机器人,意指人工智能物质实体,不局限“类人”的外在物理表现形式。智能机器人的侵权行为是人工智能因其内部机械或非机械(如算法)运行出现问题而导致的人工智能物质实体的侵权行为。而人工智能侵权的途径并不局限于通过其物质实体侵权,如单纯由人工智能算法所导致的“算法杀熟”“信息茧房”“算法歧视”等侵权问题,并不需要人工智能具有物质实体的形式。该问题与本文的研究对象具有一定的差异性,因此不在本文的研究范围之内。

二、主要学术争议、国外立法概况及评析

(一)主要学术争议

1.沿用传统的侵权责任框架

持传统侵权责任观点的学者将智能机器人视为他人设计、生产和制造出来的产品,其进入流通领域后所产生的加害给付应适用产品责任,由产品的生产者或销售者承担责任。基于产品责任的无过错归责原则,受害人无需证明加害人存在过错,更有利于受害人获得赔偿。(4)John Villasenor.Products Liability and Driverless Cars: Issues and Guiding Principles for Legislation.Brooking, 2014,p.15.

除了具有自主能力的人工智能产品本身出现问题之外,使用者的不正当指令或使用仍然是人工智能产生侵权行为的原因之一,因此使用人应当为其过错承担侵权责任。如在自动驾驶机动车事故中,机动车的驾驶人仍然应当承担传统机动车交通事故责任。(5)杨立新:《用现行民法规则解决人工智能法律调整问题的尝试》,载《中州学刊》2018年第7期。

另外,有学者认为产品责任需要进行调整,其中设计者的责任应当从产品责任中剥离并承担过错责任。设计者过错责任侧重于设计师是否能在设计中谨慎行事,该分析采用合理标准来确定设计师是否合理地设计产品,如果设计行为不合理,法院会认定为疏忽。相反,无过错的产品责任无视生产者是否合理行事,而是关注产品在到达消费者时是否具有缺陷或不合理的危险性,无过错责任迫使制造商在向公众提供产品之前确保产品安全。(6)Michael Callier & Harly Callier.Blame it on the Machine:A Socio—legal Analysis of Liability in an AI World.Wash.J.L.Tech.& Arts,vol.14,2018,p.49.

2.参照其他法律责任

一种观点是参照未成年人侵权的替代责任。智能机器人类似于未成年人,智能机器人的制造者或使用者类似于监护人,监护人因未履行监护职责而对未成年人侵权承担替代责任,智能机器人制造者则因制造失误而对智能机器人的侵权承担替代责任。持该观点的学者认为参照未成年人的替代责任能有效解决产品责任中缺陷难以证明的问题,并能解决因智能机器人自主决策导致的损害,因为智能机器人自主学习后的自我决策与未成年人年龄增长后的自我决策具有相当的类似性。(7)梁鹏:《人工智能产品侵权的责任承担》,载《中国青年社会科学》2018年第4期。

还有观点认为应当参照法人的责任。该观点认为智能机器人应当参照法人以自身的财产承担责任,但若智能机器人在所有者或他人掌控之下,从事预设用途之外的行为而导致他人的损害,则可参考公司法的“刺破公司面纱”理论,按照具体情形要求智能机器人的制造者、设计者、所有者和管理者承担责任。(8)刘小璇、张小虎:《论人工智能的侵权责任》,载《南京社会科学》2018年第9期。

3.创设新的法律责任

一是基于“技术中立”理论,认为智能机器人生产者仅承担恶意主观过错下的责任。该观点认为,产品技术本身不会产生任何责任,只有当生产者基于侵权目的恶意制造出该产品,或管理者对产品侵权具有过错时,才对智能机器人侵权承担责任;如果生产者在该产品的研发制造过程中尽到了善良管理义务,则即使该智能产品侵权,生产者也可以基于“技术中立”原则免除自身的侵权责任。该观点被认为极大地减轻了生产者的责任。(9)吴梓源、游钟豪:《AI侵权的理论逻辑与解决路径——基于对“技术中立”的廓清》,载《福建师范大学学报(哲学社会科学版)》2018年第5期。

二是将智能机器人作为法律主体独立承担责任。是否赋予智能机器人以独立的法律主体资格,学界争论已久。有学者认为,可以通过立法赋予智能机器人法律主体资格,使其能够起诉和被起诉,并对自身产生的危害承担责任。(10)Samir Chopra & Laurence F.White.A Legal Theory For Autonomous Artificial Agents.University of Michigan Press,2011,p.59.当智能机器人具有学习和随时间变化的固有能力时,法律应该将其视为准法人,并赋予一些权利和义务,特别是作为独立实体被起诉的能力,法律应该主动接受智能机器人对相关受害人负有责任的观点。(11)Jessica S.Allain.From Jeopardy! To Jaundice: The Medical Liability Implications of Dr.Watson and Other Artificial Intelligence Systems.Louisiana Law Review,vol.73,2013,p.1049.

(二)国外立法概况

1.欧盟:《机器人民事法律规则》

2017年2月16日,欧洲议会投票通过了《就机器人民事法律规则向欧盟委员会的立法建议(2015/2103(INL)》(以下简称为《机器人民事法律规则》)。(12)European Parliament resolution of 16 February 2017 with recommendation to the Commission on Civil Law Rules on Robotics (2015 /2103(INL)).http://www.europarl.europa.eu/sides/getDoc.do?type=TA&reference=P8—TA—2017—0051&language=EN&ring=A8—2017—0005 (Last visited on Apr 10,2019).其要求欧盟委员会提交未来10—15年内关于智能机器人法律责任的立法提案,并采用较大篇幅对其法律责任进行了原则性的指导和规定,主要包括以下几点:

第一,当智能机器人不具备责任能力时,在现有法律框架之下的责任承担者主要为人类代理人,包括制造者、操作者、所有者或用户,其中既含过错责任,亦有严格责任。(13)See European Parliament resolution of 16 February 2017 with recommendation to the Commission on Civil Law Rules on Robotics (2015 /2103(INL)) Liability AD.

第二,当智能机器人可以自主决策时,现有法律规则将不足以应对其侵权损害责任赔偿。因为机器人的学习能力使其行为具有一定程度的不可预测性,导致赔偿主体具有不确定性。(14)同前注,Liability AF.因此从长远来看,可以考虑为复杂的自主机器人创造一种特定的法律地位,如“电子人”身份,以对其自身所造成的损害负责。(15)同前注,Liability 59 f).

第三,值得特别注意的是,应当严格区别机器人因被训练而产生的能力和仅因其自主学习产生的能力。至少在目前阶段,责任必须由人而不是由机器人承担。具体而言,机器人被训练的时间越长,由此而获得的能力越强,则训练者的责任应当越大。(16)同前注,Liability 56.

第四,建立适用于智能机器人的强制保险制度和赔偿基金计划。赔偿基金是保险制度的补充,可以确保受害人损害不在保险范围内时获得赔偿,向基金捐款和购买保险的制造商、设计者、所有人或用户可因此而承担有限责任。(17)同前注,Liability 59 a).

2.美国:区别联邦法律与州法律

不同于欧盟,美国联邦为了给人工智能技术发展提供宽松的制度环境,在人工智能法律规制尤其是侵权法方面并不主动。曾被广为关注的相关立法提案是2017年底国会提出的两党议案《人工智能未来法案》(Future of Artificial Intelligence Act of 2017)(18)Future of Artificial Intelligence Act of 2017, 115 Bill Tracking H.R.4625.,主要内容是要求美国商务部成立“联邦人工智能与应用咨询委员会”,但该法案现已被宣告失败。其次颇具影响力的提案就是在自动驾驶领域的《自动驾驶法案》,但该法案并未涉及自动驾驶机动车的侵权责任。另外,美国食品药品监督管理局(FDA)在人工智能医疗产品的监管方面非常活跃,但是亦仅局限于对其审核批准上市进行管理。2019年2月11日,美国总统特朗普签署了一份行政命令,创建了名为《美国人工智能倡议》(American AI initiative)的项目,正式启动“美国AI计划”。其中一项关键内容为“治理”,旨在起草关于人工智能的一般准则。(19)Accelerating America's Leadership in Artificial Intelligence.https://www.whitehouse.gov/articles/accelerating—americas—leadership—in—artificial—intelligence/(Last visited on May 15,2019).在该计划的指导下,或许能期待今后美国在人工智能立法方面变得主动,甚至有AI侵权立法的出现,但目前阶段,美国联邦尚未建立统一的人工智能侵权规则,而试图由法官在个案侵权救济中自主选择或创造规则,但法官仍倾向于使用传统的侵权法规范。

不同于联邦,美国部分州对人工智能的立法较为积极。其中在侵权责任方面表现较为突出的是密歇根州对自动驾驶的责任规定:(1)为了分配事故责任,将机器定为“驾驶员”;(2)为提供AV(autonomous vehicle)系统的技术公司定义责任;(3)将汽车制造商从责任中隔离出来,除非损害是由车辆最初制造时存在的缺陷引起的,或者是由车辆转化为AV机动车之前就存在的缺陷引起的。(20)S.FISCAL AGENCY,S.B.996—F,(Mich.2016).该规定明确了自动驾驶机动车制造商和技术开发公司的责任区别,被认为对于未来立法如何为人工智能侵权分配责任具有指导意义。(21)同前注〔6〕,第47页。

3.德国:《道路交通法》的修改

德国对人工智能侵权责任的立法目前还主要集中在自动驾驶方面。2017年6月16日,德国联邦议会公布了《道路交通法》(Straβenverkehrsordnung,STVO)第八修正案。该修正案在侵权责任的构成方面并没有太大变化,依然采取了驾驶员在事故中被推定具有过错的责任模式,但是,作为被其交通部部长称之为“世界上最先进的道路交通法”(22)Deutschland: Modernstes Straβenverkehrsrecht der Welt.https://pave—news.de/deutschland—modernstes—strassenverkehrsrecht—der—welt/(Last visited on May 18,2019).,该修正案仍有一定的可取之处:

第一,修正案第1b条第二款引入了驾驶人的新义务:自动驾驶机动车的驾驶人应当承担警觉义务和接管义务。警觉义务是指在自动驾驶功能开启期间内,驾驶人应当保持警觉,以便能时刻履行接管义务;接管义务是指当系统向驾驶人发出接管请求,以及驾驶人意识到或基于明显情况意识到自动驾驶系统不再能应付道路环境时,驾驶人应当立即接管机动车。(23)Achtes Gesetz zur nderung des Straβenverkehrsgesetzes.https://www.bgbl.de/xaver/bgbl/start.xav?startbk=Bundesanzeiger_BGBl&jumpTo=bgbl117s3549.pdf#_bgbl_%2F%2F*%5B%40attr_id%3D%27bgbl117s1648.pdf%27%5D_(1555303259499,Last visited on May 23,2019).

第二,修改后的《道路交通法》大幅提高了强制保险赔偿的最高额度。第12条第1款规定,因自动驾驶造成的人身伤亡和财产损失,强制保险赔偿限额分别为1000万欧元和200万欧元,为普通交通事故赔偿限额的两倍。(24)同前注〔23〕。

第三,更新证据的获取和保存规则。新修改的《道路交通法》第63条规定,具有高度或全自动驾驶功能的机动车必须配备“黑匣子”,重点记录自动驾驶系统和人类驾驶员对机动车的控制切换。(25)同前注〔23〕。

(三)评析

通过前述对相关学界观点和立法的梳理可以看出,对于智能机器人的侵权损害赔偿,学界观点可谓百家争鸣,即使在立法界,各国之间的规定亦具有较大差别,主要体现在以下两个方面:

1.将智能机器人视为法律主体还是法律客体

其中学界观点中参照未成年人替代责任、法人责任,智能机器人独立承担责任和欧盟立法建议中的“电子人”责任均是以智能机器人作为法律主体为前提。而其他学界观点或立法(建议)则是以智能机器人作为法律客体为前提。

智能机器人究竟是法律主体还是法律客体,是探讨智能机器人侵权责任首先需要解决的问题。对该问题的回答不同,将导致智能机器人的侵权责任规则走向截然不同的方向。若将智能机器人视为法律主体,则其侵权责任的构建有两种可能:一是由智能机器人自身承担损害赔偿责任,二是由人类承担替代责任;若将智能机器人视为法律客体,则智能机器人的侵权责任只能由人类承担。

2.建立新的侵权归责体系还是持续原有侵权归责体系

该问题是建立在智能机器人作为法律客体的前提下展开的,因为当智能机器人作为法律主体存在时,创立新的侵权归责体系将成为必然。将智能机器人视为法律客体时,该问题是探讨其侵权责任的重要前提,也是现阶段学界和立法界争论的焦点。

从对上述观点的分析可以看出,将智能机器人视为法律客体时,无论在学界还是立法界都极为重视现有侵权责任法律制度的完善,争议主要表现在下述方面:

首先,是否应当将“技术中立”理论引入智能机器人的侵权责任规制。笔者认为,“技术中立”理论虽然为技术进步提供了宽松环境,却极大地剥夺和限制了受害人的权益。技术进步的目的是提高社会整体福利,而该理论的引入会有本末倒置之嫌,因此不宜采用。

其次,设计者责任是否需要从生产者责任中剥离出来并将如何归责。设计者在智能机器人的生产过程中具有举足轻重的作用,是否需要单独归责,后文拟将详细探讨。

3.思考与启示

第一,现有智能机器人仍处于法律客体阶段。人工智能分为弱人工智能、强人工智能和超级人工智能三个发展阶段,人工智能只有发展到强人工智能阶段才具有获得法律主体资格的必要性,而强人工智能需要同时满足自我意识、思维、情感和行为四个要素。(26)贺栩溪:《人工智能的法律主体资格》,载《电子政务》2019年第2期。现阶段的人工智能虽然以深度学习算法为核心,并因使用大数据和大计算机处理技术而使其自身得以长足发展,但依然未能达到强人工智能的发展水平。因此,现有智能机器人仍然处于法律客体阶段。各国的人工智能立法亦对此均有明确认知,即使欧盟提出了“电子人”的立法建议,也明确表明在目前阶段,责任应当由人而不是由机器人来承担。

第二,现有侵权法框架仍能部分适用于人工智能侵权损害赔偿。根据奥卡姆剃刀理论定律(Occam's Razor),无必要,则勿增加实体。建立新的侵权归责体系还是持续原有侵权归责体系,取决于原有侵权归责体系是否能够适应人工智能出现后的侵权新情形。笔者持部分肯定的态度,主要有:一是 现有智能机器人本质属于法律客体,进入流通领域后的属性为产品。因此由于产品缺陷导致的智能机器人侵权,产品责任依然具有适用的价值。二是因使用者的过错导致的智能机器人侵权,总体上与普通客体的使用者相比并无本质上的区别。因此现有侵权法相关规定依然具有适用的价值。

第三,智能机器人侵权的特别问题具有深入探讨的价值。虽然现有侵权体系能部分适应智能机器人侵权问题,但智能机器人侵权依然具有与其他侵权不同的特别之处:一是影响主体的多样性。一般法律客体的侵权并不复杂,影响侵权的主体因素范围大多限定在生产者、使用者和第三人三种类型之内,但智能机器人由于具有类似于人类的主动学习能力和脱离生产者控制的自我改变能力,因此影响其侵权的主体远不止上述三项。除了现有研究和立法已经意识到的人工智能核心算法的设计者之外,为人工智能提供源源不断“生命”补给的数据提供者以及非法网络入侵者等都有可能影响到智能机器人的行为。这些主体的侵权归责问题都值得深入探讨。二是人机切换问题的复杂性。现阶段的智能机器人还未能实现全能性,在众多领域,智能机器人虽然能够充当工具实现特殊目的,但亦随时面临无能力处理情形下的人机切换问题,如自动驾驶领域的L3阶段机动车、有智能机器人参与的医疗手术、人机合作完成的重工业领域工作等。人机切换的瞬间往往是侵权责任最易产生的时刻,如何将责任在使用人与智能机器人本身之间进行分配,将是智能机器人侵权研究需要特别探讨的问题。三是更新智能机器人侵权责任配套制度的必要性。首先是在新技术的发展下,证据的获取和存储方式有了新的变化和发展,法律有必要对该进步作出相应的回应。其次是智能机器人所带来的新风险将催生新的保险种类,智能机器人责任承担主体的变化使保险制度的更新具有现实价值。

三、我国智能机器人侵权责任制度之构建

(一)智能机器人的产品责任

我国《侵权责任法》第五章规定,生产者对缺陷产品造成的损害承担无过错责任,销售者与生产者承担不真正连带责任。“缺陷”的认定为产品责任的核心,“缺陷”在学界和比较法上通常可以分为三种类型:设计缺陷、制造缺陷和警示缺陷。(27)王泽鉴:《商品制造人责任与消费者保护》,台湾正中书局1995年版,第22页。

1.智能机器人的生产者责任不应包括设计缺陷责任

对于较为复杂的产品,生产者往往无法自主设计出该产品的所有配件构造,因此这类产品往往会有部分或全部设计来源于上游设计者。根据我国现有产品责任规定,即使产品缺陷来源于上游主体,向受害者直接承担产品责任的主体亦一般为最终生产者而非上游主体。

智能机器人进入流通领域后虽然本质属于产品,但其与一般产品相比具有一定的特殊性,应当将其设计缺陷责任单独从生产者责任中剔除,而由设计者直接向受害人承担,除非智能机器人的生产者与人工智能的设计者为同一主体。理由如下:对于智能机器人产品,设计者的设计才是其得以诞生的根源。智能机器人与一般产品的根本区别在于智能机器人拥有自主学习能力和自主改造能力,智能机器人之所以能从其他法律客体中突出而被学界重点研究并被认为可能需要进行法律应对,亦正是由于这种能力的出现,而能力的根源在于设计者的设计,与生产者的制造并无关系。智能机器人侵权的大部分原因亦来自设计出现了问题。因此,当智能机器人的生产者与设计者并不属于同一主体时,由生产者承担设计缺陷责任将对生产者有失公平。

2.智能机器人的销售者责任与普通销售者责任一致

销售者的责任是否应当随着生产者责任的变化而予以相应变更?笔者持否定态度。销售者仍然应当就智能机器人产品的所有缺陷向受害人承担不真正连带责任。理由如下:第一,产品责任的立法理念是基于社会正义价值的考虑,消费者与生产者、销售者相比,因信息不对称而处于弱势地位,特别是现代科技的发展使消费者对商品的判断更加困难,(28)李昌麒、许明月:《消费者保护法》,法律出版社2005年版,第145页。生产者责任与设计者责任的区分并不会削弱法律对消费者或受害人的保护,但缩小销售者的责任将直接减少法律对受害人的保护。第二,销售者承担责任的原因是销售行为为造成损害的必经途径,而具有设计缺陷的智能机器人产品与具有其他缺陷的产品一样,都必须经过销售者的销售行为才能有造成产品责任的可能性。综上所述,销售者仍然应当与生产者或设计者承担不真正连带责任,但不是由于销售者过错造成的产品缺陷,在向受害者承担赔偿责任后,销售者可以向生产者或设计者追偿。

(二)智能机器人的设计者责任

1.智能机器人“设计者”外延的确定

产品设计是在产品被制造之前,预先形成的构思、计划、方案、图样和安排等,设计是制造的前置阶段,任何产品需要经过设计才能投入生产和制造。(29)冉克平:《论产品设计缺陷及其判定》,载《东方法学》2016年第2期。产品设计缺陷,通常是指由于设计的原因使产品具有内在的缺陷,从而给使用者造成不合理的危险。产品设计具有多样性,就智能机器人而言,基于其美观或实用而产生的外观设计,基于其安全性能而产生的安全设计,或基于其核心能力的创造而产生的技术设计等都可以称之为智能机器人产品的设计,而且每种类型的设计者很有可能并不是同一主体。

笔者认为,并不是每种设计的设计者都应当向受害者直接承担设计缺陷所造成的责任,承担设计者责任的主体应当仅限于智能机器人核心智能技术的设计开发者。例如一辆自动驾驶机动车的设计者责任承担者仅为自动驾驶系统的设计主体,该机动车的其他设计缺陷所导致的责任仍然应当由生产者承担。因为如前文所述,智能机器人的核心技术设计才是将设计者责任从生产者责任中剥离出来的根本原因。因此,与智能机器人核心技术设计无关的其他设计缺陷仍然应当适用现行法律的规定,由生产者承担产品责任。

另外,智能机器人的设计者不应仅限于最初的原始设计,对智能机器人核心设计进行修改的设计者,包括经授权的设计修改者或未经授权的设计修改者(即通过修改设计使智能机器人侵权的第三人),都应当适用智能机器人的设计者责任。

2.智能机器人设计者责任的归责原则

我国现行设计缺陷的归责原则与产品责任一致,适用无过错责任。但有学者认为考虑到技术规制与技术创新之间的平衡,(30)同前注〔6〕。智能机器人的设计者责任应当采取过错责任的归责原则。

尽管如此,笔者依然认为,智能机器人的设计者责任应当适用无过错责任的归责原则。第一,无过错责任既能使受害者获得充分的赔偿,又能促使智能机器人核心技术设计开发者采取更为谨慎的态度开发尽可能符合社会利益的产品。科技进步带来的未知风险往往是无过错责任扩张的缘由,在科技进步带来的社会大变革时代,无过错责任是遏制科技野蛮生长。引导其良性发展并促进社会稳定的最有力法律武器。第二,无过错责任的承担并不会阻碍科技发展,反而能一定程度地促进人工智能技术进步。对设计者科以严格责任虽然表面上有抑制技术发展之虞,但实际上能增加社会对人工智能产品的信心,从而提升市场反应力度,最终促使科技成果的转化及技术的更新进步。第三,设计者的责任可以通过保险制度进行合理转移。在人工智能影响世界的变革时代,保险领域尤其是强制保险制度有必要作出相应的应对措施,具体将在后文进行详细论述。

3.智能机器人设计者的举证责任

鉴于智能机器人设计者责任的特殊性,受害人应当仅需提供设计具有缺陷的初步证据,然后由设计者承担不具有设计缺陷或缺陷与损害之间不具因果关系的举证责任。如果受害者能够证明侵权损害发生时处于机器模式而非人工模式,则完成初步举证义务。(31)Orly Ravid.Don't Sue Me,I Was Just Lawfully Texting & Drunk When My Autonmous Car Crashed into You.Sw.L.Rev.,vol.44,2015,p.203.理由如下:(1)智能机器人的核心设计具有极强的专业性和复杂性,让受害人承担设计缺陷和因果关系的举证具有相当的难度;(2)让设计者承担举证责任是增强社会对技术的信心,促使技术与社会良性互动,最终促进技术发展的有力途径。

4.智能机器人设计者责任的免责事由

现有设计缺陷免责事由适用《产品质量法》第41条第2款,其所规定的三种免责事由是否仍然适用于智能机器人的设计者责任?

首先,“未将产品投入流通领域”的免责事由应当修改为“未将产品投入测试或流通领域”。智能机器人产品与普通产品在管理上的显著区别之一在于部分智能机器人产品需要经历较长的测试期间才能进入流通领域。为了保证测试的有效性,虽然测试会对智能机器人的数量、活动范围进行相应的限制,但是依然会选择高度还原的真实场景。因此,测试期间对公众所造成的侵权威胁将不亚于已经进入流通领域的智能机器人产品,甚至因为还未经测试通过而比通过测试进入流通领域的智能机器人更具危险性。

其次,“在产品投入流通领域时,引起的缺陷尚不存在”的免责事由可以继续适用于设计者责任。为了保持与第一条免责事由的一致性,宜将“投入流通领域”修改为“投入测试或流通领域时”。产品投入测试或流通领域,缺陷还未存在,说明设计缺陷与设计者没有关系,设计者不应为第三人的行为负责。

再次,“将产品投入流通时科学技术水平尚不能发现缺陷存在”的免责事由不应继续适用于设计者责任。由于智能机器人的核心设计通常使用的是就最先进水平的科学技术,该免责事由的适用会出现只能由智能机器人设计者自身做自身缺陷的裁判者,而且使用的标准还是被评判的智能机器人本身的矛盾情形,将会导致大部分智能机器人侵权都得以免责的不合理境况的产生。因此,该免责事由不宜再适用于设计者责任。

(三)智能机器人的使用者责任

1.智能机器人的使用者承担过错责任

智能机器人的使用者是指有权使用智能机器人的主体,包括智能机器人的所有人、借用人、租用人或者其他有权正当使用、管理人工智能的自然人或法人。如前所述,智能机器人的使用者应当按现行侵权法对因其过错导致的损害承担赔偿责任,若是特殊侵权领域,使用者的侵权责任应优先适用特殊侵权的规则。

2.智能机器人使用者“过错”的典型情形

相对于普通客体的使用者而言,智能机器人使用者的“过错”主要可以分为以下几种典型情形:第一,指令过错,使用人对智能机器人下达不正当指令,使其行为偏离预定轨道或造成其核心系统的混乱,导致人工智能侵权;第二,维护过错,具有维护义务的使用人未按要求对智能机器人进行必要维护,或者主动损坏智能机器人导致其侵权;第三,接管过错,该过错是指,当智能机器人向使用人发出接管请求时,使用人由于自身疏忽未及时回应导致智能机器人侵权。

3.“人机切换”问题中使用人接管过错的认定

当侵权责任发生在智能机器人向使用人发出“人机切换”的接管请求时,接管过错的认定是区分产品责任(设计者责任)和使用者责任的关键。笔者认为,判断使用人是否存在接管过错应当分为两个步骤:

第一,判断该接管请求是否事先明确被说明为必须回应的请求,若答案为否定,则不应当认定使用人具有过错。若答案为肯定,则第二,判断一个合理的人面对接管请求时采取回应所需要的时间,该时间由以下四部分组成:(1)一个合理的人类能够接收到接管请求的时间;(2)对接管请求进行大脑反应的时间;(3)将大脑反应转换为接管行为的时间;(4)接管行为能够产生智能机器人机械上相应人工操作效果的时间。因此,立法和司法都应明确,智能机器人突然发出请求要求人类无缝紧急接管的情形为不合理,该种情况下不应当认定为使用人具有接管过错。德国于2017年6月发布的全球首份自动驾驶道德标准中第17条亦明确表明将控制权突然移交给司机的设计不应当出现在自动驾驶系统技术中。(32)Ethik—Kommission Automatisiertes und Vernetztes Fahren.https://www.bmvi.de/SharedDocs/DE/Publikationen/DG/bericht—der—ethik—kommission.html?nn=12830(Last visited on May 30,2019).另外,对于必须随时给予请求回应的使用者来说,为了保证回应具有及时性,其需要在智能机器人使用期间保持一定的注意义务,以确保其第一时间能够知晓智能机器人发出了接管请求。在认定使用者是否具有接管过错时,亦可结合请求发出时使用人是否保持注意状态来进行判断。

(四)智能机器人的数据提供者责任

1.智能机器人的数据与数据提供者

人工智能领域的数据是指为人工智能的学习、训练、思考、决策和验证等能力提供素材来源的信息集合,是人工智能得以运行和自主学习的基础。第三次人工智能浪潮的来临得益于大数据的产生,根据研究机构Gartner的定义,大数据是指需要新处理模式才能具有更强决策力、洞察发现力和流程优化能力来适应海量、高增长率和多样化的信息资产。(33)“大数据”词条, https://baike.sogou.com/v59756418.htm?fromTitle=%E5%A4%A7%E6%95%B0%E6%8D%AE, 2019年6月3日最后访问。大数据对智能机器人的不断喂养使其拥有了不断自我更新或改变的能力,大幅提高了数据对智能机器人的影响力,也明显增加了智能机器人因数据影响而脱离原始目标进行侵权的可能。

数据提供者是指以盈利为目的,以获取、管理、运营数据为手段,为智能机器人提供数据信息资产的主体。数据的源头无不来自社会中的每一位参与者,但他们并没有将数据进行再利用的意思表示,因此无论所产生的数据之好坏,都不具备被追责的法理基础。获取、管理和运营数据并从中盈利的人才应当是数据侵权的责任主体。另外,未经授权以更改、增加或减少数据的方式使智能机器人侵权的第三人,亦应按照数据提供者责任的规定承担侵权责任。

2.智能机器人数据提供者责任的归责原则

数据提供者应当承担过错责任。最初被采集的数据内容良莠不齐,或者虽然单个数据没有优劣之分,但集中利用将会产生明显的不良标签。数据提供者的义务正是在对智能机器人提供数据之前,识别各数据的优劣及该集中利用的不良标签,并对其进行无害化处理,以保证所提供的数据对智能机器人无法律上的不良影响。因数据提供者疏忽导致智能机器人侵权,数据提供者应当承担责任。具体而言,数据提供者的责任主要针对以下几种情形:一是因数据提供者过错使含有违反现行法律法规信息的数据被智能机器人利用并导致其产生侵权行为;二是因数据提供者过错使含有偏见歧视的数据被智能机器人利用并导致其产生侵权行为;三是因数据提供者过错使含有个人未脱敏信息的数据被智能机器人利用并导致其产生侵权行为。

3.智能机器人数据提供者的举证责任

就侵权责任的四个构成要件而言,受害人应当承担其中损害、过错和因果关系三个要件的举证责任,而对于数据提供者的侵权行为本身,与设计者责任相似,受害人仅需初步证明数据提供者未提供合理的数据,然后由数据提供者来承担其所提供的数据合理无害的举证责任。理由主要在于数据提供者举证能力的天然优势,数据提供者能够提供精准的数据信息,而受害人仅仅能从智能机器人的行为中较模糊地感受其所使用的数据是否合理。

四、我国智能机器人侵权责任配套制度的构建

(一)发挥“黑匣子”技术的举证作用

新技术对举证的影响主要体现在“黑匣子”技术开始在人工智能领域得以广泛应用。在欧盟委员会对“机器人民事法律规则”的建议中,“道德原则(Ethical principles)”部分第12条明确要求,先进的机器人应配备一个“黑匣子(black box)”,记录机器进行的每笔交易的数据,包括有助于其决定的逻辑。(34)European Parliament resolution of 16 February 2017 with recommendation to the Commission on Civil Law Rules on Robotics (2015 /2103(INL)).http://www.europarl.europa.eu/doceo/document/TA—8—2017—0051_EN.html (Last visited on June 10,2019).除此之外,在目前智能机器人立法最为活跃和领先的自动驾驶领域中,我国的《智能网联汽车道路管理规范(试行)》第7条,德国的《道路交通法》第八修正案第63条等,都明确提出自动驾驶汽车必须配备具有记录、存储运行过程功能的设备。

“黑匣子”技术在人工智能产品中的安装应用将很大程度上解决技术专业性鸿沟带来的举证困难问题,对查明如“人机切换”等问题的侵权原委及划分责任具有重要的意义。因此笔者认为,即使在其他领域的智能机器人立法中,“黑匣子”技术也应当被规定为必须配备的设备,且“黑匣子”应当至少具备以下记录和存储功能:

1.智能机器人的控制模式;2.智能机器人所接受的所有指令及其响应;3.智能机器人运行的内部过程;4.人机交互过程中的视频及语音监控情况;5.智能机器人使用的所有数据及来源;6.智能机器人外部360度视频监控情况;7.智能机器人的第三人网络入侵(如有);8.智能机器人的故障情况(如有)。对于应当安装“黑匣子”设备的智能机器人产品,生产者未安装或使用者擅自拆除的,均应推定其具有过错。

(二)建立智能机器人设计者的强制责任保险制度

智能机器人侵权责任的变化势必导致责任保险制度的变革,如前所述,欧盟《机器人民事法律规则》、德国《道路交通法》第八修正案均对人工智能的强制责任保险作出了不同于传统保险制度的规定,我国《智能网联汽车道路管理规范(试行)》第9条亦规定每车需配备不低于五百万人民币的交通事故责任强制险凭证,但前述规定并没有对保险主体进行明确。

笔者认为,应当建立智能机器人设计者的强制责任保险制度。第一,强制责任保险制度能够补强设计者的赔偿能力。智能机器人核心设计导致的侵权责任,将成为未来人工智能侵权的最主要原因,且一旦核心设计出现缺陷,或将面临的是损害巨大的批量赔偿责任,将远远超过设计者的赔偿能力;第二,建立强制责任保险制度是设计者承担严格责任的必然要求。相较于同样为智能机器人特有侵权主体的数据提供者而言,设计者承担的是无过错责任,只要因智能机器人设计缺陷导致的损害,无论设计者有无过错都应承担责任,极大增加了设计者的侵权责任负担;最后,考虑到设计智能机器人产品可能获取的高额利润,与可能造成的巨大损害相比,让设计者承担一定的强制义务符合经济理论及社会期待。因此,为设计者规定强制责任保险应当是既保护设计者又有利于受害人的举措。

猜你喜欢
提供者设计者机器人
2020德国iF设计奖
网络交易平台提供者的法律地位与民事责任分析
基于隐私度和稳定度的D2D数据共享伙伴选择机制
2019德国IF设计大奖
网络言论自由的行政法规制研究
杨敬:深水区医改设计者
深水区医改设计者
机器人来帮你
认识机器人
机器人来啦