人工智能伦理规则的产品质量法立法构建

2021-12-06 09:27宁金成李瑞升
河南财经政法大学学报 2021年2期
关键词:伦理规则人工智能

宁金成 李瑞升

(1.2.郑州大学 法学院,河南 郑州450052)

人工智能浪潮方兴未艾,在很多领域展示出巨大应用前景,然而随着人工智能技术的发展,其高智能、自主决策的特性在应用中却引发一系列伦理问题,比如智能主播因学“坏”而辱骂听众、自动驾驶汽车为自我避险而冲撞行人等,这些问题应如何避免并确定相关的责任,相关立法并未及时回应。虽然人工智能已经历了半个多世纪的发展,但有关人工智能的立法国内外都没有及时跟进,人工智能的属性、质量标准、法律责任等仍处于制度空白,这与人工智能的发展现状及对人类社会的巨大影响是不相称的。目前让人工智能取得法律主体地位还不具有充分的说服力,但如果将人工智能作为物来对待,人工智能自动决策的现象却要求其表现要符合人类社会伦理规范,对人工智能的规制现行制度显得力不从心。未来人工智能发展最大的问题,不是科学技术上的瓶颈,而是如何正确设置、处理人工智能与人类的关系问题。如果不把人类社会伦理规范引入人工智能的安全标准立法之中,可能人工智能带给我们的不仅仅是便捷,还有无穷无尽的麻烦。遗憾的是,我国法学界对人工智能现象的探讨尚未全面展开,近年来掀起的人工智能研究热潮也主要集中于人工智能的法律地位、人工智能生成物的权利归属、人工智能侵权责任的承担等问题,但对于人工智能活动与人类社会伦理规范的关系、人类社会伦理规范如何约束人工智能,现有研究缺乏从立法角度的实证分析。尽管伦理学也对“机器人能否成为伦理主体”问题开始研讨,但法律伦理的交叉研究其实还没有展开。因此,本文从人工智能的特性出发,探讨人工智能伦理标准的立法构建,以保障科技造福人类最终目标的实现。

一、人工智能引入伦理规则的必要性与可行性

(一)人工智能引入伦理规则的必要性

人工智能技术是模拟、延伸、扩展人的智能的理论、方法及应用的一门科学,也是迄今为止最具有挑战性的一门科学。人工智能开启了人类生产生活的全新方式,不过一门新兴科技带来的福与祸总是相伴而行[1],目前随着人工智能的普及,其“脆弱面”也逐渐暴露,带来一系列棘手的问题。比如自动驾驶汽车为了避免违反交通规则而冲撞了行人,这种自动化决策是否具有正当性,应该用何种标准来判断这种决策是否选择不当?再比如人工智能主播在阅读资料时接触了人类的欺诈案例,进而出现欺诈听众的情形,这是不应该出现的现象,但用何种标准来约束、规制这种现象?

这些问题的出现都源于人工智能对人类活动的模拟甚至现实的取代。人工智能与以往所有人类制造物存在的不同,就是人工智能具有同人类一样甚至超越人类的思维判断和行动能力。人工智能技术发展的最高理想是代替人类决策,比如医疗人工智能就可以代替医疗人员从事特定的诊疗工作,甚至比医生做的更好。2017年3月29日,阿里在云栖大会深圳峰会上展示了基于阿里云服务的超声甲状腺结节智能诊断系统的实际应用情况。这个诊断系统利用人工智能,将甲状腺结节诊断的准确率从60%~70%提高到了85%[2]。人工智能具有高度自主性、复杂性,非一般物可以比拟,这使得我们不得不在一些场合将人工智能当做“人”来看待,比如谷歌开发的无人驾驶汽车的人工智能车载系统就被美国官方认定为“司机”。高级人工智能可以像人类一样进行逻辑推理甚至从事创造性工作,一些写作人工智能在无须向系统输入任何先天知识、无人类智慧直接参与的前提下,系统自身可以独立生成新的智力内容、创造新的成果比如一篇新闻报道、一首诗歌。有学者就认为,只要是人工智能独立完成的,其所生成的内容具有独创性就能够构成作品[3]。人工智能是用来解决某些实际问题的,但人工智能不会经过人类思维这个中介,不会以人类社会价值观为背景做出判断,如何更像人类也不是人工智能的发展方向,比如自动驾驶技术不仅是在汽车上安装了自动驾驶程序,还采集大量的地图地貌信息加入程序以使得驾驶更加符合实际需求。既然人工智能从事的行为如同人类自己在从事一样,那么伦理选择权也交给人工智能了,这种情况下就需要以人类社会规范来检视人工智能的表现,其底线就是应符合人类社会法律法规、伦理道德的要求。

(二)人工智能引入伦理规则的可行性

人工智能活动需要遵守人类社会的法律、伦理规则,但一般来讲,法律是规范法律主体的、道德是规范人类社会自然人的,作为客体的物不是法律、道德规范的对象。对于人工智能的法律地位和属性,近年来也引发激烈争论。一些学者认为,在传统法视野下将人工智能视为物已不能解决其致损侵权问题,人工智能与传统机器的区别在于其具有“人”的自主性,按照目前人工智能的发展趋势,人工智能必将获得脱离人类控制的独立自主能力,赋予其民事主体地位并自行担责是大势所趋。尽管对如何赋予人工智能法律人格,学界还存在争议,比如有的学者认为,人工智能应该具有类似于企业法人的法律人格[4],还有学者认为,人工智能应当具有法律人格,但是属于有限的法律人格[5],但这些观点都倾向于在确定人工智能民事主体地位的前提下解决现有的法律问题。如果将人工智能视为民事主体,那么就要围绕人工智能专门设计其权利义务享有制度和法律责任承担制度。但这种推翻原有民法规则的做法其实没有必要和可行性。从立法的目的和效果上看,把某一实体设计为民事主体是为了激励、控制、约束、规范其行为。但人工智能运作模式都是由设计者设计的程序控制决定的,人工智能也不可能对人类制定的法律产生敬畏等意识,因此,法律不可能对人工智能的所作所为进行激励、约束或控制,需要约束、规范的是人工智能背后的设计者、生产者、使用者的行为。因此,将人工智能作为民事主体、责任主体进行法律调整没有实际价值。反过来讲,如果认为人工智能是主体或者具有人格属性,那么就要从根本上改变民法的人与物二分法的基本体系,就要针对人工智能创造出调整现有人与物之外的第三种基本规则来调整人工智能这种存在形式,但人工智能显然没有这样强烈的需求和如此大的冲击力。“面对人工智能技术的发展,用现行民法的基本理念和基本规则进行适当调整,就能够解决其所带来的问题。不必急急忙忙、不假思索地想着改变民法的基本理念和基本规则。”[6]因此,可以得出结论,目前我国立法目前没有赋予人工智能以民事主体地位,在未来一段时间内也不需要修改法律赋予人工智能民事主体地位以使其可以独立享有权利、履行义务。

目前人工智能“是法律关系的客体而非主体。”[7]但越来越多的社会实践证明,物并非与道德无关,物蕴含着人类的思想,物反作用于人的思维方式,物与人类道德密切相关。在美国纽约州通往琼斯海滩的路上,有一座摩西桥非常低,只有私家车可以通过,而公共汽车则不能,这让琼斯海滩成为只向富人开放的海滩,这种设计因此受到指责[8]。虽然桥梁不具有人的意志,但设计行为、设计过程与设计结果都要接受人类法律、道德的评判。反过来,特定物的设计、运用也会反作用于人类道德,比如马路上减速带的设计可以促进人们养成礼让行人的良好道德风尚,地铁进出口验票通道中的闸门设计可以规避乘客逃票行为。“人类的最高目标是人类的全面发展,技术只是为这个目标服务的手段。”[9]人类所制造、设计的物都应该考虑权利、公平等社会价值问题,人工智能也如此。人工智能属于物,但同样蕴含着伦理主张、伦理需求。人工智能不具有人类所独有的道德情感以及是非善恶意识,人工智能在解决一个具体问题时只能通过已有的有限数据来作出判断决策,缺乏像人一样决策时的社会伦理语境,但其自动化的行为和决策却不得违背我们人类的伦理道德规范底线,因此要特别对人工智能活动加入社会伦理规范。本质的问题是如果将决策权交予人工智能,却又对伦理问题不管不问,人类就面临着失控的风险。实践中已频频出现类似的实例,微软推出的智能聊天机器人Tay上线24 小时即在与人的交流过程中,被“教坏”而成为满嘴脏话的“不良少女”,被紧急下线[10]。这不啻为一记警钟。当然有时候用户自身可能道德素质不高,人工智能违反道德的决策可能与用户的要求并不违背,但人工智能作为影响整个人类发展的高科技产品,为其设置法律、伦理道德底线以从整体上把控这一领域的发展方向十分有必要。2018年12月欧盟人工智能高级别专家组发布了一份人工智能道德准则草案,将人工智能伦理问题的规范化、制度化正式提上日程,这值得我们借鉴。

二、人工智能伦理规则立法构建的基础和进路

针对人工智能活动应建立伦理规则,但这种伦理规则应如何建立,这需要从人工智能的本质属性出发来考察。

(一)人工智能的产品属性:伦理规则立法构建的基础

人工智能伦理规则应如何构建取决于人工智能的属性,取决于人工智能应接受何种制度的规范。人工智能目前只是人类的工具,不应该超越于人类而具有独立存在的价值,人工智能发展的一个里程碑式事件是机器人“索菲亚”取得沙特阿拉伯国籍,但机器人“索菲亚”取得沙特阿拉伯国籍后,也并未真正行使公民权利、履行公民义务,因此人工智能在本质上仍然属于物,人工智能应置于人类的控制下。那么人工智能属于何种属性的物?《中华人民共和国产品质量法》第二条规定,本法所称产品是指经过加工、制作,用于销售的产品。人工智能是人类设计的,是经过加工、制作出来的,生产人工智能的目的是为参与流通即销售,从这一点来看,人工智能仍然属于产品的范畴,应接受产品制度的调整。实践中对人工智能的分类也是从产品领域角度进行的,将人工智能分为医疗人工智能产品、智能写作人工智能产品、自动驾驶汽车等。如果人工智能属于产品,那么就应接受《产品质量法》产品质量、产品责任等制度的调整。对此问题学界也有不少探讨,比如以产品责任解决自动驾驶汽车致损事故,就得到了较为广泛的认可[11]。在人工智能属于产品的情况下,以产品质量法中的产品责任制度规制人工智能领域的活动,也具有多个方面的可行性:

第一,人工智能带来的风险只有通过产品责任规制生产设计行为才能得以良好控制。在很多时候人工智能致损时其处于完全自主的状态,比如谷歌的人工智能概念车就已经完全取消了方向盘、刹车等干预装置,车内的人是乘客而不是司机,此时发生交通肇事事故,判断谁有过错并进而确定责任人就成为难题。如果适用一般侵权责任的过错归责原则无法解决人工智能致损侵权责任,我国《侵权责任法》在第六条和第七条还规定了过错推定规则和无过错责任,不过适用过错推定规则和无过错责任都需要法律的明确规定,也就是说在没有法律专门规定人工智能致损侵权适用过错推定和无过错责任时,就无法适用。总之,现有的侵权法不足以解决自动驾驶汽车带来的问题[12]。而我国对产品责任制度规定了生产者的无过错责任,人工智能在没有外来干扰的情况下在运行过程中因自身瑕疵致人损害,就应由生产者承担无过错责任,而无过错责任可以督促生产者尽最大努力保证人工智能这一产品的安全,杜绝人工智能产品设计上的瑕疵和盲目生产。从立法技术上看,法律调整最终是调整民事主体的行为,人工智能是由一系列算法来操控,是人类思维的延伸,是按照设计者预先设定的程序来运行,不会产生自己独立的意志,法律也无法直接调整人工智能的决策程序。人工智能适用产品责任具有规制生产行为的作用[13],产品责任制度通过规制人工智能生产者、设计者的行为来作用于人工智能。在人工智能侵权场合确定责任人,不仅涉及对受害者的赔偿,还涉及防范致损事件发生义务的分配问题。通过产品责任制度方能促进生产者、设计者尽力改进人工智能运行程序、严格生产规范,保障人工智能产品的安全。有学者就以自动驾驶汽车为例,指出在无人驾驶的情况下系统的可靠性至关重要,对系统安全性问题让生产者承担产品质量责任具有合理性[14]。

第二,产品责任制度的责任方式可以有效救济人工智能致损侵权的受害人。我国立法规定的产品责任承担方式包括排除妨碍、消除危险、赔偿损失,以及对产品缺陷的补救方式如警示、召回等,都可以适用人工智能致损侵权场合。比如产品召回制度可以及早去除危险,避免损害进一步扩大,更有利于保护消费者。人工智能产品在设计方面的缺陷,有时只有在使用之后才能有透彻的认识,因此召回制度适用于人工智能产品具有合理性。侵权致损事实发生后,如果需要对于侵权的人工智能召回、修理或者更换,这些法律后果也是人工智能自身所不能完成的,需要通过产品责任制度实现。

第三,产品责任制度的抗辩事由可以保障人工智能生产者的创新积极性。人工智能作为新兴技术,一些技术风险和漏洞从某一种意义上讲是无法完全避免的。为避免无过错产品责任打击人工智能技术创新的积极性,需要一定的免责事由保护生产者。我国《产品责任法》第四十一条规定了生产者的免责事由,即未将产品投入流通;产品投入流通时,引起损害的缺陷尚不存在的;将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。这种抗辩事由适用于人工智能产品责任场合也具有合理性,可以保障生产者的研发人工智能积极性,在一定程度上鼓励科技创新。当然生产者如果以尚不能发现缺陷的存在为由进行抗辩是非常不容易的,只要这种缺陷是现有技术水平能够识别、能够事先预判的风险,不管能不能控制、避免,都要负责。人工智能具有学习能力,可能基于学习产生了之前没有的缺陷,但这是设计时就可以预料到的问题,当然不能以此为由免责。

(二)人工智能的产品制度:伦理规则立法构建的路径

在人工智能应接受产品制度调整的前提下,伦理规则应成为产品质量合格与否的标准或者规则之一,违反伦理规则的产品要纳入缺陷产品。按照我国《产品质量法》和《侵权责任法》的规定,产品质量是否合格或者是否存在缺陷的判断标准分为两种,即产品存在危及人身、财产安全的不合理危险,或产品达不到国家或者行业规定的标准。现阶段我国还未制定人工智能产品的国家、行业标准,那么人工智能产品是否合格、是否存在缺陷,就主要取决于人工智能产品是否存在不合理危险。目前对产品存在的危险是否合理的判断标准,目前理论上存在着“技术标准说”“消费者期待说”“风险-效用说”等,但考虑的因素都与产品质量标准相关,产品质量标准包括技术标准和管理标准两个方面,主要是从产品的物理性能、外观结构等方面上分析产品状况,丝毫不涉及社会道德伦理问题,这对于判断人工智能的某些仪器设备是否存在缺陷具有适用性,比如判断人工智能传感器是否正常、自动驾驶汽车的轮胎是否有缺陷等,都完全适用。但对人工智能自动决策时的道德选择来说,上述判断标准却都不能适用。

虽然人工智能也是产品的一种,但人工智能与以往人类生产的所有产品都存在巨大不同,其具有类似甚至超越人类的智能。一般产品都是在人的操作下发挥产品功能,人的操作是产品实现一般产品功能的必要条件,但人工智能发挥功能并不需要人的操作。比如人工智能汽车反应速度远超人类,其目的就是将人从驾驶这种简单劳动中解放出来,高危险、高污染的环境下利用人工智能替代人类工作,不但能避免人类发生意外事故,还能节约劳动成本。按照目前的发展趋势,人工智能具有获得脱离人类控制的独立自主能力的倾向,这导致只适用于规范人类自主决策行为的社会伦理道德规则也需要适用于人工智能产品,适用于这种特殊的“物”。正如学者指出的,自动驾驶汽车的算法也可能需要面对伦理上的挑战[15]。在发生事故时自动驾驶汽车是严格遵守交通规则还是保护人类优先?一辆自动驾驶汽车在行进过程中面对突然从路边跑过来的小孩,可能需要在双黄线上转弯以避免撞到小孩,但这可能违反交通规则,此时就需要做出符合人类社会需要的抉择,但这种抉择妥当与否,与产品物理等性能无关,无法适用传统产品缺陷的判断标准。因此,未来应完善丰富产品质量标准,伦理规则应成为人工智能产品质量合格与否、是否存在缺陷的标准,这是人工智能伦理规则建立的路径。

三、人工智能伦理规则的产品质量法立法构建的建议

早在2015年霍金就发出过警告,超级聪明的人工智能可以非常容易地实现它的目标,如果这些目标与人类不一致,人类就麻烦了[16]。是否应该为产品性能设置社会伦理边界,这是以往产品制度中从来不需要考虑的,但对人工智能产品,却需要加入这种伦理边界以约束其自我决策过程。对于此问题,国内外都已经开始予以关注,比如2019年4月8日欧盟委员会发布《可信人工智能伦理指南》,指出“可信赖的人工智能”包括7个关键条件:人类的自主性和监督,技术的健全性和安全性,隐私和数据管理,透明度,多样性、非歧视和公平性,社会福祉,问责机制[17]。2019年6月17日,我国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开发协作、敏捷治理8个原则[18]。这些文件所体现的原则和精神,都表明人工智能的发展应受到人类社会价值观的约束。今后我国立法应在产品质量法中引入人工智能产品的社会伦理规则,具体包括两个方面,即在人工智能产品质量标准中加入伦理道德规范,针对伦理问题增加人工智能产品缺陷制度的类型。

(一)人工智能产品质量伦理规范标准的立法

一般来说,产品质量是指产品满足规定需要和潜在需要的特征特性总和,不管产品质量标准是操作运行方面、结构方面、物理性能化学成分方面,还是耐用性、使用成本、外观等方面,最终目的都是为了保障满足用户的需要而设定的,从这一方面讲,人工智能是代替人类作出决策的,其决策是应用于人类社会的,因此人工智能活动也要满足人类的伦理需求,伦理要求应是判断人工智能产品质量合格与否的一个重要指标。由于人工智能种类繁多,跨越多个行业和领域,因此可以在科技部下面建立人工智能的专门监管部门,未来可以由人工智能监管部门牵头制定人工智能产品在质量方面的社会伦理规范行业标准。人工智能产品的社会伦理标准是针对人工智能的算法或者说决策活动的,具体内容应包括:

第一,人工智能的算法、决策应符合法律法规。这是人工智能产品算法设计的底线,伦理规范方面的法律标准是毋庸置疑的。法律与伦理在某些观点上虽有所不同,但相互间不能分离[19]。人工智能决策出现违反法律法规情形的,比如人工智能在接触人类隐私后选择公开他人隐私,当然属于产品运行方面的重大质量缺陷。

第二,人工智能的算法、决策应符合社会核心价值观和伦理道德原则,应符合人类的根本利益,尊重人类人格尊严等。人工智能的算法、决策不仅仅是一个技术选择问题,比如在自动驾驶汽车不可避免发生交通事故时,人工智能必须处理“保护谁和损害谁”的问题,但是决定“保护谁和损害谁”本质上是一个伦理问题,立法有必要予以干预并保障人工智能的此类决定符合社会核心价值观和伦理道德原则。在现代法治背景下,伦理问题必然会转化成政治压力和民主议题,反映在立法中[20]。具体来说,人工智能设计要确保算法设定不出现歧视、避免用来欺诈的算法、对个人信息的收集和利用要关注隐私保护等。如果人工智能在伦理选择方面进行算法上的排序,保障生命权应放在首位,当人工智能面临人类生命权与其他权益相冲突时,首选保障生命权,其次再考虑其他人身权益、财产权益、效率秩序等伦理价值。

第三,为确保人工智能的算法、决策符合伦理规则,人工智能的算法设计要遵循可解释性原则,即保证人类能够了解人工智能如何以及为何做出特定决定,保证自主决策系统的工作原理人类可以预测。

为了保障规则的较大适用性,立法规定的人工智能产品伦理规则必然较为抽象,各个行业领域人工智能产品的社会伦理规范具体细则,监管部门可以另行制定。需要说明的是,人工智能的伦理问题一般消费者难以发现,在发展一项新的人工智能技术时,要对其是否符合社会伦理规范经过道德评估。我国《产品质量法》第十二条也规定,产品质量应当检验合格。在人工智能产品国家标准尚未出台时,人工智能企业的自律存在独断的风险,而国家对产品质量的监督检查以抽查为主要方式。鉴于人工智能产品的巨大社会影响,笔者认为,有必要针对人工智能产品建立第三方检验制度,新类型的人工智能产品进入市场前,监管部门要责令行业协会组织对人工智能进行内部算法检验,对人工智能技术指标是否符合社会伦理等标准进行全面审查和预估。在实践中,如果是用户在使用过程中修改程序导致人工智能算法程序、人工智能决策违反法律和伦理道德规范的,这与生产者设计者无关,应由用户自行承担后果。

(二)增加人工智能产品缺陷制度的类型

适用产品责任制度的前提是产品存在缺陷,而传统产品缺陷包括设计缺陷、制造缺陷和警示缺陷三类,按照这种分类人工智能产品的缺陷也可以分为设计缺陷、制造缺陷和警示缺陷,比如人工智能不按照输入的指令运行就属于设计缺陷,智能机器人电池漏电就属于制造缺陷,没有合理告知消费者操作注意事项就属于警示缺陷。人工智能源于设计缺陷、制造缺陷和警示缺陷这三类原因在自动运行时致损侵权,就要适用产品责任制度解决其带来的损害赔偿等法律责任问题。但传统产品的设计缺陷、制造缺陷和警示缺陷是否能涵盖人工智能运行中的特殊伦理问题不无疑问。人工智能在使用过程中出现的大量思考、选择和自主决策,原本可能是需要人类做出的,这是人工智能作为人类工作替代物面临的最大问题。许多人工智能具有深度学习能力,生产商也无法准确预测人工智能在某些情况下会做出何种行为、发生何种后果,比如人工智能医生是基于对以往诊断数据的学习分析,来给患者提出诊疗方案,IBM 公司就通过和一家癌症中心合作,让其研发的人工智能辅助诊疗机器人Watson对专业医学知识、基因组数据、病历信息等医疗数据进行深度学习,来构建自动化分析的疾病诊断治疗系统。这些人工智能医生的决策是无法事先预估的,如果人工智能医生判断患者已无康复希望,基于治疗效果考虑而拒绝对患者提出医疗方案是否属于不当反应,原有的产品缺陷种类难以涵盖这种情形。笔者认为,如果人工智能运行系统、算法设计不能避免人工智能出现违反伦理规范决策的,应视为存在产品伦理缺陷,要由生产者对由此造成的损害承担产品责任。将人工智能产品伦理缺陷独立为一个类型,还源于:第一,现有产品缺陷制度所针对的缺陷是产品存在危及他人人身和财产安全的不合理风险,但人工智能产品伦理缺陷的本质是算法推演过程或结果违背人类社会伦理观,两者存在不同之处,现有产品缺陷制度无法涵盖人工智能产品伦理缺陷。第二,保障人工智能的决策符合伦理德道规范,主要应在设计环节加以贯彻,伦理缺陷其实也是产品设计上的伦理缺陷,但通常情况下设计缺陷一般是指产品结构设置不合理、产品设计选用的材料不适当、设计没有附加应有的安全装置等等,为了突出人工智能伦理标准的独特性,也有必要将人工智能产品伦理缺陷作为产品缺陷的单独一个种类加以规范。

在人工智能违反伦理规则给他人造成损害,而受害者主张人工智能生产者承担产品责任时,一般情况下应当对人工智能产品存在缺陷、受损事实以及缺陷与损害事实之间存在因果关系进行举证。对于制造、警示等方面的缺陷,判定相对简单,举证也不困难,比如自动驾驶汽车的轮胎是否符合质量标准等,只需要按照一般产品的判断标准进行举证、确认即可。但人工智能伦理上的缺陷,需要认识其系统工作原理,从而指出算法存在伦理缺陷,这是一般人无法完成的证明。对于具有学习能力的高度自主性的人工智能来说,随着系统自身经验的增加,其行为、决策的推理过程设计者本身有时也无法完全还原,在计算分析能力上人脑和这些人工智能比起来逊色很多。法官等法律工作者如何对此达成共识也是一个难题。因此,有必要对人工智能产品责任是否存在伦理缺陷实行举证责任倒置。只要受害人证明了自己因人工智能违背伦理规则的活动造成了损害,人工智能生产设计者就应当对人工智能产品不存在伦理缺陷或伦理缺陷与损害之间不存在因果关系承担举证责任。如果人工智能生产设计者不能证明人工智能设计不存在伦理缺陷或伦理缺陷与损害事实的发生没有因果关系,就要承担产品责任。

四、小结及展望

人工智能对我们来说是一把双刃剑,我们发明了人工智能,但如何以及能否使人工智能在人类的控制下活动是一个大问题。史蒂芬·霍金就曾警示道:“成功地创造出人工智能是人类伟大的进步。但,这极有可能是人类文明最后的进步。”[21]无论如何,科技进步的车轮不可逆转,如何解决人工智能带来的伦理风险,将成为影响它能否良性发展的关键环节。鉴于目前人工智能的出现并没有颠覆原有“人—物”两分法的法律体系,我们要在关注人工智能特殊性的前提下,改进产品责任制度,引入产品伦理标准,规制人工智能产品的生产设计行为,解决人工智能技术带来的伦理问题。

我国在2020年5月份通过了《中华人民共和国民法典》(以下简称《民法典》),遗憾的是《民法典》中并未涉及人工智能的任何法律问题,这与人工智能无处不在的生活现实是不相适应的。鉴于短期内我国修改《民法典》并不现实,建议今后在《产品质量法》中增加条款以规范人工智能的责任问题及伦理问题,本文也以立法建议作为结束语。本文建议的条文草稿为:人工智能产品存在缺陷造成他人损害的,生产者应当承担侵权责任;人工智能产品的算法、决策应符合社会伦理规范,人工智能投入市场前应接受伦理规范审核;人工智能产品设计违反伦理规范的,视为存在产品伦理缺陷;人工智能产品违反伦理规则造成他人损害的,生产者应对产品是否存在伦理缺陷承担举证责任。

最后,需要说明的是,当前人工智能只是人类的工具,没有超越法律视野下“物”的范畴,但人工智能技术进步势不可挡,随着大数据、云计算、物联网等信息技术的发展,人工智能的自我学习、自我判断、甚至是自我管理的“智力”发展不可限量,人工智能不仅能够模拟人的智能,其强大的计算功能使得未来人工智能很可能具有超越人类、不受人类控制的思维和行动能力,在未来可能无法仅仅将人工智能视为人类可以随意控制的工具。如果人工智能产生了自我意识,他们可能会很好地控制、管理自己,此时人工智能的活动规则可以由人工智能自己依据社会既有规则来设定。因此,未来立法要给具有自我管理能力的人工智能发展为独立民事主体留下空间,如果人工智能成为民事主体,那么现有的法律法规、社会伦理道德就可以无障碍适用于人工智能了。

猜你喜欢
伦理规则人工智能
《心之死》的趣味与伦理焦虑
撑竿跳规则的制定
《白噪音》中后现代声景的死亡伦理思考
2019:人工智能
人工智能与就业
奥斯卡的规则变了!
伦理批评与文学伦理学
让规则不规则
数读人工智能
TPP反腐败规则对我国的启示