浅析人工智能法律地位认定及责任承担

2019-09-12 12:19李玥吴梦淇
大经贸 2019年7期
关键词:责任承担法律地位人工智能

李玥 吴梦淇

【摘 要】 人工智能作为引领未来世界的科学技术,已经成为国家、企业、高校等关注的焦点。人工智能带给人类新兴技术的同时,也超越了法律现有规范的范畴,触及法律规则的盲区。本文通过阐述人工智能发展现状,论述各国法律对人工智能主体地位的界定,分析赋予人工智能法律主体地位的弊端,提出确立人工智能合理法律地位的建议,包括划分不同的层次(弱人工智能、强人工智能、超人工智能)来确定人工智能法律主体资格,及对人工智能承担责任的思考,最终推动人工智能的合理化发展。

【关键词】 人工智能 法律地位 法律主体 责任承担

2018年,Uber(优步)一辆无人驾驶测试车在美国亚利桑那州撞死一位女性,这是全球首例完全自主驾驶汽车致人死亡的事故。随后,人工智能安全问题在世界引起广泛关注,人工智能是否具有民事法律主体资格?人工智能能否独立承担法律责任?如果承认人工智能的主体地位,又如何对人工智能“定罪量刑”呢?当前思考这些问题并不超前。

一、人工智能及其法律地位问题概述

(一)人工智能概述

根据各专家学者的看法,人工智能(Artificial Intelligence),是研究、开发用于模拟、延伸和发展人类智能的理论方法、技术及应用系统的一门新技术学科。[1]

随着大数据时代的到来,人工智能(Artificial Intelligence)直接影响人类的生产方式与生活方式。在工业领域,企业通过智能机器人、虚拟现实(VR)等提高生产效率、节约劳动成本;在医疗领域,人工智能在医学影像识别方面的应用、数据库的建成,使诊断更快更精准;在教育领域,人工智能推动差异化和个性化的学习,“微课”的推广增加了教育普及力度;在服务业领域,“机器人服务员”为消费者提供更加高效便捷的服务体验。

为抓住当今人工智能发展的机遇,习近平总书记在十九大报告中指出要加快发展先进制造业,推动互联网、大数据、人工智能和实体经济深度融合。[2]人工智能的发展,早已成为国家综合国力强与弱的标志。

(二)明确人工智能法律地位的必要性与紧迫性

我国《民法总则》中规定民事主体主要为自然人,民事客体主要为物,明确人工智能究竟为有目的、有意识的特殊自然人,还是独立于人体之外、能够为人体所支配、并满足人类生活需要的物,是享有民事权利、承担民事责任的前提。若不明确此类问题,随着AI时代的发展,必将造成社会秩序与法律体系的混乱,进而违背人类伦理道德。

全国人大代表、致公党上海市委专职副主任邵志清于2019年3月4日提出了关于制定人工智能应用管理法的议案,他指出,人工智能在造福人类的同时,所带来的社会问题也日益突出,从人工智能侵犯隐私权到侵犯商业秘密,甚至致人伤亡,都表明确立人工智能法律地位势在必行。

二、人工智能法律地位之分析

(一)我国和域外国家法律对人工智能法律地位的界定

由于人工智能技术的新颖性,纵观我国法律,虽然在各地方已经开始重视此问题,但还没有严格的制定法来规定人工智能的开发与使用问题。由于高速发展的人工智能已超出了法律范畴,法律和监管出现了明显的滞后现象。在司法层面,若出现人工智能致人损伤事件,各地法院大多通过我国《产品质量法》第四十三条,即产品缺陷责任来认定,由人工智能产品的生产者、销售者来承担侵权责任。可见,我国法律目前并未承认人工智能的民事主体地位。

2017年,沙特阿拉伯王国授予由美国汉森公司研制的智能机器人索菲亚 (Sophia)以公民身份,沙特阿拉伯王国也因此成为了第一位授予智能机器人以公民身份的国家。同年11月,日本人工智能聊天机器人ShibuyaMirai(涩谷未来)拿到了日本东京涩谷区的居住权。美国已经有超过22个州的通过议会或者州长的行政命令的方式通过了自动驾驶相关的法规。这些表明各国都开始界定人工智能的主体资格,且赋予智能机器人法律地位的可能性极大。

(二)赋予人工智能法律主体地位的弊端

尽管在学术界存在不少支持民事主体范围扩张的理论,如“有利于划清民事责任的界线,进而减少纠纷”,“提高人工智能在法律职业中的應用,有利于提高法律工作效率”,但笔者仍然认为赋予人工智能民事主体地位不合适,理由如下:

1.人工智能只能作为民事客体——物

人工智能终究是人类为满足自身生产和生活需要而生产出来的“工具”,其根本身份是辅助人类的附属品,目前还处于人类的控制之中。再次,虽然人工智能具有一定的判断与选择的能力,但不具有和人类相似的理性、良知与道德,也没有意思能力,即不具有自己的思想,跟自然人、法人有着本质的区别。“电子人”没有自己独立的意识,也不能运用思维能力来创新,所作出的行为没有主观目的性。然后,法律上的人,能够“独立”参加法律活动、享有权利并履行义务的主体,人工智能即便具有法律的人格,也会受到一定的限制,即不完全排除了其生产者与经营者的责任,也就是说,人工智能目前并不能独立于人类而存在。

2.从人格权的角度

人格权是一种绝对权,具有排他的效力,任何其他人都不得妨碍其行使,若人工智能被赋予民事主体地位,则意味着除人工智能产品本身外,任何主体都不得干涉其行为,但从大多数人工智能的性质出发,控制它的“算法”只能由人类决定。其次,人工智能不存在“生命”、“身体”、“健康”等法益,也不存在“生命权”“身体权”“健康权”等具体人格权。

3.不利于承担具体的民事责任

法律应当赋予人工智能以“人”的地位,还是否认其主体地位?[3]在实践中,人工智能致人损伤事件屡有发生,对此问题的思考推动确定民事责任承担主体的解决。若赋予人工智能民事主体地位,则要求其承担独立的或连带的责任,一方面,需要单独承担刑事责任与民事责任时,也不可能限制人工智能的“生命”或者“自由”,也不会要求它承担“赔偿损失”“赔礼道歉”等附带民事责任;另一方面,若追究人工智能与其生产者、经营者的连带责任,则更会导致责任承担方式的界线模糊不清。生产者也会由于避免承担过多的责任而打击其生产积极性,不利于人工智能的创新。根据民法理论,民事主体存在责任、承担义务的同时,也享有一定的民事权利,但赋予人工智能与自然人、法人相类似的权利显然不现实。

4.不符合法律理念,缺乏法理基础

人工智能缺乏人类的感性思想,就学者主张的合理性来说,尽管人工智能将广泛运用于法律职业领域,例如法官,但由于人工智能不会从人类伦理道德、社会公序良俗的角度出发审判案件,导致法官的自由裁量权无法适用,不能彰显司法正义。但法官的自由裁量是案件定性和定量的关键,而法官对案件的裁量在“以事实为依据,以法律为准绳”的原则下,已经超越了法定证据主义时代,转向自由心证方式。[4]法官是有意识的能动主体,人工智能无法通过自由心证来作出判决,不利于公平正义的法律理念发挥作用,也使得程序正义与实体正义无法施展。

故笔者认为,不建议承认人工智能的主体地位。

三、确定人工智能合理法律地位与责任的建议

法律不是目的本身。为了更好的规制人工智能所引发的责任问题,也不只能通过赋予它法律主体地位来解决。

(一)划分不同层次来确定人工智能法律主体地位

人工智能分为三个层次,即作为工具的弱人工智能、具有自主意识类似于人的强人工智能、超越人类的超人工智能。[5]借助学者普遍观点,可根据这三个不同的层次赋予民事主体地位。

对弱人工智能而言,如手机语音助手Siri、“阿尔法狗”等完全依附人类控制的“机器”,否认其民事主体地位。我国仍处于弱人工智能阶段,目前赋予人工智能民事主体资格与让它承担责任不现实,但当未来进入强人工智能甚至超人工智能时代,如同法人拟制的出现一样,赋予人工智能法律主体资格是趋势。对于“与人类具有相同智慧的”强人工智能,可以有限的承认其法律主体资格,就算是民法上的自然人,根据年龄、智力状况、身体情况的标准,都可将自然人划分为限制民事行为能力人与完全民事行为能力人。与人类相似的强人工智能也可根据特定的标准,如运用人类思维方式的程度、情感要素等来划分层次,承担不一样的民事权利与义务,但终究人工智能的智慧与人类智慧存在根本差异。在超人工智能层面,认同其法律主体资格,当世界科学技术已达此阶段时,智能机器人可能除具有人类普遍智慧外,还在某些领域超越了人类思维形成“智慧体”,但在这个阶段的赋予其法律资格也需设定一定的限制,否则将出现颠覆人类社会的大混乱,危及人类本身。

(二)人工智能法律责任承担的思考

2019年第十三届全国人大二次会议大会发言人张业遂说:“人工智能技术是引领新一轮科技革命和产业变革的战略性技术,但是人工智能技术的应用具有不确定性,可能会给人类社会带来新挑战,我国拟立法规范人工智能发展。”[6]制定符合我国基本国情的法律法规已成当务之急。应当在立法层面,明确人工智能法律责任的法律体系。

1.确立人工智能致人损害的民事法律规则

可单独制定关于人工智能产品安全使用的法律规范,亦可在我国现有的《产品责任法》向下新增法条,具体规制人工智能产品的责任原则,将人工智能增加产品缺陷责任中,明确责任构成要件,即将人工智能视为普通产品,给他人造成损害的事实发生后,相关主体依然承担与普通产品缺陷致人损害相同的责任。

2.明确法律责任主体

在产品侵权民事法律关系中,主要的责任主体包括生产者、销售者、经营者、使用者,在致人损害发生后,及时明确责任在于“人”还是“人工智能”,即划分责任承担的主体。若人工智能产品未进入市场流通,在生产、运输阶段发生事故,则追究人工智能生产者、销售者的法律责任;若该产品已经为用户所使用,且是用户故意或者重大过失致成,则由用户自己承担。总之,确定人工智能的责任问题应当平衡各方利益,既不能让设计者和生产者承担过重的責任,又要充分救济受害人即用户。

3.确立免责事由

这部分参考我国《侵权责任法》的相关规定,即人工智能产品使用者对损害的发生有过错的,可以减轻生产者、销售者的责任;若损害是有用户故意造成的,生产经营者则不承担责任;若是由第三人造成的事故,则由该第三人承担;因紧急避险、正当防卫超过必要的限度,则行为人应给予适当补偿或承担适当责任。

四、结语

在科学技术日新月异的今天,人工智能的发展已经超出了人类所能承受的速度,人工智能带给人类生产与生活技术变革的同时,也存在损害人体健康的可能,是否应赋予人工智能法律主体地位问题是解决责任承担的前提。法律的滞后性与现实的快速发展相矛盾的背景下,科学技术向强人工智能阶段发展的过程中,也应在一定程度上限制其发展,以防人工智能颠覆人类根本的存在意义,混乱社会秩序,应让人工智能服务与造福人类来代替危害人类。

【参考文献】

[1] 董远胜.我国海洋环境执法存在的问题及解决途径[J]. 现代国企研究,2016(16):121-122.

[2] 习近平.习近平在中国共产党第十九次全国代表大会上的报告[R/OL].(2017-10-18).

[3] 刘洪华.论人工智能的法律地位[J].政治与法律,2019(1):11-13.

[4] 张军.法官的自由裁量权与司法正义[J].西北政法大学学报,2015,4(3).

[5] 杨立新.民事责任在人工智能发展风险管控中的作用[J].法学杂志,2019(2):25-26.

[6] 张业遂.第十三届全国人大二次会议举行新闻发布会[EB/OL].(2019-03-05)[2019-03-13].

猜你喜欢
责任承担法律地位人工智能
人工智能与就业
浅谈法律援助律师的社会责任
完善我国现行合伙制度的构想
论间接义务