人工智能下法律人格理论的重新审视

2020-07-07 03:21
贵州省党校学报 2020年3期
关键词:意志人格主体

何 涛

(四川大学,四川 成都 610207)

“人工智能”(Artificial Intelligence,简称AI)又叫“机器智能”(Machinery Intelligence)、智能模拟,[1]由McCarthy 1956年在Dartmouth 学会上正式提出。它是由人工制造出来的具有一定智能程度的算法系统,简单来说人工智能就是研究如何使计算机去做过去只有自然人才能完成的智能工作。按照实践应用先后顺序的不同,人工智能可以分为认知人工智能(Cognitive AI)、机器学习人工智能(Machine Learning AI)和深度学习人工智能(Deep Learning AI);根据智能程度的差异,又可分为一般人工智能(AI)、高级人工智能(Advanced AI)和超级人工智能(Super intelligence)。[2]

20世纪40年代数字计算机研制成功后,科学家在人工智能方面研究得越来越深入,从单纯机械地重复人类的工作,到人工智能能够自己进行创作。据报道,2017年5月,微软机器人“小冰”创作的诗集《阳光失去了玻璃窗》,已经出版。[3]甚至有公司将计算机软件任命为董事会成员。[4]2017年柯洁与AlphaGo经过209手的鏖战,最终惨败,中国围棋协会宣布,授予AlphaGo围棋九段称号。[5]在法律领域,早在1981年D·沃特曼(D·What man)和M·皮特森(M·Peterson)就开发了法律判决辅助系统,这是智能法律系统在实践中的第一次运用。[6]2017年上海刑事案件智能辅助办案系统构造了案件的证据模型,能够提供证据指引、证据链和全案证据审查判断等功能。[7]

人工智能前景广阔,各国政府纷纷大力推进人工智能领域的研究与应用。1982年4月,日本新一代计算机技术研究所(ICOT)便开始着手实施日本第五代计算机系统开发计划,并提出FGCS(Fifth Generation System)将会是被用于处理大量知识信息的复杂系统。[8]2016年5月,国家发展和改革委员会、科技部、工业和信息化部和中央网信办等四部门发布了《“互联网+”人工智能三年行动实施方案》,以加快人工智能产业发展。2017年7月20日,国务院印发《新一代人工智能发展规划》,明确提出人工智能发展三步走战略,要在2030年达到世界领先水平。尽管人工智能发展十分迅猛,各国政府也是大力支持对人工智能的研发,但与其相关的法律问题也逐渐显现:微软小冰是否对创作的诗集享有著作权?2018年3月美国发生的自动驾驶汽车撞死行人事件,[9]责任如何分配?人工智能数据算法和个人信息保护如何协调等一系列问题,都需要法学界仔细考虑。随着未来人工智能的进一步发展,带来的法律问题将会更多,而要对这些问题进行妥善的解决,第一步应是法律对人工智能法律人格制度的回应。

一、人工智能人格否认论

人工智能对人类发展的影响越来越大,甚至可能对人类生存带来严重挑战,霍金就曾预言“人工智能的全面发展将宣告人类的灭亡”。许多保守主义学者坚称人工智能人格的确立不仅不符合传统人格理论,更可能对人类生存利益带来威胁,因此他们坚决反对确立人工智能人格,甚至一些学者认为政府应该加强对人工智能研发的管控,通过立法为人工智能的研发划上红线,坚决禁止任何可能引发颠覆人类主体地位的行为,[10]但是却不可否认对人工智能人格的讨论仍然具有显著的理论意义和立法价值。

(一)人工智能人格否认

法律主体是法律行为中享有法律权利,履行法律义务,承担法律责任的“人”,法律人格就是法律上能够成为法律主体的资格。人格制度确立之初,是按照自然人的特征来确立法律主体制度。尽管法人是通过法律拟制方式确立法人人格,但是法人背后仍然是自然人的集合。而人工智能从简单的机械装置发展而来,与自然人的关系就要疏远得多。若人格的确立以自然人为标准,那么对人工智能人格否认的结论便显而易见。

1.人工智能无自然人的生理学基础

有学者认为只有自然人才是人。确定人格首要标准便是从生理学基础考察,具有人格的“人”应当要有健全的人体和人脑。[11]自然人由细胞组成,尽管人工智能未来将拥有甚至超过人类神经网络的大脑,但是其基本元件仍然是一系列电子元件。人工智能只是由这些电子元件通过电路和算法组成的系统,仍然不具有生物属性。缺乏自然人属性的人工智能,即使能够表现出一定程度——甚至是超越人类——的智能程度,依旧只是人类利用的工具,永远只能属于客体,而不可能具有主体资格。[12]传统上一系列行为理论,如自然行为论、人格行为论、目的行为论、因果行为论和社会行为论等,均是建立在“只有自然人的行为才能成为法律意义上的行为”这一基础之上,故人工智能的行为不能称为法律意义上的行为。然而将自然人生理特征作为人格确立的条件之一,并无理论依据。同样由细胞构成的动物具有与自然人一样的生理特征却没有人格,而不具有自然人生理特征的法人却具有人格。另一方面,如果进一步考虑生理学基础,自然人与人工智能均由C、H、O等元素构成,是否也能认为二者具有相似的生理学特征。

2.人工智能无意志能力

人工智能虽然“智能”,但是并无自然人的那种意志能力——建立在脑神经基础上的意志能力。拥有法律上的意志能力,要同时具备辨认能力和控制能力,辨认能力指行为人能够认识到其行为在法律上的意义、性质、作用和后果的能力。具有控制能力的人是一个理性的人,能够对自己的行为进行辨认,并能够自主控制该行为。理性是具备法律人格和成为权利义务主体的条件。虽然人工智能具有类似人类的智慧,但事实上是人类智慧的体现。简言之,人工智能是人类理性的具体表现形式之一。[13]尤瓦尔·赫拉利认为主观体验有感觉和欲望这两个基本方面,而机器人它们虽然能力强大,但是却没有感觉,也没有欲望,因此机器人和计算机没有意识。[14]但是作为法律主体的意志能力是否与以自然人为标准而定义的意志能力等同,传统理论上的意志能力包括辨认能力和控制能力,如果在特定语境下考虑辨认能力和控制能力,人工智能完全具有意志能力。

3.人工智能不具有社会目的性

民法上的人是作为法律目的而存在,法律存在的唯一价值就是为人服务,即不是人为法律而存在,而是法律为人而存在。人之所以为“人”,是因为人会为“人”考虑,为“人”而活,而不是像其他事物机械地被人利用,即人具有目的价值,而其他物不具有目的价值,只具有工具价值。人工智能在自我意识、创造力、情感等方面可能永远达不到人类的程度,它只是一个特定的算法程序——这个算法程序仅接受人类指令而为人类服务,因此人与人工智能之间的关系是利用、支配、占有关系,具有显著的从属性。[15]2018年1月6日,全国首届“人工智慧与未来法治”学术研讨会在西北政法大学举行,与会专家大多认为,人工智能本质上仅是人类的一种工具,将人工智能确立为法律主体有导致人的价值贬损和物化的危险。[16]但是人工智能智力上的学习能力——甚至这种学习能力超越人类的学习能力,导致“使用者与工具的两分”变得非常困难,也正在逐渐改变人工智能作为工具的单纯身份。[17]

4.人工智能不具有价值判断能力

人工智能神经网络尚未成熟,还不具备进行价值判断的能力,而作为法律主体必须具有道德、良知、伦理、信仰等价值理念,并具有价值判断的主观能力,这是自然人区分于动物的重要标志,也是自然人能够独立承担民事责任的基础。但是人工智能不具有这些价值理念,不拥有自然人的复杂性本质和不可预知性特征,它只是按照人类编码的程序而制造出来,并不满足具有法律主体资格的条件。[15]不过有人预言有一天技术也会拥有“精神”,[18]到那一天,人工智能将是非常智慧,它会像人类大脑一样成为精神的容器,对人类社会价值理念有自主的认识。

基于对人工智能人格的否认,客体说认为法律不应确认人工智能主体地位,坚持人工智能只能是人类社会关系的附属品,仅作为法律主体的权利客体,处于客体地位。客体说内部又分为工具说、软件代理说、道德能力缺乏说。工具说认为人工智能终究是人工制造出来的为人类服务的工具,是人类器官的延伸,不能成为权利主体。[19]软件代理说认为人工智能只是代理一系列算法构成的软件的系统,体现的是使用者的需求,传递的是用户要求的信息。[20]道德能力缺乏说认为人工智能不具备道德认知和实行能力,而法律源自道德,没有道德能力的“人”不能成为法律上的“人”。[15]坚持客体说的学者分为条件坚持者和纯粹坚持者,条件坚持客体说的学者认为尽管现在人工智能不能成为法律主体,但是将来如果人工智能成为社会的常态,且具有独立意志等自然人所具有的特征,在可独立参与民事活动的条件下,法律赋予其民事主体地位便是必然结果。[21]但也有学者认为即使人工智能飞速发展,但在可以预期的未来,人工智能不仅不会成为人,而且不能成为准人,即具有类似人类智能的人工智能“人格”只是类似于人格的物格。[22]

(二)人工智能人格否认之质疑

坚持人工智能客体说的观点基本都是建立在自然人的基础之上,认为只有具备自然人所具有的特征,才能够被赋予主体身份,否则人工智能就永远只能成为被自然人利用、支配的对象。无论是把生理特质、意志能力有无的判定条件,还是道德等作为判断标准,均体现了自然人的傲视万物的心理。

世界万物价值各异,不能因为人类的高智慧就认为人类高于任何其他事物,这是典型的超人类主义的思想,对这个社会的其他价值体极不公平。动植物与人类一样,也具有生命轮回的历程,我们不能否定它们在这个社会中的价值。社会目的性论只考虑到自然人是为了自己而活,其他事物只是人类在追求自己价值过程中所利用的对象,而忽视了世界万物(包括人类)是一个相互联系的有机整体,人与其他万物均是平等的地位,仅是各方分工不同而已。法律人格的传统赋予标准大致可以分为两类:以理性为标准的理性主义学派和以人性特质为标准的人文主义学派。理性主义学派认为是否能够成为法律主体,关键在于是否具有人类的基础理性特质,包括认知能力、道德能力和意思能力等,即在辨别私益、道德塑成、责任承担、价值判断、理性推理等方面不可或缺的特质。[23]而人文主义学派认为区分人与非人应看是否具有人性的具体特质,如生命神圣说[24]、生命脆弱说[25]、感知痛苦能力说[26]等。我们可以发现,无论是理性主义学派的认知能力说、道德能力说、意思能力说,还是人文主义学派的生命神圣说、生命脆弱说和感知痛苦能力说,均是以自然人为类比对象。这些观点提出的早期可能具有一定的道理,那时只有自然人具有主体地位。但是随着社会的进步,法律理念的转变和客观社会的发展,如果仍然按照以人为参照物决定法律人格的有无,则不能满足当前社会法律价值发展的要求。人类不应该具有狭隘和自私的心理,以人类为中心的观点应该摈弃。如果其他物,如动物、人工智能,已经具备参与法律社会的条件,那么法律就应该确立它的主体地位,此时它就从自然社会角色上升到法律社会角色,从法律中的客体地位上升到主体地位。我们必须发展一种超越自我狭隘观点的新人道主义,我们必须摆脱对自身民族、宗教和阶级的依附感情。另外,人类在给什么是“实在的”和“重要的”下定义时,必须把动植物和所有生命都考虑进去。技术的权利是合情合理的事情,因为天地万物都是活的。[27]我国很早之前,儒家就提出“一体之仁”的价值论,强调人与自然万物是统一的道德共同体,道德主体必须“能体天下之物”“视天下无一物非我”。[28]《礼记》曰:“凡礼之大体,体天地,法四时,则阴阳,顺人情,故谓之礼”,在儒家看来,礼不仅调节人际关系,还反映天地运行的法则,即也调整人与自然的关系。可以通过礼治实现天、地、人三者的和谐统一,即在中国哲学史上占主导地位的主客未分、二元同一为基础的“天人一体”的思想,这是大多数哲学家认为对儒家“天人合一”思想的正确解读。[29]

本文不对法律的本质进行讨论,但是我们认为法律目的为调整社会关系,即调整社会利益资源在各社会主体间的分配,并无多大异议。法律与宗教、道德不同之处在于法律通过行为媒介调整社会关系,而不通过思想、信仰等中介。因此有学者认为法律是以行为关系为直接调整对象的规范。[30]行为关系的核心为行为,行为是受意志支配而表现出来的具有一定形式的活动,实施行为的是主体。在传统的认知观念里,法律主体只有自然人,因此法律应是调整人的行为规范。但这一观点却不能解释某些拟制主体的行为。通说认为法人是通过法律拟制而取得的主体资格,法人所体现的意志为自然人意志,可以认为法人的意志实际上是法律对自然人意志的拟制,但却不能认为法人行为也是对自然人行为的拟制,根据债的相对性即可说明,相对方只能请求作出行为的法人履行义务和承担责任。所以法人的行为是法人这个抽象实体的行为,并非自然人的行为。事实上,法律是调整法律主体行为关系的规范,而不是调整人的行为关系的规范。从逻辑顺序上看,由法律主体作出具体的法律行为,法律主体是法律行为的始端,因此讨论行为关系应先确立主体,再讨论行为,不能直接认定法律所调整的行为就是人的行为。

法律主体是参与民事法律关系、享有民事权利和承担民事义务的“人”,而法律主体地位的取得是法律基于特定社会现实情况下的考量。如果法律认为人工智能具有确认主体地位的合理性,那就应确立人工智能之法律人格,这种合理性是建立在社会发展和人工智能本身的基础之上,而与自然人无关。当然论证这种合理性的过程,必然会与自然人发生关系。法律所塑造的人是不稳定的,法律主体资格有可能被赋予,也有可能被摈弃。[31]机器人已经具备了跟人一样的思维规则,而真正决定机器人是否能够成为“人”的关键是人类自己的决断,而不是科技的发展程度。人工智能特别发达的时候,机器人必将拥有权利意识。[32]这一点可以从历史上法律主体的演变看出。人类社会早期,《汉穆拉比法典》将巴比伦人分为上等自由民、无公民权的自由民和奴隶,其中奴隶就是非法律主体。罗马法按照人的身份确定主体,奴隶就属于权利的客体——物。古罗马还实行人格减等制度,原来具有人格的自然人可能因为人格减等不再是法律主体。[33]随着人类文明的发展,人格制度逐渐完善,实现了自然人与法律主体统一,且确立了人格平等的价值追求。近几十年来,动物保护主义盛行,法学界对智能动物能否作为法律主体,争议颇大。1991年,瑞士苏黎世州立法规定受虐动物有权聘请律师,1992年瑞士正式修宪承认动物是“实在体”或“类”。[34]从9世纪到19世纪,西欧以动物作为法律主体的审判案件有两百多件被记录下来,野生动物由宗教法庭管辖,家养动物则属于世俗法庭。[35]甚至古罗马时期的寺庙、中世纪的宗教建筑都被视为权利主体。现在一些国家、政府组织开始逐渐承认人工智能是“人”。2010年11月7日,日本一个宠物机器人帕罗获得户籍,[36]2016年2月4日,美国国家公路交通管理局(NHTSA)表示自动驾驶系统可视为“驾驶员”,[37]2017年2月16日欧洲议会通过的决议明确机器人拥有“电子人”地位,[38]2017年10月25日,沙特政府授予机器人索菲亚公民身份。[39]

社会的发展会使人类社会的社会结构变得更加多样化,不仅包括人类社会,还包括机器人社会,以及人类与机器人交互的人机社会,甚至可能由于机器人的家庭地位逐渐上升,逐步取代人类家庭成员。[38]人工智能自然需要法律的保护,法律通过主体制度选取符合法律实际和社会发展的部分主体,赋予其人格,以构建法律关系。无论应该被纳入法律保护的范畴之内的“人”具有何种智能或形体,只要落入法律所规定的主体范畴内,自然就可以获得当然的主体权利。本质上,法律主体不过是立法者基于现实需要的一种抽象和虚拟。[40]是否赋予其法律主体资格仅是一项法律决策而已,而这项法律决策应当以有助于国家治理和社会发展,维护社会秩序和促进社会进步为标准。

二、人工智能人格正当论

(一)人工智能人格合理性

法律人格是法律为了实际需要,而确定某一社会参与“人”为法律上的人,从而使其具有参与法律社会,享有法律权利,并履行法律义务的资格。人工智能本身具有的特点和社会发展的需要,决定了在法律上确认人工智能人格的合理性。

1.智能程度高

近几年,各专家与学者对人工智能人格进行激烈讨论的最重要原因之一就是它的智能性。自从AlphaGo战胜围棋冠军后,人们无不惊异其智能程度,法律学界也由此引发对人工智能人格的讨论。这种在法律上本应该作为行为的对象而逐渐变为能够独立实施行为的“人”,是区别于动植物等其他生物的显著特征。判定是否需要法律确认其人格,理由之一应是智能程度,而不是反对论论述的生理特征、道德伦理等。法律主体理论的最重要目的之一是为法律行为铺垫,考虑法律层面上的主体问题不能与法律行为相脱离,至于生理特征、道德伦理等并不是法律最主要的关注点,其应与自然科学、道德、宗教等其他社会层面共同关注。法律主体是法律行为的前提,没有法律主体,不可能实施法律行为。智能程度高,便有了实施一定行为的现实基础和需要,法律如果不及时回应,必然会阻碍人工智能的发展,甚至冲击法律行为理论。

人工智能的智能程度在未来会超出法律界的想象,即使在现今,其智能程度也是令人诧异的。Case Cruncher Alpha 是一位“机器律师”,在与伦敦的100位律师就“对数百个错误销售案例事实来判断索赔与否”的法律问题展开比赛,结果这位“机器律师”以86.6%的正确率领先于律师的66.3%。[41]由Sergi Santos创造的性爱机器人Samantha,如果没有心情或感到不受尊重,她就会拒绝她的人类伴侣的性行为。[42]在未来,人工智能将会更加智能。机器人索菲亚的创造者大卫·汉森预计到2045年,AI将可能与人类结婚。[43]就像宇宙学上存在一个让所有物理定律都失效的“奇点”一样,人工智能也正朝着“超人类智能”的奇点前进。未来学家雷·库兹韦尔预测奇点将会出现在2045年。[44]

无论奇点是否到来,但人工智能高度智能化是必然趋势。法律制度的制定,应该具有前瞻性。确认人工智能人格是人工智能实施法律行为的前提,若对其人格进行否认,那应如何认定人工智能的行为?可以预见的是否定人工智能的行为,势必会影响人工智能行业的发展,大大降低人工智能带给我们的便利,并会给法律行为理论带来混乱,进而引发现实法律秩序的紊乱。唯有确认人工智能人格,才是唯一正确的选择。

2.具有社会发展实益

人工智能智能程度的提高会逐渐改变法律社会结构,将现在单纯的自然人社会改变为自然人和人工智能社会,即人机交互社会。到那时,人与人之间的交易、人工智能与人工智能的交易和人与人工智能之间的交易都会实际存在于社会现实生活中,如果不确立人工智能主体资格,将会极大阻碍社会效率的提高。我们可以假想一下现在正处于人机社会之中,机器人替他“主人”购买一件商品,要想达成这笔交易,店主必须要求该机器人出具其“主人”买商品的指令(还不能认定为代理关系,代理理论也是建立在民事主体的基础之上),如果没有指令,店主便不能售卖商品——不可能和一个法律客体建立法律关系。这还仅是一个简单的人与机器人进行交易的例子,而机器人与机器人之间的交易会更加复杂。如果不确认人工智能的法律人格,将会大大降低经济运行效率和增加社会交易成本。相反,如果确认人工智能的法律主体地位,就不需要要求其出具指令,该机器人本身便具有民事主体资格,拥有相应的权利能力和行为能力。这样可以将复杂的法律关系分为店主与机器人的买卖法律关系和机器人与他“主人”的其他法律关系(如合同关系、侵权关系、无因管理关系等),结果是交易效率的显著提高和成本的降低。

同时,人工智能给人类带来巨大的风险,人类理性有限,不可能完全消除风险,对于风险分配和风险造成的后果如何分担,便成为重要问题。涉及人工智能的责任主体包括使用者、生产者、销售者、开发者、第三人和人工智能本身,由于不可能完全消除风险,必然会涉及责任承担问题。如果所有责任主体均没有过错,此时就只有通过法律制定无过错责任制度进行责任分担。反对人工智能人格的学者认为可以适用产品责任,但是人工智能与一般产品会有显著的差异。首先,二者风险程度不同,一般产品风险远低于人工智能的风险,而且大部分在人类预期和控制范围之内,但是人工智能潜在的风险则不能完全由现有科学技术发现和控制。其次,一般产品的产品缺陷较为容易识别,可以明确知道缺陷原因,但是人工智能基于算法,立足于大量的数据,其数据量早已用PB(1PB=1024TB)、EB(1EB=1024PB)乃至ZB(1ZB=1024EB)进行计量。可想而知,从如此大的数据量中找到一个细微的缺陷,其难度犹如海底捞针。缺陷原因不明,便不能简单归咎为产品缺陷。最后,缺陷之害因果关系清晰程度不同,相对于一般产品缺陷之害的因果关系,人工智能造成的损害与人工智能“产品”缺陷的因果关系就更难以梳理。但是如果人工智能具有主体资格,再通过法律进行一系列的责任分担制度设计,就可以很好地解决该问题。基于人工智能本身与一般产品的差异,通过产品责任归责路径确定责任分担存在很大的问题,而人工智能人格的确立和法律责任制度的合理设计就能相对较好的缓解多元化主体之间的紧张关系。

3.人工智能的人伦性

虽然人工智能是由一系列电子元件经过算法连接而成,但是愈加智能的人工智能与人发生情感交流将不可避免。与一般宠物动物不同,人工智能的使用寿命可以更长,人类完全可以与机器人相伴一生,如机器人女朋友、机器人伴侣等,二者之间感情交流则为客观现实,某种意义上便赋予了人工智能人身利益,因此有学者认为这种人伦性将会直接影响甚至决定其法律人格化。[45]人类与人工智能基于情感和行为建立的婚姻关系和基于社会交往而建立的道德伦理关系的现实要求法律对人工智能的人格进行确认,这将对人文社会和家庭伦理关系的丰富具有重大作用。美国军事领域使用的拆弹机器人就与士兵建立了深厚的感情,以至于士兵愿意牺牲自己的生命去保护机器人。[46]这种人伦情感的交融,决定人工智能不再处于财产关系和债权关系的“物”的角色,这种由“物”上升到“人”的角色转变,是人工智能人伦性发展的必然要求。

(二)人工智能人格法律性质

法律确认人工智能的人格后,对其人格的法律性质仍有必要继续研究与探讨。在确认人工智能法律人格的一系列主体说理论中,又可分为代理说、电子人格说、有限人格说、法律拟制说等学说。代理说认为人工智能只是作为“所有人”的代理人,尽管能够将人工智能视为民事主体,但仅是法律意义上的“非人类的代理人”。电子人格说认为人工智能的人格是法律赋予其的一种电子人格。有限人格说则认为人工智能的法律人格与一般的法律人格并不相同,不具有承担责任的能力,是一种权利能力受限的法律人格。而法律拟制说认为人工智能的人格获得是法律技术操作的结果,就和法律赋予胎儿人格一样,是通过“视为”途径赋予人工智能的法律人格。对比各种学说,我们发现一些学说并没有对人工智能人格法律性质进行讨论,而是在对其人格特征进行描述。代理说实际上应该是有限人格说的一种,他们都认为人工智能的人格是有限的,只是代理说将这种有限范围具体化。对于有限人格说的观点,仍有待商榷,人格是法律上具有主体地位的资格,只有具有人格和不具有人格两种可能。而有限人格说坚持的是具有人格还是不具有人格,并没有回答清楚。从其学说观点来看,“有限”二字主要陈述的是对其权利能力和行为能力的限制,这是对人格具体内容的讨论,与人格本身的法律性质讨论并无相关性。此外,参考国内第一例人体胚胎权属争议案中法院对胚胎法律性质的观点,(1)①参见江苏省无锡市中级人民法院(2014)锡民终字第01235号民事判决书,一审法院认为施行体外受精-胚胎移植手术过程中产生的受精胚胎为具有发展为生命潜能,含有未来生命特征的特殊之物。而二审法院认为胚胎是介于人与物之间的过渡存在,具有孕育成生命的潜质,比非生命体具有更高的道德地位。一审法院认为胚胎属于特殊之物,则在本质上仍然还是属于物的范畴。而按照二审法院坚持胚胎属于人与物的“过渡存在”,则是区别传统人与物对立划分之外的第三种物质存在形式。以此是否能够类比适用人工智能和胚胎一样是人与物之外的第三种物质形式?但此种观点违反了现行民法的人物二分法,[11]会对传统人格理论带来巨大的挑战。传统人格理论坚持人与物的二元对立状态,在法律世界中,除了主体就是客体(行星等不能控制之物不属于法律世界中,自然不在讨论范围之内)。如果认为人工智能属于第三种形式,就势必需要改变现有的人格理论。而现有的人格规则足以解决人工智能主体问题,没有必要设立第三种物质形式。赋予人工智能法律人格,使其具有主体地位,能够在现有人格理论框架内解决。赋予人格的人工智能应该享有完全人格,但其本身权利能力或者行为能力应根据实际情况加以限制——更准确地说,不是对权利能力和行为能力的限制,而是对其边界的确定——但不能因为权利能力或者行为能力有限就否定其完全人格,这与不能否定限制民事行为能力人和无民事行为能力人的人格一样。因此对人格的讨论就是对完全人格的讨论,不存在有限人格的法律空间。最后电子人格说实质上应是法律拟制说的一种,是对法律人格类型的一个细化,表述的是与自然人、法人不一样的人格,便取其名称为电子人。该学说相当于是对法律人格类型的简单划分,而对人工智能人格法律性质的研究并不相关。

实际上,讨论人工智能法律人格的法律性质应该关注其法律人格来源何处。与法人人格性质的讨论一样,究竟其人格是自然已经存在,而法律仅是对其确认,还是其本身人格并不存在,只是法律拟制了该种法律人格。即为对人格实在说和拟制说的讨论。拟制说是通过法律技术将某一实体拟制为法律主体。法律拟制至少包括两层含义上的拟制,一是实体层面的拟制,如法人就属于法律拟制的抽象实体;二是意志的拟制,社团是组织化的人类团体,国家赋予其权利以保护其利益,而推动权利得以行使的意志来自那些根据社团组织确定的确定人。[47]

法人本身是法律拟制的抽象实体,并无实施民事法律行为的能力,它实施民事行为的意思实际上是自然人的意思。法人本身是不具有意思表达的能力,因此需要法律对其人格进行拟制,将自然人的意思拟制为法人的意思,并通过法人作出法律行为,拟制后的法人便具有法律主体必要的意思表示能力。但与法人不一样,人工智能为客观的实体,本身可以作出民事行为,其民事行为意思为自身意思的表达,而不是自然人意思的转述,即人工智能本身的主体意思和民事行为是实际存在的。有人认为人工智能是基于算法作出民事行为的,而算法又是科研人员预先通过编程进行设定,那么人工智能作出的民事行为所体现的法律意思实际上也是自然人的意思。这种观点显然混淆了人工智能意思表达和意思表达的能力。科研人员赋予的不是意思表达,而是人工智能意思表达的所需要的物质基础。如果赋予的是意思表达,就意味着人工智能具体的某一行为所发生的时间、地点和行为内容均是科研人员操作,显然不合实际。人工智能之所以能够独立作出民事法律行为,是因为科研人员通过编程赋予了其具有意思表示的能力。既然人工智能本身是客观存在的,且具有通过意思表达独立作出民事行为的现实基础,那么法律对其人格的赋予是通过确认方式,而非拟制方式,便具有合理理由。此外,法律拟制通过法律技术对主体资格的赋予,而这种法律技术的作用之一是拟制的公示作用,只有通过公示之后,社会上其他主体才能产生信赖关系,而实在说下的法律主体本身客观存在,已经构成自然公示,不需要通过专门的法律手段进行公示。如果人工智能是通过法律拟制手段赋予其主体资格,公示方法可能包括登记、备案等。但是由于某些原因造成人工智能没有经过登记、备案等公示就参与法律关系,则会对该种法律关系性质产生困惑。实在说观点下的人工智能不需要专门的公示方法,自完工出厂后,就具有法律人格,尽管也可能需要注册、备案等行政手续,但是这种行政手续与其法律人格的确认无关。综上所述,人工智能人格可以用实在说理论进行解释,这与法人人格法律性质存在本质上的差异。

(三)人工智能人格确认的条件

前文对人工智能从“物”到“人”的转变是基于本身的超智能本质,但是超智能是一个宽泛的概念,怎样才算超智能?即要达到怎样的条件,才能称为超智能,进而才能被法律确认其法律人格。许多学者提出了一系列条件,如必要的财产[48]、意志能力[49]、道德能力[15]、人伦[38]46、理性[50]等。但是笔者对于有些条件不敢苟同,如理性、道德能力、财产等。理性并不是解释法律行为的唯一正当性来源,[51]传统经济学理论建立在理性人基础之上,但是在不断的实践事件中,发现人并不总是存在理性。更多的时候,由于信息不对称、情绪弱点等多种因素下,人反而不理性。另外理性作为人格确立的必要条件与缺乏理性的植物人具有人格相矛盾。因此法律主体地位的获得与理性能力没有必然联系。此外,诸如道德能力、人伦等条件也不是人工智能人格确认的必要条件,而是享有类似于自然人人身权利的条件。确定人工智能法律主体的条件应该立足于立法目的、社会作用和人工智能本身所具有的特征。

1.意志能力

民事主体实施民事行为最重要的要件之一为意思表示,缺乏意思表示的行为不是法律行为。作为民事主体的人工智能能够作出民事行为的前提必须具有意思表示能力。意思表示由主观要件和客观要件构成,其中主观要件的有无是判断有无意思表示的关键因素,主观要件分为行为意思、表示意思和效果意思,只有三种主观要件同时具备,才可能称为完整的意思表示。在某种语境下,同时具备行为意思、表示意思和效果意思等价于具有意志能力。意志能力不仅是具备意思表示能力的体现,更是对法律意思自治的诠释。现代私法理论中最重要的法律理念之一便是意思自治,拥有意志能力使得自身具有自由表达法律欲望和实施法律行为的可能性。人之所以作为法律主体,就在于被法律赋予自治的可能,即其本身具有意志。[52]作为法律上的意志能力,与自然意志不同。自然人拥有的意志是自然意志,自然意志作为法律意志的来源之一,但不是唯一来源。法人的法律意志是自然人意志的体现,是建立在自然人自然意志为基础的组织意志,有别于自然意志。同理,人工智能法律意志的来源也不是自然意志,而是以算法为基础的算法意志。如果说自然人的自然意志是神经系统的反应,则人工智能算法意志是算法系统数据计算的结果。

如何才能认为人工智能具有算法意志。如果用智能程度来描述算法意志,我们可以简单按照智能程度将人工智能划分为一般人工智能、高级人工智能和超级人工智能。一般人工智能仅是简单的机械式反应,高级人工智能则基于已有的算法程序能自主地进行意思表示,而超级人工智能不仅基于已有的算法程序,还能超越现有的算法程序,其智能程度与人相差不大,甚至能够超过人类智力水平。许多学者认为人工智能必须要达到超级人工智能程度,才能拥有意志。就目前的智能水平来看,无论是类人化机器人,还是AlphaGo,均是基于既有的算法程序下所作出的反应,因此只能称为高级人工智能。否认基于特定算法下的意志能力,是不符合实际的。意志能力关注点应该放在是否具有独立作出意思表示的能力上,其重点是自主性,而不能以其既有的算法作为限制。一般人工智能虽然也是基于特定的算法,但是其行为仅是机械式的重复反应,缺乏自主性是不具有算法意志的根本原因。而高级智能程度的人工智能就具有算法意志所必需的自主意思表达能力,诸如AlphaGo这样的人工智能已经具有算法意志的现实基础,可以成为法律意志的来源之一。

2.学习能力

法律主体能够参与社会交往,具有主观能动性。对于人工智能而言,具有主观能动性必须同时具备意志能力和学习能力。所谓人工智能的学习能力是对现有数据库之外的数据的进行筛选、存储、计算等一系列能力。有观点认为学习能力只有超级人工智能才具有,高级人工智能和一般人工智能均没有学习能力,因为他们均在特定的算法束缚下完成反应,是对已有数据的处理,便不属于学习过程。该种观点将既有算法和既有数据混同。基于特定的算法并不意味着处理既有的数据,算法是处理数据的媒介和方式,数据是算法处理的对象,可以基于特定算法不断对新数据进行处理。在AlphaGo大战李世石第五局中,双方陷入苦战,AlphaGo通过前几回合对对手的策略进行分析,最终凭借微弱优势胜出。[53]由此可以看出,AlphaGo对围棋棋路计算的算法虽然是由人类预设,但是算法所计算的数据却不是一成不变。在第四局中,李世石深入“敌人内部”最终扳回一局,但是到第五局,AlphaGo已经把李世石第四局的策略储存下来,能识别出李世石的意图,并做出相应的反应,这就是对李世石棋路的学习过程。因此基于特定算法仍然可能具有学习能力。可以将算法、意志能力和学习能力如何影响人格的确立总结为下表。

表1 算法人格的影响因素

(1)表1中无算法程序肯定不具有意志能力和学习能力,因为算法是算法人格的基础。

(2)基于特定算法下具有意志能力而不具有学习能力,不具有算法人格,如现阶段自动驾驶汽车可以识别前方的障碍物并决定最优驾驶方式,可以独立作出反应,具有意志能力,但是却不具有学习能力,如自动驾驶汽车并不能适应新的交通规则,即为缺乏学习能力的结果,只有通过人为输入新的交通规则数据后,该汽车才能适应新的交通规则。

(3)具有意志能力而无学习能力是基于特定算法对既有数据的处理,但不能处理新数据。而同时具有意志能力和学习能力可以处理新数据,只有能够处理新数据才可能具有主观能动性和算法人格。

有学者认为意志能力包括学习能力,将学习能力作为确认人工智能人格的条件之一,乃多此一举。广义的意志能力属于学习能力的上位概念,但本文所称意志能力为狭义的意志能力,是将学习能力排除在外的意志能力,将学习能力单列讨论,主要是为说明人工智能新数据的处理能力对人格确立的重要性。如果我们从人工智能的数据流向角度进行分析,便会发现意志能力重点为对自己法律行为的自主控制能力,具有意志能力便具有意思表达能力,意思表达是把储存的数据表现在外的过程,而学习的过程正好相反,是把本身没有的外部数据储存到内部的过程,即意志能力描述的是将数据由内到外的表达能力,而学习能力描述的是将数据由外到内的收集、分析与整合能力。例如AlphaGo,如果AlphaGo没有学习能力,无法领悟到李世石使用的新策略意图,在第四局李世石采取新策略打败AlphaGo后,到第五局李世石使用第四局同样的策略,理论上AlphaGo必输无疑,因为第四局的结果已经证明AlphaGo本身不存在破解该种策略的方法,但由于AlphaGo具有学习能力,所以第五局才能破解李世石的下棋策略。由此可知,学习能力作为人工智能人格确立条件之一具有显著实益。

意志能力和学习能力是人工智能具有算法人格的基本条件,只有同时具备,才可能具有算法人格。算法人格使其人工智能的行为具有主观能动性,而不是单纯的机械重复行为,这就必然要求人工智能具有意志能力。人工智能的意志能力是一种自主处理数据的能力,所处理的数据既包括人为预先输入的数据,还包括人工智能从外部储存的新数据,而从外部储存新数据的能力,即为学习能力。

3.社会性

既然目前人工智能既具有意志能力,又具有学习能力,是否意味着人工智能已经具有算法人格,法律应该立即确认其法律人格?本文坚持人工智能人格实在说,因为人工智能算法人格应该早于法律确认而存在,其算法人格的有无应取决于其自身,即上文论述的意志能力和学习能力。如果二者已同时兼备,人工智能则已具有现实人格——算法人格。但是具有现实人格并不意味着具有法律人格。法律人格的确立,还会受国家经济因素、政治因素、文化因素和历史因素的影响,这是法律人格最大的特征之一——本土性所决定。[51]法律的本质属性之一是社会性,而法律人格也要受社会性的约束。鲁滨逊具有自然人格,但其在荒岛生存,不存在社会交往,不具有社会性,法律确认其法律人格并无实益。人工智能法律人格同样需要受到社会性的约束。虽然人工智能已经具备了算法人格,但其仍处于在竞赛、科研等小范围活动中与人的交互状态,并不具有社会性,还没有被赋予法律人格的必要性。但可以预见的是,根据当前人工智能的发展速度以及现实中对人工智能的普及,人机互动的目标将会很快实现,这对人工智能法律人格的确认具有必要性。

三、结论

我们对法律人格的认识不应该仅局限于自然人视角。而应该清楚地认识到自然人所具有的自然人格仅是法律人格的来源之一,人工智能同法人一样,也可以具备法律人格。讨论是否赋予人工智能法律人格不应该以自然人的特征为标准,而应从法律主体本身去讨论。作为实施法律行为的法律主体,意志能力和学习能力是必要条件,特别是对作为实在论条件下的算法人格尤为重要。人工智能的算法人格的有无不取决于法律的规定,而是由科技所决定。人工智能的法律人格是基于客观存在的算法人格,而不是类似法人的拟制人格。当前科学技术成果已经证明人工智能具有算法人格,这是不可改变的事实。但是具有现实的算法人格,并不意味着人工智能必然会被赋予法律人格。法律是以社会为根基,脱离了社会,法律便不复存在。人工智能现阶段还未能广泛地参与社会活动,并不具有社会性的法律特征,所以目前不被法律确认主体资格具有现实理由。

猜你喜欢
意志人格主体
共产党人的人格力量
时代新人与意志砥砺
论自然人破产法的适用主体
远去的平凡背影,光辉的伟大人格
技术创新体系的5个主体
《西厢记》中的理性意志与自由意志
论君子人格的养成
关于遗产保护主体的思考
怀旧风劲吹,80、90后成怀旧消费主体
自由意志的神经基础