人工智能何以为“人”
——人工智能时代之民法因应

2023-03-23 04:20尹志强
社会科学研究 2023年1期
关键词:民法自主性理性

尹志强

“人工智能”(Artificial Intelligence,简称AI)作为当下热词频繁出镜于各类新闻,人工智能应用范围的拓展①例如,特斯拉、Waymo、Cruise、百度等不断推进自动驾驶技术的研发和实际应用;以“微软小冰”为代表的人工智能进行音乐、美术、文学“作品”的“创作”;Googleassistant、Siri、Cortana等智能助理软件不断提升与人类的交互能力等。、人工智能相关政策的出台②2017年7月8日,国务院印发《新一代人工智能发展规划》,对发展人工智能的指导思想、基本原则、战略目标、总体部署、重点任务等予以明确,为抢抓人工智能发展的重大战略机遇、构筑我国人工智能发展的先发优势提供指引。等不断冲击着人们的神经,提醒我们已经处于人工智能时代。③2018年4月25日,欧盟委员会向欧洲议会、欧盟理事会、欧洲理事会、欧洲经济与社会委员会及地区委员会提交的《欧盟人工智能报告》指出,人工智能不再是科幻小说,而是我们日常生活的一部分,人工智能已经成为现实。Vgl.Europäische kommission,Mitteilung der Kommission an das Europäische Parlament,den Rat,den Europäischen Wirtschaftsund Sozialausschuss und den Ausschuss der Regionen,Künstliche Intelligenz für Europa,COM(2018)237 final,Brüssel,2018,S.1.立足于当下的时空环境,虽然人工智能的前景存在不确定性,但是,一方面,现有人工智能技术的应用,为人类提供便利的同时引发一系列问题,例如自动驾驶汽车发生交通事故时责任承担的问题、人工智能创造物是否属于“作品”以及著作权归属问题等,有必要对这些问题进行规范、引导;另一方面,从技术发展趋势来看,即使人工智能不能达到科幻电影所描述的水平,但机器人通过不断学习、训练,能自主思维、有感觉甚至感情,其将更加深入地融入我们的生活进而对人类社会产生深远影响,却是可预见的。①可以乐观地估计,人工智能的潜力巨大,将推动社会的发展。参见Vgl.Justin Grapentin,“Die Erosion der Vertragsgestaltungsmacht durch das Internet und den Einsatz Künstlicher Intelligenz,”NJW,2019,S.183.人工智能对现有法律制度提出了挑战②例如,合同塑造权力(Vertragsgestaltungsmacht)因人工智能的投入而被削弱(Erosion)。Vgl.Justin Grapentin,“Die Erosion der Vertragsgestaltungsmacht durch das Internet und den Einsatz Künstlicher Intelligenz,”S.183-185.自主化系统(Autonome Systeme)使法律面临巨大挑战(enorme Herausforderungen)。Vgl.Georg Borges,“Rechtliche Rahmenbedingungen für autonome Systeme,”NJW,2018,S.978-980.自动驾驶(Das automatisierte Fahren)带来许多法律问题。Vgl.Eric Hilgendorf,“Automatisiertes Fahren und Recht-einÜberblick,”JA,2018,S.801.,要求我们重新审视人工智能的发展并寻求正确的应对之策,以便更好地实现以技术进步造福于人类的初衷。

一、问题的提出

对于新事物,法律总是保守且相当谨慎的,往往直至其引发社会现实问题且无法从既有法律制度中寻得有效解决方案时,立法者才会考虑通过制定或修改法律以因应新的情势。相对于技术发展之迅速,法律的改变有时显得如此缓慢③为了将工业革命时期的技术进步所创造的利益最大程度地惠及广大的中产阶级,人类在20世纪近100年的时间里,通过修改法律建立了最低工资,限制劳动时间,禁止童工以及保障劳动场所安全等制度,这一过程非常缓慢。参见John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,台北:元照出版有限公司,2018年,第68—72、280、292页。,面对社会发展过程中出现的新问题有时显得力不从心。进入数字时代,人类感受到法律严重滞后于技术的苦涩,直到现在,互联网领域的有关问题还在法律界产生困扰。④温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红等译,北京:北京大学出版社,2017年,第180页。诚然,是否需要为新技术立法,立法者应当保持谨慎,在新技术充分发展和发展成熟之前,其对社会的影响无法确定,过早进行立法存在风险。但是,不能由此否定对新技术可能引发的法律问题在理论上进行前瞻性思考的必要性,故应当加强对大数据、互联网、人工智能、基因技术等的创新发展及风险挑战的前瞻性研究和约束性引导。⑤张文显:《数字技术立法尤其要超前》,《北京日报》2019年1月21日,第13版。这种思考恰恰是分析判断是否有必要为新技术立法的过程。否则,在新技术引发现实问题后,由于欠缺充分的思考、分析,法律面对新的时代要求很难迅速作出反应。尤其在人工智能技术爆炸式发展的时代,人工智能对现有法律制度的挑战可能是根本性的,对人工智能已经或可能涉及的法律问题进行理论探讨更显重要,即使有些问题在当下看来一定程度上带有未来主义的色彩。

2017年2月16日,欧洲议会表决通过了《就机器人领域的民事法律规则向欧盟委员会的立法建议(2015/2103(INL))》,其第59.f条指出,“从长期来看,应当为机器人设立一个特殊的法律地位,在这一点上,至少对于精致的自主机器人可以被确认为具有电子人的地位,对由其引发的全部损害负责赔偿以及在机器人作出独立自主决定或者在其他方面与第三人以独立方式交互的情形下可能有电子人格的适用”。⑥Vgl.Europäisches Parlament,P8_TA-PROV(2017)0051,Zivilrechtliche Regelungen im Bereich Robotik,Entschließung des Europäischen Parlament vom 16.2.2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik(2015/2103[INL]),URL:https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_DE.html.abgerufen am04.November 2022.问题在于,是否需要承认人工智能具有法律人格?对此,国内学界近来不乏相关讨论,承认抑或否定以及认为未来人工智能可以成为法律主体者皆有之。⑦在承认人工智能可以成为法律主体的观点中,有的学者将人工智能称为“电子人”(参见郭少飞:《“电子人”法律主体论》,《东方法学》2018年第3期);有的学者主张,应承认智能机器人的工具性人格(参见许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期)。也有一些学者否定人工智能可以具有法律人格(参见冯洁:《人工智能体法律主体地位的法理反思》,《东方法学》2019年第4期;刘洪华:《论人工智能的法律地位》,《政治与法律》2019年第1期)。此外,有的学者认为,虽然现阶段的人工智能尚不能成为法律主体,但不排除未来的人工智能可以具有法律人格(参见王利明:《人工智能时代对民法学的新挑战》,《东方法学》2018年第3期)。从整个民法体系来看,人工智能是否为法律主体关涉民事主体制度在新的时代背景下是否需要调整的问题,一旦承认人工智能的主体地位,其影响范围将极为广泛。因而,人工智能可否成为法律主体,乃是重要而根本的问题,需要在理论上予以澄清。人工智能成为法律主体并非凭空想象,一方面,人工智能相关具体问题之现有讨论,已经涉及承认其主体地位的可能性①例如,有观点采“人工智能作者说”及“虚拟法律人格说”,认为人工智能本身应为人工智能生成物的作者,享有著作权。参见朱梦云:《人工智能生成物的著作权归属制度设计》,《山东大学学报》(哲学社会科学版)2019年第1期。;另一方面,基于现有技术积淀以及技术发展趋势,强人工智能之实现是极有可能的,如果人工智能广泛介入人类生活,成为不容忽视的社会存在,面对是否赋予其主体地位的问题,法律必须给出回答。另外,是否承认人工智能的主体地位代表了解决相关具体法律问题的不同思路。例如,如果认为人工智能仍属于人类制造的产品,则需要按照产品责任以及机动车交通事故责任的规则确定自动驾驶汽车引发交通事故时责任如何承担,剩下的是如何对现有规则进行完善或解释适用的问题;如果承认人工智能为法律主体,则要进一步思考其作为责任主体的可行性问题,构建具体的权利义务归属及责任承担机制。而就包括自动驾驶在内的产品责任而言,因参与设计、开发、部署和操作高风险人工智能系统的人数众多,这使得受伤害者难以确定对所造成的损害可能负有责任的人,也难以证明损害索赔的条件。此时如果认为受害人独自承受损害不公平,则应当寻求产品责任之外的其他责任主体。总之,人工智能是否具有法律主体地位的问题需要深入探讨。

二、人工智能的内涵

人工智能可否为法律主体,始于“什么是人工智能”的追问,如果讨论的对象不明确,不仅难以保证结论的科学性,而且可能会给学术对话带来困难。在讨论人工智能法律地位问题时,有的学者立基于“人工智能体”的概念,将人工智能理解为一种实体。②彭诚信、陈吉栋:《论人工智能体法律人格的考量要素》,《当代法学》2019年第2期。而有的学者将人工智能理解为一种能力,属于行为范畴。③李爱君:《人工智能法律行为论》,《政法论坛》2019年第3期。显然,上述观点对于人工智能这一概念本身存在不同认识。本文以人工智能是否可为法律主体为题,主要是在“人工智能体”的意义上使用“人工智能”这一概念,并非指研究人工智能的学科或一种能力,而是指具备“人工智能”的实体。当然,无论从何种意义出发,对于“人工智能”本身的理解均为关键。

(一)人工智能的定义

尽管人工智能的概念早在20世纪50年代即已提出,但关于“何为人工智能”这一“最基本的概念性问题”至今“依然难以形成定论”。④梅立润:《国内社会科学范畴中人工智能研究的学术版图》,《内蒙古社会科学》(汉文版)2019年第3期。这主要是因为,自人工智能的概念诞生以来,其已发展成为跨学科的研究对象,关于人工智能的不同定义更多反映了不同学科的研究视角。

关于何为人工智能?“人工智能之父”马文·明斯基(Marvin Minsky)将人工智能定义为“使机器做那些如果由人类来做需要智能(intelligence)的事情的科学”。⑤See Marvin Minsky,Semantic Information Processing,Cambridge:MIT Press,1968,p.5.相似的定义如:“人工智能(artificial intelligence,AI)就是让计算机完成人类心智(mind)能做的各种事情。”玛格丽特·博登:《AI:人工智能的本质与未来》,孙诗惠译,北京:中国人民大学出版社,2017年,第1页。美国著名科技记者卢克·多梅尔认为,“人工智能是研究人类智能行为规律(比如学习、计算、推理、思考、规划等),构造具有一定智慧能力的人工系统”。⑥卢克·多梅尔:《人工智能:改变世界,重建未来》,赛迪研究院专家组译,北京:中信出版社,2016年,第1页。德国信息技术、电信和新媒体协会(BITKOM)和德国人工智能研究中心有限公司(DFKI)编写的《人工智能:经济意义、社会挑战、人类责任》一书给出两种在实践中被广泛使用的人工智能定义:(1)人工智能是IT系统的属性,可以显示“类人”(menschenähnlich)智能行为方式;(2)人工智能描述信息学应用(Informatik-Anwendungen),它们的目的是,显示智能行为。⑦Vgl.BITKOM/DFKI,Künstliche Intelligenz:Wirtschaftliche Bedeutung,gesellschaftliche Herausforderungen,menschliche Verant-wortung,Berlin:Bitkom,2017,S.28-29.欧盟委员会的《欧洲人工智能报告》将人工智能界定为“具备智能行为的系统,通过分析其周围环境并在一定程度上自动处理以实现特定目的”。①Vgl.Europäische kommission,Mitteilung der Kommission an das Europäische Parlament,den Rat,den Europäischen Wirtschafts-und Sozialausschuss und den Ausschuss der Regionen,Künstliche Intelligenz für Europa,S.1.国内有学者认为,人工智能“是人机环境系统交互方面的一种学问”。参见刘伟:《关于人工智能若干重要问题的思考》,《人民论坛·学术前沿》2016年第7期。

根据上述关于人工智能的描述,可以将人工智能的特征归纳为:(1)是人工系统,例如机器或计算机系统;(2)具备智能(智力)行为;(3)与周围环境交互;(4)自动完成在通常情况下需要人类智能(心智)的特定目标。可见,“在人工智能科学领域对人工智能的定义主要取决于‘智能(智力)’”②李爱君:《人工智能法律行为论》。,是让机器(一定程度上)像人类那样“智能”(或具有人类“智能”的某些特征)。由此,人工智能与人类智能显然不同,它是“通过模拟人脑思维”,由机器或软件所表现出来的“类人化智能”。③参见马长山:《人工智能的社会风险及其法律规制》,《法律科学(西北政法大学学报)》2018年第6期。二者有时仅在完成特定任务的结果上一致,达致同一结果的过程可能完全不同。④著名的“中文屋”(Chinese Room)实验表明,一台计算机在没有真正理解的情况下所实现的结果,与人类在理解基础上作出的决定可以一致。由此,即使最终效果上相同,但人工智能却可能以一种不同于人类智能的方式实现。参见温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红等译,第48页。这种不同源于人工智能之“人工”属性,“人工”在人工智能完成任务的过程中可以表现为不同方式,与人类智能的运作机制存在本质区别。

(二)关于“智能”的理解

人工智能的各种解读,虽然均落脚于“智能”,但未对“智能”进行具体阐释,存在循环定义的问题。在人工智能中,一个基本的问题是,没有人真正知道智能是什么。

“智能”并非像我们日常所理解的那样浅显,关于人类智能(Human Intelligence)和机器智能(Machine Intelligence)均存在不同认识。有的学者分析了关于人类智能的各种定义,总结出最一般形式的“智能”之本质是“一个实体在各种环境中实现目标的能力”,这个定义包含三个基本要素:一个实体、环境和目标。⑤See Shane Legg,Marcus Hutter,“Universal Intelligence:A Definition of Machine Intelligence,”Mindsand Machin es,vol.4,2007,pp.403-406.由于“智能”这一概念具有模糊性,人工智能研究者主要使用“理性”(rationality)的概念,指“在给定优化的特定标准和可用资源的情况下,采取最佳措施以实现特定目标的能力”。⑥See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific Disciplines,Brussels,2018,p.1.所以,人工智能之“智能”,强调的是完成特定任务这一点,而完成特定任务是通过对人类智能的“模拟”,这种“模拟”并非追求与人类智能运作机制的一致,而是在对人类智能之运作过程进行抽象——表现为在信息收集、处理、加工、判断、推导等基础上⑦从更一般的层面看待心灵的核心特征,可以将其定义为信息处理,而不是神经科学,这是通过计算机实现人工智能的基础性认知。参见温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红等译,第47页。,使机器或其他人工系统像人类那样行为(至少从结果上与人类行为相当)。

(三)对“人工”的认识

“人工”是理解人工智能的另一个关键,反映了如何在机器或其他人工系统上实现“智能”。“人工”对应英文“artificial”,基本意思是“通常在一个自然模型上人为精巧地制造即人造的”,以此强调与一个人造产物有关,被看作“自然的”之反义概念。在辞源意义上,artificial可追溯到拉丁文“ars”,不仅是一种人造的产物,而且是“精工细作”(kunstgerecht)制造的产物。也就是说“artificial”除了表达“人造的”意思之外,还有“精巧”“精工细作”的含义,借此表明制造的技术特征。不同于以往人类制造的产品,人工智能之“人工”需要更为复杂、精细的技术投入。智能机器人与以往机器的根本不同在于,它们被赋予了人工智能(算法)。⑧参见马长山:《智能互联网时代的法律变革》,《法学研究》2018年第4期。

那么,人工智能如何通过“人工”方式实现“智能”?欧盟委员会设立的人工智能高级别专家组(High-Level Expert Group on Artificial Intelligence)在有关人工智能的定义中对此予以概括——与周围环境的交互,包括传感器和感知、推理/信息处理和决策以及行动系统三部分,即“通过一些传感器感知系统所处的环境,从而收集和解释数据,对所感知的内容进行推理或处理从这些数据中获得的信息,确定最佳措施是什么,然后通过一些执行装置采取相应行动”。①See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific disciplines,p.1.机器学习、神经网络、深度学习、决策树以及许多其他技术的运用,使人工智能具备学习能力。②See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific disciplines,pp.3-4.学习能力是人工智能区别于传统机器的显著特征,使人工智能不再依赖于僵硬且事先在程序代码中确定的行为指示,即可为完全未知且不可预见的事情制定解决方案,从而实现人工智能的自主性。由独立自主学习和决策所产生的“自主(Autonomie)”是AI的核心。自主性是人工智能软件区别于传统软件的标志。传统软件的算法机械线性地执行“如果—那么”选择程序(Wenn-Dann-Auswahlprozesse),这个程序是由软件程序指令(行为规则)预先规定;而人工智能使用“归纳—统计”方法和数学概率公式(概率逻辑)的“如果—那么”算法(Wenn-Dann-Algorithmen)并由其作出决定,这个过程和结果不再依赖人类尤其是人类编程者。③Vgl.Heinz-Uwe Dettling/Stefan Krüger,Erste Schritte im Recht der Künstlichen Intelligenz,MMR,2019,S.212.但是,人工智能的自主性目前看仍然是一种技术上的实现,是对人类智能的“模拟”、功能上的“相当”,无法否认人工智能之“人工”属性所必然具有的与人类智能的差异。《就机器人领域的民事法律规则向欧盟委员会的立法建议(2015/2103(INL))》明确指出,机器人的自主性“是纯粹技术性质的,并且它的程度取决于机器人与其环境的交互被设计的复杂程度”。④See Motion for A European Parliament Resolution with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),European Parliament Report(November.4,2022),http://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html#title1.作为人工智能的自主性之重要体现的自主学习能力,深刻反映了人工智能的自主性所具有之技术本质。旨在让人工智能实现自主学习的人工神经网络,是受到人类大脑的启发而研发的具有一个中间存在许多加权链接(weighted connections)的小型处理单元(类似于我们的神经元)组成的网络。⑤See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific disciplines,p.1.通过具有来自大量数据的反馈机制的神经网络结构,新一代学习算法被“喂食”或“训练”,训练对象包含数字、文本、图像、口头信息或者其他信息,使之自动识别模型,进行信息分类,以这种方式“学习”并在此基础上再进行选择,即决定。⑥Vgl.Heinz-Uwe Dettling/Stefan Krüger,Digitalisierung,Algorithmisierung und Künstliche Intelligenz im Pharmarecht,PharmR,2018,S.514.所以,人工智能作出决定的过程乃是通过技术手段实现的,与人类的认知过程存在本质区别。人工智能与以往人类所制造的产品最本质的区别来自于“人工”实现的自主性,而人工智能的自主性意味着,人工智能的决定和行为不能被人类完全事先确定和完全理解。

三、民法上“人”的本质属性

关于人工智能是否可成为民事主体,除了要对人工智能本身的特点予以正确认识之外,尚需明确成为民法上的“人”所应具备之本质属性,唯此两方面之结合方能对此形成理性判断。众所周知,民法上的“人”包括自然人和法人。⑦我国立法也承认非法人组织的主体地位。参见《民法典》第2条、第102条。通过检视民法将自然人和法人列为主体的原因,可以揭示成为民法上的“人”所应具备之本质属性,进而基于人工智能是否符合民法所考虑之基本因素,分析其成为民事主体的可能性。

(一)自然人何以成为民法上的“人”

正如很多德国学者所言,自然人作为权利主体(权利的承担者)是如此“理所当然”(“显而易见”“不言而喻”),以至于法律只需规定自然人权利能力的开始、终止,自然人具有权利能力无需任何附加条件。①参见哈里·韦斯特曼:《德国民法基本概念》(第16版),哈尔姆·彼得·韦斯特曼修订,张定军、葛平亮、唐晓琳译,北京:中国人民大学出版社,2013年,第2—3页;汉斯·布洛克斯、沃尔夫·迪特里希·瓦尔克:《德国民法总论》(第33版),张艳译,杨大可校,北京:中国人民大学出版社,2012年,第418页;本德·吕特斯、阿斯特丽德·施塔德勒:《德国民法总论》(第18版),于罄淼、张姝译,北京:法律出版社,2017年,第104—106页。参见卡尔·拉伦茨:《德国民法通论》上册,王晓晔等译,北京:法律出版社,2013年,第45—47页。相对于组织体需要国家法律授权取得主体地位而言,自然人作为权利主体是“天然的”“不与其他任何东西相关而仅与纯粹的人之存在(bloße Menschsein)相关,这一点是基于生命的本质源于人本身”。②哈里·韦斯特曼:《德国民法基本概念》(第16版),哈尔姆·彼得·韦斯特曼修订,张定军、葛平亮、唐晓琳译,第3页。然而,众所周知,在相当长的历史时期内,仅有“纯粹的人之存在”尚不能成为民法上的“人”。

近代以来的法典化运动立基于罗马法这一“共同的根源”,而罗马法强调“人格人与人之间的区别”③罗尔夫·克尔佩尔:《法律与历史——论〈德国民法典〉的形成与变迁》,朱岩译,北京:法律出版社,2003年,第59页。人格人与人(即法律主体与现实实体)的区分源于法律人格这一概念,现实的人属于社会的范畴,法律主体属于法律的范畴,这种区分至今仍为法律主体制度的起点。参见江平、龙卫球:《法人本质及其基本构造研究——为拟制说辩护》,《中国法学》1998年第3期。,并非所有自然意义上的人均为法律主体。“只有人格人是法律主体,人并非必然是法律主体”④罗尔夫·克尔佩尔:《法律与历史——论〈德国民法典〉的形成与变迁》,朱岩译,第59页。,区别人格人与人的工具乃是身份,“血缘、性别、国籍等外在于人的身份”是“决定人具备怎样的法律人格的决定性因素”。⑤参见马俊驹:《从身份人格到伦理人格——论个人法律人格基础的历史演变》,《湖南社会科学》2005年第6期。这种身份人格在很长时期内存续,“18世纪以前的欧洲社会可以说是一个身份制社会,人的私法地位是依其性别、其所属的身份、职业团体、宗教的共同体等不同而有差异的”。⑥星野英一:《私法中的人——以民法财产法为中心》,王闯译,梁慧星主编:《民商法论丛》第8卷,北京:法律出版社,1997年,第157页。作为人的外在属性,每个人所属的身份存在差异,将身份作为法律主体的基础,必然导致人与人之间法律地位的不平等。在此背景下,“自然人可以是法律规范中的主体,有时甚至也可以是法律上的人所支配的客体”。⑦汉斯·哈腾鲍尔:《民法上的人》,孙宪忠译,《环球法律评论》2001年冬季号。

一切自然人皆为民法上的“人”获得法律承认,是人类对于人格平等的孜孜追求并为之不懈奋斗的结果。人格平等要求放弃以身份作为是否具有法律人格的认定标准,必须穿透不平等的身份而直击人的本质。从古希腊自然法思想“强调人的理性是自然的一部分,人类平等是世上永恒的客观事实和自然规律”⑧参见马俊驹:《从身份人格到伦理人格——论个人法律人格基础的历史演变》。揭示了人的伦理性到启蒙哲学和古典自然法思想,再到康德伦理人格主义之“理性人格的预设”⑨参见叶欣:《私法上自然人法律人格之解析》,《武汉大学学报》(哲学社会科学版)2011年第6期。及黑格尔所谓之“理性意志的抽象的人”⑩参见李永军:《民法上的人及其理性基础》,《法学研究》2005年第5期。,理性取代身份成为区隔现实中的人与法律上的人之根本标准,私法主体的首要根据是理性。

随着社会的发展,源于自然法的“理性”,亦不断发展演进。基于天赋人权、人人平等的自然法思想,《法国民法典》将人的自然理性作为人之所以为人的原因,而《德国民法典》以康德所创立的伦理人格主义哲学为基础○1参见哈里·韦斯特曼:《德国民法基本概念》(第16版),哈尔姆·彼得·韦斯特曼修订,张定军、葛平亮、唐晓琳译,北京:中国人民大学出版社,2013年,第2—3页;汉斯·布洛克斯、沃尔夫·迪特里希·瓦尔克:《德国民法总论》(第33版),张艳译,杨大可校,北京:中国人民大学出版社,2012年,第418页;本德·吕特斯、阿斯特丽德·施塔德勒:《德国民法总论》(第18版),于罄淼、张姝译,北京:法律出版社,2017年,第104—106页。参见卡尔·拉伦茨:《德国民法通论》上册,王晓晔等译,北京:法律出版社,2013年,第45—47页。,反对把人的理性系于自然法则之上,而主张它来自于人的内心意志。根据伦理人格主义哲学,理性不仅指人类认识可感知世界的事物及其规律性的能力,而且包括人类识别道德要求并根据道德要求处世行事的能力。至于人类如何具有这种能力?康德将意志自由作为实践理性的公设,“人是可以不受感性世界摆布的,能够按照灵明世界的规律,即自由的规律,来规定自己的意志的”。○12北京大学哲学系外国哲学史教研室编译:《西方哲学原著选读》下卷,北京:商务印书馆,1982年,第319页。意志是一种“合目的的行动的能力”。至此,伦理学上的人的概念建立起来:“人依其本质属性,有能力在给定的各种可能性的范围内,自主地和负责地决定他的存在和关系,为自己设定目标并对自己的行为加以限制。”自然人成为权利主体即“渊源于将伦理学上的人的概念移植到法律领域”。○13卡尔·拉伦茨:《德国民法通论》上册,王晓晔等译,第46—47页。

如何“将伦理学上的人的概念移植到法律领域”?首先是康德将讨论的重点由“自然人”转向“主体”,强调“法律确定的人的作用”①汉斯·哈腾鲍尔:《民法上的人》,孙宪忠译。龙卫球:《民法基础与超越》,北京:北京大学出版社,2010年,第218页。,这一视角之转变使“人”的概念所承载的伦理属性被剥离。之后,深受康德哲学影响的萨维尼所提出的“法律关系”学说深刻影响了《德国民法典》,法律关系是一种作为权利主体的人与人之间的关系,拉伦茨指出,《德国民法典》使用的“人”是“一个形式上的人的概念”,“这个形式上的‘人’的内涵,没有他的基础——伦理学上的‘人’那样丰富”②卡尔·拉伦茨:《德国民法通论》上册,王晓晔等译,第57页。,而是被抽象成“权利和义务的联结点”的权利主体。换言之,“对法律上的人而言,起决定性作用的只是对法律关系的建立发挥作用的那个特性:权利能力”。③汉斯·哈腾鲍尔:《民法上的人》,孙宪忠译。由此,权利能力是“人”成为法律主体的唯一条件,哲学上的伦理人格通过“权利能力”这一概念进入法律领域。但是,“权利能力的承认原因和取得依据我们不应忘记,人的伦理价值仍然是取得法律人格的条件,它构成了权利能力的基础”。④曹险峰:《论德国民法中的人、人格与人格权——兼论我国民法典的应然立场》,《法制与社会发展》2006年第4期。权利能力源于实证法,因此,法律似乎可以赋予、限制或拒绝某个人的权利能力,但是,自然人均具有权利能力已然为法律所接受,其根本原因正是权利能力背后所承载的人的伦理性,具体表现为人所具有之理性及作为其前提的意志自由。

因此,一切自然人均为民法上的“人”,具有浓重的伦理色彩。从自然人需要具有特定身份方能成为民法上的“人”到自然人作为一种理性存在理所当然地成为民法上的“人”,是法律对于人的价值、尊严的承认与保护,是人格平等这一价值理念的伟大胜利。基于“人是理性的”预设,先验的具有意志自由,可以自主设定目标、选择行为、缔结法律关系,这种“内在于作为种属物的人的道德的自由及其意志证明人具有资格成为人格人”。⑤罗尔夫·克尔佩尔:《法律与历史——论〈德国民法典〉的形成与变迁》,朱岩译,第63页。如此,似乎只有具有理性的人才是民法上的“人”。然而,任何人均是“有理性的生灵”,依其本质即为目的本身而非手段,当然应被作为法律主体对待。

(二)法人何以成为民法上的“人”

如果意志自由是成为民法上的“人”之基础要素,那么,法人为何亦为权利主体则面临解释困难,因为法人“无意志而仅仅是财产集合”。⑥参见李永军:《民法上的人及其理性基础》。关于法人为何成为权利主体,存在拟制说、受益人说、组织体人格说、目的财产说等不同观点。对此,目前学者大多认为,上述学说争论属“无益之争”,倾向于采纳中性的表述:法人就其宗旨而言被视为归属载体⑦迪特尔·梅迪库斯:《德国民法总论》,邵建东译,北京:法律出版社,2001年,第823页。,主要表现为法人作为权利主体,避免以其多数、单个成员为主体而导致法律关系的繁琐与复杂,并且,法人财产独立于其成员,产生了限制责任制度。⑧参见迪特尔·梅迪库斯:《德国民法总论》,邵建东译,第814—815页。正如学者所言,“市民社会中的法人,首先在于经济上的合理性而非哲学上的合理性,如果想从哲学上为法人的存在寻找依据是徒劳的”⑨李永军:《民法上的人及其理性基础》。,法人并不是“原始意义和伦理意义上的‘人’,而是形式化的‘权利主体’,仅仅意味着法律效果的承受者而已”。⑩朱庆育:《民法总论》,北京:北京大学出版社,2016年,第448页。

因此,法人之所以成为民法上的“人”,主要基于现实需要,财产流通、风险隔离、责任划分、法律关系稳定等为法人作为权利主体提供正当化说明。此亦表明,虽然法人的权利能力需要实在法规范和授予,但是,法人作为一种组织体独立于实在法而客观存在,正是这种组织体的出现引发了社会关系的变化,法律才不得不对其进行规范和调整,而承认法人独立权利主体地位只是解决现实问题的途径之一。“法人实体是法律认为需要做出主体承认的区别于自然人的另一类实体,这种个体(成员或财产)联合人格化的深奥之处在于其‘体现出一种认真把某些组织体当成是有别于个人总和的一个目的统一体的一种法律需要’”。○1汉斯·哈腾鲍尔:《民法上的人》,孙宪忠译。龙卫球:《民法基础与超越》,北京:北京大学出版社,2010年,第218页。换言之,先有这种组织体的现实存在,而后由法律赋予其主体资格。

然而,社会现实的组织体,并非意味着必然赋予其法律人格,法律世界的法人,与现实世界的团体现象差异巨大,毕竟法人只是一种法律构造。那么,法人如何获得法律人格?人的概念的形式化,为法人成为法律主体铺平了道路,“使法律制度可以将人的概念适用于一些形成物”。①卡尔·拉伦茨:《德国民法通论》上册,王晓晔等译,第57页。换言之,法人与自然人成为法律上的“人”具有“实质上的相似性”,即都以权利能力作为判断主体适格的标准。②参见曹险峰:《论德国民法中的人、人格与人格权——兼论我国民法典的应然立场》。借助权利能力的概念,法人得以进入民法并取得与自然人平等的主体资格。但是,权利能力之于法人的意义与自然人不同,自然人基于理性的预设自出生起即当然地具有权利能力,而对于法人而言,权利能力的获得更多的是法律技术的产物。一个组织体符合法律所规定的法人成立条件而获得法律承认后方具有权利能力,足见法律在其中的重要性。

四、人工智能作为民法上的“人”之可能性

人工智能可否为民法上的“人”,相对于自然人,关键在于人工智能是否具有理性以及自由意志;与法人相比较,主要问题则在于承认人工智能为法律主体是否具有现实需要。

(一)人工智能是否为一种理性存在

在伦理人格主义哲学中,康德所谓的德性概念、道德法则“都完全先天地在理性中有其位置和起源”,“除非有人否定道德概念的真理性、否定它与某一可能对象的全部联系,他就不得不承认,它的规律不仅对于人,而且一般地,对于一切有理性的东西都具有普遍的意义”。③康德:《道德形而上学原理》,苗力田译,上海:上海人民出版社,2002年,第28—29页。这里“有理性的东西”,不仅指人,还包括“上帝、天使及当时设想可能存在的外星人”,“人只是一般理性存在者中的一个特例”。④参见邓晓芒:《康德〈道德形而上学奠基〉句读》,北京:人民出版社,2012年,第287页。可见,在康德看来,并非只有人类是理性存在。以此推之,如果人工智能具有理性,亦可具备伦理学上的人所具有的能力和特征。果若如此,人工智能是否亦可为法律主体?

对于人工智能是否具有理性的问题,有学者认为,人工智能“虽有一些自主判断和自主选择的能力”,但其“没有自我意识,没有自身目的,不可能成为自由自律的理性主体”。⑤刘洪华:《论人工智能的法律地位》。而有学者主张,应当根据“人工智能体发挥具体功能或完成特定任务的算法能否与设计者、生产者等发生分离”而区别对待,如果“人工智能体可以摆脱既有算法的束缚,能够自主地发挥特定功能,完成某种动作或行为,那就可以说它具有某种程度的意志能力,法律便可以赋予其主体资格,或至少具有这种可能”。⑥彭诚信、陈吉栋:《论人工智能体法律人格的考量要素》,《当代法学》2019年第2期。还有学者认为,兼具自主性及学习性的智能机器人能够具备与人类相当甚至超越人类的‘理性’,能够理解并遵守人类社会的道德、法律等规则。⑦叶明、朱静洁:《理性本位视野下智能机器人民事法律地位的认定》,《河北法学》2019年第6期。由此观之,问题的关键在于人工智能的自主性与理性之间的关系,这种自主性是否即为人们所认知的理性。

如前所述,人工智能的自主性是一种技术上的实现,“技术意义上的‘自主性’”不能使人工智能具备“人类的意识、目的、意志、理性等根本要素”⑧冯珏:《自动驾驶汽车致损的民事侵权责任》,《中国法学》2018年第6期。,人工智能本质上区别于人类智能。但是,就如同法人尤其是财团法人与自然人的不同一样,并不影响其在法律上同为主体对待。在此,应当跳出人工智能一定要像人一样的思维定势,即使人工智能不具有同人类一样的理性,也不能就此否认人工智能具有理性之可能。应当更加强调理性能力,与人类智能运行机制的不同并不能说明人工智能不能达致一种理性主体的状态或能力。从现阶段的情况来看,人工智能的自主性仍是算法作用下执行相应规则的规律性行为,与人类自我意识支配下有目的之行为不同。但是,不排除的可能是:技术的发展使人工智能具有自我意识、自主目的、能够真正独立思考,或者基于人工智能“世界”之特殊性而建立类似的一整套运作机制,从而使人工智能的自主性与理性没有区分的必要。有的学者即认为,“鉴于智能机器人自主意识方面的技术飞跃和它在商业活动及社会文化生活中越来越重要的角色,智能机器人摆脱人类的纯粹工具地位而获取主体身份,将是一个必然的趋势”。①马长山:《智能互联网时代的法律变革》。

理性分为理论理性和实践理性,即“认识世界的规律性的能力”和“根据道德律令的要求行为处世的能力”。②参见李中原:《康德的伦理哲学与近代民法上的个人主义》,《公民与法》2010年第6期。对于理论理性,有的学者认为“人工智能是技术理性的代表”,“将人类心智的活动‘无机化’,简化成一系列的数据分析和运算”。③龙文懋:《人工智能法律主体地位的法哲学思考》,《法律科学(西北政法大学学报)》2018年第5期。从人工智能的发展现状来看,可以肯定的是,人工智能已经具备一定的认知能力。例如,抖音等短视频平台,可以根据用户以往观看视频的类型,通过数据分析和机器学习,自动向用户推送其可能感兴趣的视频内容,在音乐类、购物类等软件中均有类似技术的运用,这至少说明现阶段人工智能已经可以基于接收的外部信息分析和学习用户的使用习惯,并以此为基础作出挑选合适内容并推送给用户的行为,这其实就是认知外部世界的能力。当然,认知能力是否符合对于理性主体的要求则更为重要,现阶段人工智能的认知能力是有限的,尚未达到作为理性存在的水平。尽管人工智能在某些方面表现出的能力已经超越人类,但在更普遍的领域人工智能仅表现为特定功能、运算能力的展示,其与理性的要求存在差距,同百度等搜索引擎超越人工搜索、扫地机器人代替人类做家务等并无本质区别。但这并不意味着人工智能不可能具备理性能力。强人工智能甚至超级人工智能目前来看虽然仍不具有现实性,但是,未来技术发展到何种程度非现在的人所能准确预见,可以完成人类能够做的大多数活动的通用人工智能(general AI)④See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific disciplines,p.6.或许已在路上。照此发展趋势,越来越强的自主性至少说明人工智能具备认识可感知世界的事物及其规律性的能力。

与理论理性相比,实践理性的问题更为复杂。人工智能是否可以识别道德要求并根据道德要求处世行事?不少科学家对于实现人工智能的理解能力和机器意识仍然满怀信心,追求人工道德智能体的实现⑤参见温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红等译,第49—59页。,人工智能在未来或许会具有道德意识、能够明辨是非善恶、懂得规范行事。不过,人工智能的自主性之技术本质仍为重大障碍。康德指出,“(法律上的)人是指那些能够以自己的意愿为某一行为的主体”,起决定作用的是“人能够或者应该为其权利或者义务所抱有的善意或者恶意的心态,以及他对自己行为是有益还是有害的内心意思”。⑥汉斯·哈腾鲍尔:《民法上的人》,孙宪忠译。作为技术产物的人工智能,是否能够具备这种“意愿”确实存在疑问。有学者即认为,“智能机器无法理解和响应法律的行为要求、无法接受法律的调整”。⑦冯珏:《自动驾驶汽车致损的民事侵权责任》。在技术上让人工智能如同人类成长过程所经历的那样自主学习道德准则、法律规范、价值标准从而形成自己的道德、规范意识,虽然在有些领域如自动驾驶等已在尝试,但目前显然尚不能给出完美答案。另一方面,人类也不能强行通过编写算法为人工智能注入道德准则、法律规范、价值标准,否则即是对人工智能自主性的否定,因为在这种情况下人工智能的行为不过是人类意志的体现,没有自主性的人工智能已违背了这项技术的初衷。虽然人工智能一定程度上确实体现了理性的特征,但“体现”并不等于具有。然而,暂且不论人工智能是否具有理性,人工智能的某些行为在人类看来是理性的,却是不容否认的客观现实,制造出“与真正的道德智能体不可区分的人工道德智能体”⑧温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红等译,第49页。的可能仍是可期待的。

从目前来看,人工智能并非理性主体,未来的强人工智能甚至超级人工智能存在成为理性主体的可能。即便如此,也应该意识到,与人类作为理性主体不同,人工智能作为一种技术产物,并不具有人类成为法律主体时的伦理性考量。⑨“自主”的概念亦是如此,在伦理相关的意义上,“自主”只能归于人类,人工智能的“自主”、自主系统用以描述最高程度的自动化和最大限度地不依赖于人类,并不涉及“自主”的原初意义所包含的人类尊严之伦理价值。Vgl.Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien,Erklärung zu künstlicher Intelligenz,Robotik und autonomen Systemen,Brüssel,2018,S.10-11.人工智能的自主性所具有的技术性特征,为人类对人工智能的最终控制提供了可能。人工智能仍是人类设计、制造的,在这一环节人类仍然可以设法控制人工智能使之避免作出损害人类之事,所谓人工智能对人类生存的威胁不能处于失控状态。

(二)承认人工智能主体地位的现实需要

理性、自由意志等充满先验色彩,很难有清晰的描述和认识,即便人类是否具有理性及自由意志的问题,也并非毫无疑问。所以,人工智能是否具有理性的问题真的如此重要也值得反思。人工智能可以像人类那样行为,是否足以改变社会关系而引发承认其为法律主体的现实需求?

与自然人不同,“法人制度的出现纯粹是经济发展的需求导致法律技术进步的结果,是一种经济生活的客观现实与法律技术运用相结合的产物”。①尹田:《论自然人的法律人格与权利能力》,《法制与社会发展》2002年第1期。因此,有学者认为,“伦理性并不是民事主体的必然要求”,“伦理性人格到经济性人格的转变为智能机器人的主体论铺平道路”,智能机器人具有工具性人格。②参见许中缘:《论智能机器人的工具性人格》。有的学者指出,不能通过与法人的类比来论证人工智能法律人格的正当性,因为“法人只能借助于自然人才能从事民事活动”。③冯珏:《自动驾驶汽车致损的民事侵权责任》。诚然,在法律构造上,法人与人工智能存在差别,但是,法人被法律赋予主体地位,对于人工智能仍有说明意义,人工智能是否可为法律主体,并不要求与法人具有相同的法律构造。法人与人工智能的共同之处在于,作为自然人以外的实体获得法律主体地位,并无自然人为法律主体时的伦理考量,而是基于现实需要通过法律技术进行构造。如前所述,人工智能的自主性随着技术发展而逐渐增强,意味着人工智能可以不依赖于人类从事更多的行为,人工智能将拥有更强的认知能力且未来可能具有规范意识而能够接受法律调整,这些都为人工智能广泛介入法律生活提供了条件。对此,我们应当承认事实上参与法律关系对获得法律主体资格的重要影响。例如,在人类历史上,曾经只有家长有权代表家庭单位对外缔结法律关系,家庭成员在家庭以外并无主体资格,但是,自然经济的崩溃和商品经济的发达,促使家庭成员与外部的人发生法律关系,就不得不承认其主体地位,以便此类法律关系能够发生效力。④在雇佣契约上亦有类似体现。参见星野英一:《私法中的人——以民法财产法为中心》,王闯译,第159—160页。

根据现有人工智能技术及其发展趋势,人工智能在自动驾驶、辅助医疗、投资顾问等领域大有作为,并且将会引发大量法律问题。在机器的创造性成果、意思表示、新的法律机构、自主化系统造成损害等方面,自主化系统给现有法律提出巨大挑战。随着技术发展进步,人工智能更加深入地介入我们的生活并非奢谈。在可预见的将来,人工智能或许能够独立于人类预先设置的条件而自主地作出决定。随着人工智能的发展,甚至实际的合同谈判以及合同签订本身亦可能被软件接管。⑤Vgl.Justin Grapentin,“Die Erosion der Vertragsgestaltungsmacht durch das Internet und den Einsatz Künstlicher Intelligenz,”S.183.届时,法律行为中的表示越来越多地通过软件实体发出和接收,机器与机器的表示可以决定合同的缔结和撤回。⑥Vgl.Christiane Wendehorst,“Die Digitalisierung und das BGB,”NJW,2016,S.2609.在此情况下,人工智能作出的表示行为的法律效力如何是不能回避的问题。

技术的发展具有渐进性,人工智能的自主性亦是渐变的。人工智能区分为自动系统和自主系统。自动系统仍需人类的预先设置,人类的干预和控制相对确定,其引发的法律问题通过对现行法进行解释,以便将自动系统的行为之法律效果归属于使用人尚可解决。但是,不同于自动系统作出的自动意思表示,自主系统作出意思表示不再根据事先准确定义或者至少概括的条件,相对于自动意思表示而应称之为“自主的意思表示。⑦Vgl.David Paulus,“Die automatisierte Willenserklärung,”JuS,2019,S.965.当自主性到达特定程度时,就不再能够确定地说,通过自主系统产生的表示行为是否源自系统的使用人以及是否可以归责于使用人。如果人工智能的自主性达到可以完全脱离人类控制的程度,那么,通过对现行法的解释适用能否解决届时出现的法律问题则存在疑问。有的观点认为,自主系统具备有限的部分权利能力,在作出自主的意思表示时应视为使用人的代理人。⑧Vgl.David Paulus,“Die automatisierte Willenserklärung,”S.965.有的观点则认为,自主系统具有部分权利能力而可以类推适用关于未成年人的法律。⑨Vgl.Malte Grützmacher/Jörn Heckmann,“Autonome Systeme und KI-vom vollautomatisierten zum autonomen Vertragsschluss?-Die Grenzen der Willenserklärung,”CR,2019,S.559.当人工智能的自主性足以支持其独立自主参与法律关系之时,法律必然需要赋予其特定的法律地位,人工智能的自主性决定了不能简单将其作为客体对待,承认其主体地位或许成为现实需要。不管人工智能是否像人类一样思考,并不妨碍人工智能可以像人类那样在社会生活中为各种行为,甚至从外部行为来看那就是一个人,果若如此,我们也没有理由绝对否定其成为法律主体的资格。

如果基于现实需要承认人工智能主体地位,那么,人工智能是否为自己行为独立承担责任?实际上也有学者认为,当下围绕着强人工智能法律主体的构建,其主体性的本质是责任。需要为人工智能构建一种以责任承担为基础的特殊财产性法律主体。当人工智能因不可归责于他人的行为造成损害或伤害时,需要承担相应的民事或刑事责任。而为落实责任承担,需要为人工智能建立特殊的财产制度。①郑文革:《人工智能法律主体构建的责任路径》,《中国应用法学》2022年第5期。要独立承担责任,人工智能必须具备自己的责任财产。对此,已有学者提出有意义的且可行的建议,例如,通过为人工智能强制投保责任保险、设立人工智能储备基金为人工智能注入“第一桶金”。②彭诚信、陈吉栋:《论人工智能体法律人格的考量要素》。对有学者认为的人工智能没有独立财产,责任基金“只能来源于人的资产的分割与特定化”。③冯珏:《自动驾驶汽车致损的民事侵权责任》。本文以为,财产归属比财产来源更为重要,只要特定财产归属于人工智能,该财产是否来源于人类并不重要,法人不也是从自然人获得责任财产的吗?即使人工智能从人类获得财产,亦不能成为否认其成为法律主体之可能的原因。由于人工智能自主性是渐进发展的,在人工智能自主性达到一定程度时,承认其具有部分权利能力而可以作为代理人是可行的,一方面人工智能的行为可以发生法律效力,另一方面通过代理规则将法律效果归于其使用人承担,在特定阶段将是比较合理的方式。

五、结论

人工智能的“人工”属性决定了其必然异于人类智能,人工智能的自主性是一种技术上的实现。因此,否定人工智能具有理性,进而否定其可为法律主体,有其理论依据和逻辑基础。但是,人工智能是否具有理性并没有确定的答案,即使目前的弱人工智能不具有理性,未来强人工智能具有理性则是极有可能的。人工智能的理性排除了伦理色彩,主要指向人工智能的自主性。无论如何,人工智能可以作出在人类看来具有理性的行为,这些行为亦应接受道德和法律评价。另外,人工智能介入社会生活的事实不容否认,如果人工智能强大到能够广泛参与法律关系,那么,基于现实需要从承认其作为责任主体开始,逐渐承认其完整法律主体地位并非不可能,这与人工智能的自主性程度密切相关。当人工智能的自主性达到一定程度而成为自主系统时,承认其具有权利能力便具有合理性。

猜你喜欢
民法自主性理性
国家自主性与文在寅政府的对朝政策
民法总则立法的若干问题
民法课程体系的改进和完善思路*——以中国政法大学的民法课程体系为例
关于民法原则与民法规则之间的关系分析
英语学习的自主性及其教学应用
实用英语教材与艺术生自主性培养
发挥主体作用,加强高中数学复习的自主性
改革牛和创新牛都必须在理性中前行
对民法中诚实信用原则的剖析
理性的回归