人工智能技术权力影响下人工智能技术风险的法律分配路径

2022-06-10 22:28郑少飞姚建宗
社会科学研究 2022年3期
关键词:风险人工智能

郑少飞 姚建宗

〔摘要〕 人工智能技术权力随着人工智能技术的发展孕育而生,其以“微观的”权力为内核、传统公权力为载体,是一种既难以掌控又难以解释,且具备“微观的”权力与传统公权力双重控制力的力量。在这些特性的影响下,人工智能技术带来的风险也具有非完全的人为性、双重不确定性、差异普遍性等特性,这最终使得法律在使用“行为-责任”机制分配人工智能技术风险时存在诸多“行为”无法通达“责任”的困境。为摆脱该困境,可借鉴罗尔斯的分配正义理论,建立一种类“原初状态”的沙箱环境为公平分配风险提供基础,再以纯粹程序正义为分配渠道,打通“行为”与“责任”之间的路径,最后通过差别原则与反思平衡合理地直接连接“行为”与“责任”,以解决另一部分难以适用“行为-责任”机制的困境。

〔关键词〕 人工智能;技术权力;风险;分配正义

〔中图分类号〕D903;DF03 〔文献标识码〕A 〔文章编号〕1000-4769(2022)03-0110-09

一、问题的提出

人工智能技术是当下科学技术发展的潮流之一,它在给人类带来便利的同时也带来了许多风险,相关的规制措施与法律法规如《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》也接踵而至。然而伴随人工智能技术诞生的还有人工智能技术权力①,在人工智能技术权力影响下,即便是最新的法律法规对人工智能技术风险的控制仍然有限。因此,剖析人工智能技术权力将有利于对人工智能技术风险进行合理分配,并将其控制在合理的程度。

二、人工智能技术权力概述

(一)人工智能技术权力的核心——“微观的”权力

“技术”是通过人的知识和智慧与客观的手段(软件和硬件)相互作用而产生的控制和改造世界的方式、方法体系,也是一种关于“怎么做”的实践性的知识体系。陈文化、沈健、胡桂香:《关于技术哲学研究的再思考——从美国哲学界围绕技术问题的一场争论谈起》,《哲学研究》2001年第8期。因此技术实际上是知识的一种表现形式。“权力”在《布莱克法律词典》中意为作为或不作为的能力,尤指某人为控制他人反应而采取行动的能力。Bryan A. Garner, Blacks Law Dictionary, 9th ed., New York: Thomson & West,2009, p.1288.尼采将知识与权力这两个看似不相关的概念联系起来并得出“知识即是权力”的结论。福科则将这一观点进一步拓展,认为知识和权力在现代社会“共生”而成为“知识-权力”组合。此处的权力指的是包含国家权力、社会权力在内的传统公权力。

以“知识-权力”为核心的技术权力所展现出的是一种“微观的”权力。这种权力强调权力的生产性,而不是压制和扭曲作用;它关注的不是信念,而是权力对行动和实践的参与。约瑟夫·劳斯:《知识与权力:走向科学的政治哲学》,盛晓明、邱慧、孟强译,北京:北京大学出版社,2004年,第224页。因此,福科认为,权力从来没有局限在这里或那里,从来没掌握在任何人手中,从来没有作为一种商品或财富,而是通过一个网状组织来使用和行使的。Foucault M., Power/Knowledge, Selected Interviews and Other Writings, 1972-1977, New York: Pantheon Book, 1980, p.98.这种去中心化的“微观的”权力渗透在社会以及个体的各个角落,人、社会及其他成为了权力机制的分析对象,且被当作一个待解决的问题。米歇尔·福柯:《权力的眼睛:福柯访谈录》,严锋译,上海:上海人民出版社,1997年,第31页。在这一过程中,权力开始产生知识并且在产生的过程中使得知识权力化,一个典型的例子是科學作为知识的又一表现形式其通过实验室等设施迫使人们说某些话,否则就可能被当作骗子。米歇尔·福柯:《权力的眼睛:福柯访谈录》,严锋译,第32页。因此福柯认为权力和知识是直接相互连带的;不相应地建构一种知识领域就不可能有权力关系,不同时预设和建构权力关系就不会有任何知识。米歇尔·福柯:《规训与惩罚:监狱的诞生》,刘北成、杨远婴译,北京:生活·读书·新知三联书店,1999年,第29页。人工智能技术作为知识的一种表现形式,其与权力当然也是相互连带的,人工智能技术权力的核心自然也就体现为“微观的”权力。

“微观的”权力虽然强调生产性,但其在分析与解决问题的同时也在对人们进行规训,这种看似不掌握在任何人手中的权力正是通过强调生产的方式隐蔽地行使着权力的控制能力。人工智能技术自诞生以来经过多年的发展,在不少领域已经能做出媲美人类甚至强过人类的决策。这说明人工智能技术在某些项目已经较为成熟,但让人担忧的是如果使用人工智能辅助人类,人类可能会因过于相信人工智能的判断而丧失自己的判断力,最终陷入遭到人工智能技术权力控制的窘境。虽然这似乎仅是一种可能,但已有多个学者均对此表达了担忧。参见申灵灵、何丽萍:《人工智能时代技术与教育共生的困局与出路》,《高教探索》2021年第9期; Mireille H., “Law As Computation in the Era of Artificial Legal Intelligence:Speaking Law to the Power of Statistics,” University of Toronto Law Journal, vol.68, no. supplement 1, 2018, p.27.这种控制显然既不是“国王的命令”,也不是法律的强制,而是通过人工智能技术的生产性来实现的。因此人工智能技术权力是一种以“微观的”权力为核心,具有难以掌控的特性并能够控制所有人的力量。

(二)人工智能技术权力的载体——传统公权力

技术权力作为一种“微观的”权力虽然难以精确捕捉,但无论是知识还是技术,当其运用于实践中时难免会被当作财富而被人所掌控,这时技术权力将以传统权力作为载体,体现出传统权力的控制力。传统公权力可以分为国家权力与社会权力。国家权力是统治阶级以国家的名义运用国家机器来实现其意志和巩固其统治的支配力量,权力的掌控者是国家。社会权力是社会主体所拥有的社会资源对社会和国家的支配力量。郭道晖:《权力的多元化与社会化》,《法学研究》2001年第1期。因此,技术权力选择不同的传统公权力作为载体,其将呈现不同的内涵。例如有定义认为技术权力决定着一个国家在国际事务中的地位与权力,是国际权力结构中的一部分。B.K.Blount,“Science as a Factor in International Relations,”Inernational Affairs, vol.33, no.1,1957, p.71.也有定义认为技术权力是指生产网络中拥有核心技术的企业对其他技术水平较低企业的支配控制的权力。徐曼:《浅析全球生产网络中技术权力的影响机制》,《经济研究参考》2016年第13期。上述两个例子代表了分别以国家权力与社会权力为载体的技术权力的两种内涵。虽然这两种内涵有较大的差距,但可以确定的是国家权力与社会权力作为传统公权力,其对于权力持有者之外的所有人都将彰显其控制力。人工智能作为一项科学技术,其主要的持有者是国家与各个科技公司,人工智能技术或许为这些本身就具有强大公权力的主体提供更强的权力支撑,又或许为不具有强大公权力的主体提供了掌握公权力的能力。无论如何,可以明晰的是,人工智能技术权力主要以传统公权力与社会权力为载体,是权力持有者通过人工智能技术对他人进行控制的力量。

值得注意的是,技术权力在选择不同的载体时虽然会呈现不同的样貌,但无论选择何种载体,由于其核心是强调生产性但对所有人都会彰显控制力的“微观的”权力,因此技术权力持有者无法真正地完全掌控技术权力,且有被“微观的”权力控制的可能。所以人工智能技术权力的持有者在通过人工智能技术权力控制他人的同时,也被作为人工智能技术权力核心的“微观的”权力所控制,这体现出人工智能技术权力具有双重控制力的特性。

(三)人工智能技术权力的实践指导——操作主义

在技术权力的实践中,权力的控制力表现为操作主义。操作主义会将一个概念的意义与一组操作相等同,即把事物的名称视为同时对它们的作用方式的表示。赫伯特·马尔库塞:《单向度的人》,刘继译,上海:译文出版社,1989年,第79页。这会使本来一个包含多种意义的概念被等同于该概念中的某一个意义,也即是在操作主义的指导下将含混的概念还原为特定的所指。目前人工智能之“智能”主要是通过使用深度学习算法的机器学习实现的,它通过把世界表现为一个概念的嵌套层次结构,每个概念都是根据更简单的概念定义的,而更抽象的表达则是根据不那么抽象的概念计算的,从而获得更大的力量和灵活性。Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning,Cambridge:MIT Press, 2016, p.8.这种由诸多简单概念组成的多层嵌套层次结构在本质上仍然是操作主义将复杂概念还原为特定概念的过程,只不过从过去将复杂概念还原为特定、简单、单一概念转换为如今的特定、简单、数个概念。这种有穷规则的集合其实仍是一个已完成的人类经验的累积,只不过采用了新型的处理模式而记录得更加全面,这最终仍只是人类已经创造出的物质条件的束集。刘强:《人工智能与法治关系辨析》,《重庆大学学报》(社会科学版)2021年第3期。因此人工智能的智能机制并不能使其达到完整还原概念的程度。

更糟糕的是,在人工智能技术的决策中,人们知道输入人工智能系统的数据与最后人工智能技术的决策结果,但却不知道为何会得出这样的结果。换言之,人工智能技术在将复杂概念转换成特定、简单、数个概念后,人们无法知晓人工智能技术究竟使用了其中哪个或哪些概念来做决策,这即是人工智能“黑箱”。因此,人工智能“黑箱”凭借其极难解释的特性使得人工智能技术权力能够更加轻松地行使“微观的”权力及传统权力的控制能力。在“微观的”权力方面,人们容易对人工智能产生依赖,这在很大程度上是因为人们只知道人工智能可以做出比人类更好的决策,但不知道人工智能为何能做出这样的决策,这就使人类无法向人工智能学习,而只能更加依赖于它,最终受到人工智能技术权力的控制。在传统权力方面,人工智能技术权力的持有者能够以人工智能“黑箱”为盾而滥用权力,在人工智能技术决策的过程中加入个人的价值判断,产生算法偏见,侵害他人权利,逃避法律的规制。

综上所述,人工智能技术权力是一种以传统公权力中的国家权力与社会权力为载体,以“微观的”权力为核心而生成的具有极难掌控、极难解释与雙重控制力的特性,是一种能够控制所有人的力量。

三、人工智能技术权力影响下的人工智能技术风险的新特性

在现代社会中,“风险”被定义为以系统的方式应对由现代化自身引发的危险和不安。风险有别于传统的危险,它是现代化的威胁力量和令人怀疑的全球化所引发的后果。乌尔里希·贝克:《风险社会:新的现代性之路》,张文杰、何博闻译,南京:译林出版社,2018年,第7页。当现代意义的风险与全球化同时出现并作为一个时期社会的基本特征时,风险社会也就随之产生了。杨雪冬:《风险社会与秩序重建》,北京:社会科学文献出版社,2006年,第40页。这种全球化的风险社会也包含了两种基本风险类型:外部风险与人造风险。外部风险主要是指非人为的风险,如各种自然灾害。而人造风险是由人类发展进步特别是科学和技术进步所创造的风险,是一种内在的风险,其指各种新的风险环境。面对这类风险,历史很难给我们提供足够的应对经验。我们通常并不知道真正的风险是什么,更别说如何根据概率量表来对它们进行精确计算了。安东尼·吉登斯:《风险与责任》,肖瑛译,《法理——法哲学、法学方法论与人工智能》2020年第2期。因此,通常认为现代风险社会中的人造风险具有人为性、不确定性以及普遍性的特征。人工智能技术的出现是人类科学技术进步的结果,人工智能技术风险也是人造风险的一种,是人工智能技术应用造成的包括影响国家、社会、个人在内的各种风险的总称,同样具有人造风险的上述特性。特殊的是伴随人工智能技术诞生的人工智能技术权力对人工智能技术风险产生了诸多影响,使得人工智能技术风险的特性产生了一些变化,使风险能够产生更大、更强的破坏作用。

(一)非完全的人为性的特性

现代风险社会的人造风险是科学技术发展的结果,也是人类自身不断进行选择决策的结果,例如牛肉工业的发展使其强行对人们进行实验,人们必须做出是否吃牛肉的决策,而这可能因为疯牛病的影响而存在关系到生死的风险。乌尔里希·贝克:《风险社会政治学》,刘宁宁、沈天霄译,《马克思主义与现实》2005年第3期。因此,人造风险的人为性是人类不断选择决策并发展的体现。然而,人工智能技术所造成的风险有所不同,这种人造风险的出现并非完全是人为的。人工智能技术确实由人类创造,但人工智能技术权力中“微观的”权力具有难以掌控的特性,这使得人类在使用人工智能技术进行选择与决策时并非像选择是否吃牛肉那样简单。通常人类在某件事情的选择上是由大脑处理相关信息并做出决策的,例如人们可以根据自己的身体情况以及喜好选择吃或者不吃牛肉。但当人工智能技术权力介入时,是否吃牛肉就不再仅由人们自己决定,而是变为人们告诉人工智能程序如个人身体健康程度、个人偏好等相应的信息,最终经由自动数据模型训练的人工智能程序做出决策。当然在得到人工智能的决策后,人们仍然可以选择吃或者不吃牛肉,但人们的选择就很难说明在多大程度上是自己大脑做出的,而又有多大程度是受人工智能影响做出的。这时,人工智能技术权力难以掌控的特性就使得人工智能技术所创造的风险很难说完全是人造的,因此人工智能技术风险在人工智能技术权力的影响下具有非完全的人为性的特性。

(二)双重不确定性的特性

人工智能代替人类进行决策不仅使得人造风险呈现出非完全人为性的特征,而且还将使风险所造成的不确定性在时间上向前推移,并造成比以往更加深远且不确定的影响。通常,人造风险的不确定性表现为风险发生的时间、地点、影响程度、波及范围、损害大小等都具有不确定性。李香民:《风险社会与我国法律观念的变革》,博士学位论文,吉林大学法学院,2012年,第17页。但这些风险通常产生于人们的决策与选择后,而决策与选择的过程是可知的,人们能够提前作预防风险的准备。因此,在奈特的定义中风险是可测定的不确定性,是可以测量的。张碧琼:《经济全球化:风险与控制》,北京:中国社会出版社,1999年,第14页。不过当人工智能技术参与决策时,在人工智能技术权力极难解释性的特性影响下,人工智能进行决策的过程成为“黑箱”,人们无法知晓决策过程,特别是当人工智能做出通常逻辑(“吃或不吃牛肉”)之外的决策时,人类将难以应对而必须做出多手准备,这将大大增加风险的不确定性。例如在全球第一例自动驾驶事故中,自动驾驶汽车的安全员就没有预见到人工智能会错误识别小女孩为别的物体而错过避险时间最终造成惨剧。《全球首例无人车致死案更多细节公布 车祸发生前5.6秒检测到行人》,https://baijiahao.baidu.com/s?id=1649595657719236783&wfr=spider&for=pc,2021年12月20日。而这实际上是人工智能技术权力将人工智能技术风险在时间维度上向前推移导致了风险既可能出现在选择人工智能进行决策时,又可能出现在人工智能进行决策后,因此具有了双重不确定性的特性。

(三)差异普遍性的特性

风险社会之所以具有普遍性,是因为现代化的风险具有“回旋镖效应”,其可以打破阶级图式,冲击风险的制造者与受益者,使得所有人都成为风险社会的受害者,例如生态灾害与核危机。乌尔里希·贝克:《风险社会:新的现代性之路》,刘宁宁、沈天雷译,第9页。但人工智能时代的来临使人工智能技术权力让这种普遍性变得具有差异性。一方面,由于“回旋镖效应”,人工智能技术本身的使用会让所有人承受其带来的风险,再加上人工智能技术权力中“微观的权力”所具有的控制力,使人人都有被人工智能技术权力所规训与控制的风险。另一方面,由于人工智能技术权力主要以传统公权力为载体,这使得各个主体在人工智能时代的博弈中也面临着不同的风险:国家权力将面临其权力被去中心化所带来的风险,可能使国家权力遭到以谷歌、微软等公司为首的社会权力持有者架空。社会权力持有主体将面临因人工智能技术的“黑箱”问题难以通过传统的因果关系进行归责而遭到法律的强制责任分配,从而承担不确定的开发与运行成本风险。就个人权利而言,即便是如欧盟《一般数据保护条例》也不能完全预防人工智能技术权力借助社会权力对个人施加控制能力和侵害个人权利所带来的种种风险。这些风险小到网络购物遭受大数据杀熟、就业遭遇人工智能筛选的歧视,大到自动驾驶危及生命健康。侵害个人权利的风险可谓无处不在。在人工智能技术权力的影响下,人工智能技术既给各个主体带来了相同的风险,也给不同主体造成了具有特殊性的风险,这使得人工智能时代的风险具有差异普遍性的特性。

四、人工智能技术权力影响下人工智能技术风险的法律分配困境

风险本身无法完全避免,预防风险只能起到部分作用。而人工智能技术权力给人工智能技术风险带来了新的变化,使人工智能技术风险的特性变得更加复杂,单从时间维度看,风险的提前到来更加压缩了预防风险的空间。如何公平地分配风险是当下将人工智能技术风险造成的负面影响控制在合理范围较为有效的方法。但法律作为分配风险的利器,却在分配人工智能技术风险时存在诸多困境,这对人类如何应对风险提出了新挑战。

(一)人工智能技术风险的风险承担主体选择困境

通常情况下,谁产生风险谁就承担风险责任,这是典型的“行为-责任”机制,也是侵权责任的构成核心。例如《个人信息保护法》第六十六条规定:“违反本法规定处理个人信息……由履行个人信息保护职责的部门责令改正,给予警告,没收违法所得。”这是典型的“行为-责任”机制。风险的归责问题是应对风险的关键所在。在某种意义上,对一个事件负责的人也可以被说成是这个事件的制造者,其意思是将这个概念同因果性或者施动者(agency)连接起来。安东尼·吉登斯:《风险与责任》,肖瑛译。人工智能技术风险具有非完全的人为性的特性,这种特性使得人工智能系统本身具有了产生风险的可能,因此其可以是承担风险的主体。当然这只是理论上的问题,因为人工智能系统并不具有主观能动性。康德认为只有在对主体的行为后果进行归责时才能谈到责任。只有当我们考虑到主体不仅属于自然世界也属于理智世界,他们是自主的、有能力的、能够按照理性规则行事的主体时,谈论责任才是可能的。D.克鲁科金:《责任与正义的限度》,袁鑫译,《世界哲学》2021年第5期。在侵权责任中,行为人是否有相应的民事责任能力也是判断其是否构成侵权并承担责任的重要前提。因此不具有主观能动性的人工智能系统无法成为承担人工智能技术风险的责任主体。实践中,当发生自动驾驶汽车侵权、人工智能大数据杀熟侵权、人工智能人脸识别侵权等侵权行为时,人们也确实无法让人工智能系统本身承担责任。那么由谁来承担本应由人工智能系统承担的這部分责任呢?由于这种责任并非人引起的,使“行为-责任”机制不再适用,无论是由人工智能技术开发者还是由使用者,或者其他人来承担这部分责任,都缺乏正当依据,显然这是当下法律所难以解决的问题。

(二)风险责任承担主体的归责困境

当人工智能系统制造的风险造成损害时,暂且抛开人工智能系统的责任份额不谈,追究人工智能使用者的不当使用或是设计与制造者设计缺陷的责任似乎是可行的。在“行为-责任”机制中,要想从“行为”通达“责任”就需要有“原因”,这在侵权责任中通常包含了“损害事实”“因果关系”“过错”这三个构成要件。但风险社会中,因现代分工合作的社会体制为“有组织地不负责任”提供了帮助。周战超:《当代西方风险社会理论引述》,《马克思主义与现实》2003年第3期。不仅如此,人工智能技术风险的不确定性导致了风险发生时与发生后一切都是未知的。这使得当下紧密的工业化网络中,因果关系交错复杂,现实化的危害结果在很多情况下已不可能用单一的因果关系来进行解释。劳东燕:《风险社会与功能主义的刑法立法观》,《法学评论》2017年第6期。也即是说在人工智能技术风险的影响下,通过“因果关系”进行归责存在困境。而当下法律摆脱这一困境的方法是绕过因果关系选择使用“过错推定”或者“严格责任”为归责原则。“过错推定”是要求人工智能的使用者或设计与制造者自证在人工智能的使用、设计、制造中无过错,否则将承担相应责任。“严格责任”则是要求人工智能的使用者或设计与制造者在没有第三人的过错和受害人的过失以及不可抗力因素时直接承担无过错责任。“过错推定”与“严格责任”在过去多种人造风险中都是较为实用的归责原则,但人工智能“黑箱”的存在让这两种原则皆难以适用。因为人工智能“黑箱”会使得人工智能系统的使用者或设计与制造者难以证明其在人工智能系统造成的损害中没有过错,因此“过错推定”就易演变为“严格责任”。而“严格责任”的归责原则虽然经常适用于产品责任领域,但人工智能系统本身存在诸多不确定性,而且这些不确定性通常和人工智能系统触发风险之前的经历有关,比如其行为可能会根据基于事件发生地的不同道德标准进行决策。Samir Chopra, Laurence F. White, A  Legal Theory for Autonomous Artificial Agents,Ann Arbor:University of Michigan Press, 2011, p.137.因此同一人工智能产品可能在不同时空会有不同的判断,实际上是将风险的发生提前了,这样就很难认定人工智能本身是否存在缺陷,所以“严格责任”的适用可能存在公平与否的问题。最终,仅凭“损害事实”这一“原因”就无法使“行为”通达“责任”。

(三)风险责任的份额分配困境

在人工智能技术风险的前述两种情况中,法律都难以通过“行为-责任”机制找到相应的责任承担者,这种情况下还有一个办法那就是法律提前对行为作出评价强行适用“行为-责任”机制。例如在传统驾驶中,法律通常在交通事故发生后,扮演行为和责任事后认定和评价的角色。但在自动驾驶的紧急情况中,法律所发挥的作用则恰好相反,法律的规定决定了自动车辆的程序在紧急情况发生时,将会如何进行实践推理,并形成最终的决定。骆意中:《法理学如何应对自动驾驶的根本性挑战?》,《华东政法大学学报》2020年第6期。不过这种解决方法在面临“电车难题”这样的多方主体出现利益冲突时,法律如何分配责任就存在困难。这是由于人工智能技术所造成的风险具有差异普遍性的特性,所以当人工智能陷入类“电车难题”困境时,其决策可能导致不同主体将承受不同的风险。在自动驾驶中,使用者一定不会接受人工智能系统做出可能威胁其生命健康权的决策,因此人工智能系统的设计与制造者为了经济利益也倾向于在遭遇“电车难题”时首先命令人工智能系统做出保护驾驶员的决定。但这让作为人工智能设计与制造者的社会权力持有主体拥有了逾越国家权力擅自处分他人人身权利的能力,这是国家权力所不能接受的。而国家权力的过多介入又可能使人工智能的开发受阻,这当然又是社会权力持有者所难以接受的。因此,法律即使提前应对人工智能产生的风险,仍然需要考虑由谁来承担“电车难题”决策风险以及在何种程度上承担风险的问题。

五、基于罗尔斯正义理论的人工智能技术风险的法律分配路径

在人工智能技术权力特性影响下,对人工智能技术风险的分配所面临的诸多困境实际上都是“行为”如何通达“责任”的问题,需要法律缔造一种行为机制模式,以风险行为为核心进行责任分配,使风险行为与责任承担之间产生一种直接联系,使风险的承担达到一种平衡状态,这是法律介入风险分配领域的理论基础与基本逻辑。何国强:《风险社会、风险分配与侵权责任法的变革》,《广东社会科学》2018年第3期。也就是说在人工智能技术风险的法律分配困境中,要么使“行为”直接能够合理地与“责任”相连,要么打通“行为”通达“责任”的路径。罗尔斯的分配正义理论为此提供了理论基础。

(一)构建类“原初状态”的风险的法律分配环境

人工智能技术权力具有的多种特性所导致的人工智能技术风险的法律分配困境归根结底是因为人类无法有效掌控人工智能技术权力而导致的。在这种情况下,因缺乏令人信服的分配理由,法律很难直接要求某一主体承担责任。而一个令人信服的分配理由则需要在一个公平的风险分配环境中才能诞生,因此首先需要建立一个公平的法律风险分配环境,为“行为”重新通达“责任”提供基础。众所周知,罗尔斯期望通过建立“无知之幕”从而通达“原初状态”,其中“原初状态”是一种其间所达到的任何契约都是公平的状态,是一种各方在其中都是作为道德人的平等代表、选择的结果不受任意的偶然因素或社会力量的相对平衡所决定的状态。约翰·罗尔斯:《正义论》(修正版),何怀宏、何包钢、廖申白译,北京:中国社会科学出版社,2009年,第92—93页。而为了通达“原初状态”的“无知之幕”则是指人们处在一种不知道各种选择对象将如何影响他们自己的特殊情况,他们不得不仅在一般考虑的基础上对原则进行评价。约翰·罗尔斯:《正义论》(修正版),何怀宏、何包钢、廖申白译,第105—106页。恰好,处在不同处境的主体在面对人工智能技术所带来的风险时,都不清楚人工智能系统的决策原因,人工智能技术权力这种难以为人类所掌控的特性天然与“无知之幕”具有相似性,因此通过这种“无知之幕”建立类“原初状态”的法律分配环境也是寻求令人信服的分配理由应当去追求的。不过要建立类“原初状态”也并非轻而易举,在人工智能技术风险的法律分配环境中,各个主体之间对人工智能技术的了解是不对称的,这使得在人工智能的“无知之幕”外还有其他因素直接影响类“原初状态”的形成。因此,尽力消除社会权力持有主体、国家、个人之间的信息不对称是建立类“原初状态”的前提。

社会权力是人工智能技术权力的载体之一,并且社会权力的持有主体通常还是人工智能技术的开发主体,因此其天然比其他主体掌握了更多的人工智能技术信息,凭借这一点,其可以蒙蔽其他主体并滥用社会权力影响“原初状态”的形成。国家权力作为人工智能技术权力的另一载体,其虽也掌握大量的人工智能技术信息但掌握的时间却滞后于社会权力持有主体,这一时间差足以造成社会权力持有主体与国家在人工智能技术上的信息不对称。对个人而言,人工智能技术多数情况下是一个难以触及的领域,个人不仅难以掌握人工智能技术,甚至缺乏了解的渠道,是掌握人工智能技术信息最少的主体。当然,缩小各主体在掌握人工智能技术信息上的差距并不意味着要使其所掌握的信息完全一样,而是达到基本平衡来构建一种类“原初状态”。因为不可能为了所有主体特别是个人都掌握同样的信息而迟滞人工智能技术的开发,所以主要目的是让社会权力持有主体与国家能够尽量平衡包括掌握时间在内的人工智能技术信息。对于个人,实际上在罗尔斯的假设中,個人已经在“原初状态”中选择了社会基本结构,在这一社会基本结构中国家在假定的社会契约中建立并负有保护个人权利的职责。罗尔斯的正义理论实际上是从洛克、卢梭和康德所代表的社会契约观念发展而来,只不过是一种假定的社会契约。具体参见约翰·罗尔斯:《万民法》,张晓辉、李仁良、邵仁丽、李鑫译,长春:吉林人民出版社,2001年,第192页;张乃根:《当代西方法哲学主要流派》,上海:复旦大学出版社,1993年,第53页。当然,由于国家也是人工智能技术权力的持有主体,因此个人仍然需要有了解必要的人工智能技术基本信息的公开渠道,以监督国家对个人权利的保护。

那么平衡社会权力持有主体与国家在掌握人工智能技术信息上的差距,使个人掌握必要的人工智能技术信息就是建立类“原初状态”的关键。当然这也并不是要求所有的人工智能技术信息都要保持双方的信息对称,目前对此有迫切要求的是《个人信息保护法》与《数据安全法》等规定有保护个人权利的法律法规中所涉及的信息。例如《个人信息保护法》第三条规定:在中华人民共和国境内处理自然人个人信息的活动,包括(一)以向境内自然人提供产品或者服务为目的;(二)分析、评估境内自然人的行为;(三)法律、行政法规规定的其他情形。要实现这一目的,建立一种“沙箱”机制是有必要的。“沙箱”机制背后的理念是让国家监管机构批准一个特定的、不受监管的“实验环境”,以测试破坏性技术对现有法规的影响。Lee Z., Karim M., Ngui K., et al., “Deep Learning Artificial Intelligence and the Law of Causation: Application, ”Challenges and Solutions Information & Communications Technology Law, vol.30, no.3,2021,p.18.“沙箱”本身就是一种类“原初状态”,其可以使各个主体在其中都如同处于“无知之幕”之中,这种机制一方面可以为人工智能技术的发展提供一个更好的空间,另一方面,也使得国家能够在新型人工智能技术应用于实践前提前掌握相应的信息,检查人工智能系统中是否存在带有歧视性的指令、非清洁的数据等等人为因素,使社会权力持有者与国家所掌握的人工智能技术信息处于同一水平线上。不仅如此,个人也因“沙箱”的存在而有足够的机会参与其中,表达自己的诉求,加强对新人工智能技术进行了解。最终,“沙箱”机制就因平衡了各个主体对人工智能技术信息的掌握程度而为法律公平分配人工智能技术风险提供了环境。

(二)以纯粹程序正义为基础重塑归责机制

人工智能技术权力具有极难解释性的特性,这使得人工智能技术风险具有双重不确定性,“行为”因缺少“过错”导致“过错责任”与“严格责任”难以实行,最终“行为”难以通达“责任”。由于这本质上是人工智能技术“黑箱”所致,因此如何解决“黑箱”问题则成为关键。不过“黑箱”问题并非目前的技术能够轻易解决的,所以仍然需要一种正义的手段为“过错”的证明提供渠道。

历史上最早的正义要求现在看来就是一种程序上的正义,如《圣经》告诫法官“既听取隆著者也听取卑微者”等等。马丁·P·戈尔丁:《法律哲学》,齐海滨译,北京:生活·读书·新知三联书店,1987年,第235页。这即程序正义,在此要求下一个公平的法律程序组织可以最大限度地增加作出公正决定的可能性。麦考密克,魏因贝尔格:《制度法论》,周叶谦译,北京:中国政法大学出版社,1994年,第262页。因此,一个正义的法律程序是证明“过错”的关键。罗尔斯在程序正义理论中将程序正义分为完善的程序正义、不完善的程序正义、纯粹的程序正义。约翰·罗尔斯:《正义论》(修正版),何怀宏、何包钢、廖申白译,第66—68页。其中,完善的程序正义在实践中难以运用于法律,而不完善的程序正义即便被仔细遵守仍然可能得出令人不满的结论,因此在罗尔斯看来,纯粹的程序正义是最值得推崇的。在纯粹的程序正义下,当每一个人都遵守公众承认的合作规则,并履行这些规则所规定的各项条款的时候,由此产生的社会基本益品的分配就可被接受为正义的,而无论这些分配的结果是什么。约翰·罗尔斯:《作为公平的正义——正义新论》,姚大志译,上海:上海三联书店,2002年,第81页。若在人工智能技术风险责任承担的“过错”证明中遵守纯粹的程序正义,那么“过错”的证明就可以有具体的标准,最终即便在实践中存在一些不公平的情况,但因为这是所有主体在“沙箱”(“原初状态”)中选择的规则,因此仍然是正义的。

纯粹的程序正义为“过错”的证明提供了可能,不过这在实践中还需要细化,因此可以分阶段设定法律规则。第一阶段,国家应当对整个人工智能行业提供一套较为宽泛且能够证明的“过错”法律标准。例如要求人工智能的使用者或设计与制造者证明其已经按照《个人信息保护法》《数据安全法》《网络安全法》等法律的要求做到了例如获取信息前取得信息所有人同意,处理信息时采用去标识化的处理手段,进行自动化决策时征求受影響人同意等等现行法律的基本要求。若其能够证明在这一阶段没有过错,则进入下一阶段。第二阶段,国家及各部门根据人工智能技术风险所属的领域制定相应的具有“过错”标准的行政法规或部门规章。这时,相关风险领域的政府部门应成立相应的机构,邀请社会权力持有主体、个人参与其中,共同探讨“过错”标准,只有当人工智能的使用者或设计与制造者能证明其在该阶段没有过错时,才能进入下一阶段。第三阶段,在国家相关部门监督下由最了解人工智能技术的社会权力持有主体自己制定具有详细“过错”标准的行业规则,因为这更有利于规则的细化。只有当人工智能的使用者或设计与制造者在第三阶段仍然能够证明其无过错时,才能认为其可以不在人工智能技术风险中承担责任。否则,只要没有达成上述任何一个阶段的要求,人工智能的使用者或设计与制造者都应承担“严格责任”。

(三)基于动态监管的责任份额分配模式

人工智能技术权力具有双重控制力的特性,这使得人工智能技术风险也具有了差异普遍性的特性。即便是建立了“沙箱”(类“原初状态”)作为公平的分配环境以及坚持了纯粹程序正义作为“过错”的证明渠道,但由于这种特性的存在,各个主体所受人工智能技术风险的影响各不相同,因此在不少场合仍然难以达成共识。这时就需要国家出面进行监管,强制性地分配人工智能技术风险中各主体应承担的责任份额。

当然即便是国家的强制性分配,实际上也应当遵守在“沙箱”(类“原初状态”)中选择出的规则。在罗尔斯那里,人们经过反复思量选择出的是正义二原则,其中有利于解决目前人工智能技术风险中责任份额分配困境的是差别原则。差别原则认为社会和经济的不平等(例如财富和权力的不平等)只有在其结果能给每一个人尤其是那些最少受惠的社会成员带来补偿利益时,它们才是正义的。约翰·罗尔斯:《正义论》(修正版),何怀宏、何包钢、廖申白译,第12页。人工智能技术风险具有差异普遍性的特征,处在风险中的各个主体承受着各不相同的风险,既有最大的受惠者,也有最不利益者,差别原则正好提供了一个用于解决这些问题的契合思路。也即是说人工智能技术风险的责任份额分配要保证每一个主体的利益,特别是保证最不利主体的利益时,才是正义的分配方式。需要注意的是这并不是以最不利主体的利益为核心,否则像人工智能这样的先进技术无法持续发展。使用罗尔斯这样的分配方式实际上是在追求帕累托最优,是希望每个主体的利益继续增长的同时,在最不利者能够获利的最大极值之处进行利益分配。罗尔斯通过著名的OP曲线对此进行了详细的描述,因为超过某个极值时,最不利者的获利将随最有利者的利益增加而减少,因此完美满足差别原则的位置就是极值之处。参见约翰·罗尔斯:《正义论》(修正版),何怀宏、何包钢、廖申白译,第59—61页。在人工智能技术风险影响下,每个主体虽有各自的难处,但掌握人工智能技术信息最少的个人一定是最不利者。那么使用法律对人工智能技术风险的责任份额进行分配,关键就是如何分配各个主体在人工智能技术风险中的权利与义务,既使每个主体的利益都能够得到保证,又能使个人在其中获得其能够获得的最大利益。

对权利与义务的分配当然仍然需要程序正义的法律机制,但如果要最大程度地契合差别原则,那么就不可避免地需要加入实质正义的因素。事实上,罗尔斯在其后期的观点中也认为一种程序的正义总是依赖于实质正义,程序正义与实质正义是相互联系而非相互分离的。约翰·罗尔斯:《政治自由主义》,万俊人译,南京:译林出版社,2002年,第449页。但加入哪些实质因素才能达到差别原则的要求呢?这里罗尔斯的反思平衡理论为这一问题提供了解法。反思平衡是一种不断调整道德判断和道德原则并使之相互和谐一致的过程。姚大志:《反思平衡与道德哲学的方法》,《学术月刊》2011年第2期。这里需要借鉴的是反思平衡的逻辑,也即是法律在分配各个主体在人工智能技术风险中的权利与义务时,可以先假定一些基本原则,通过这些基本原则来确定一些为达到差别原则目的的规则,然后根据规则的实践情况,如有不足之处再回头调整规则或原则,最终尽量满足差别原则的要求。为了反思平衡的实现,就需要建立一种动态监管的模式。国家应将对人工智能技术的监管视为一种“有节制的决策”形式,也就是说,监管选择是开放式的、高度偶然性的选择,只是较长过程中的一个阶段或元素,而不是对特定问题的“最终决定”。Corrales M., Fenwick M., Forgó N.,Robotics, Ai and the Future of Law, Singapore:Springer Singapore, 2018, p.88.这时通过原则设定的规则也应采用更容易更改的行政法规或部门规章,因为相对法律,它们能够更容易纳入不同的观点,即便是出现了差错也更容易更改。Casey B., Lemley Mark A., “You Might Be a Robot,”Cornell Law Review, vol.105, no.2,2020, p.295.最终当能尽量达到差别原则所要求的满足各方主体的利益,特别是保证个人利益时,这种情况下所进行的人工智能技术风险责任份额的法律分配就将是合理的。

“沙箱”(类无知之幕)的建立为人工智能技术权力影响下的人工智能技术风险的法律分配提供了一个公平的环境,使各方主体能够在其中共同选择出合理的法律规则来实现“行为”通达“责任”。即便是难以适用“行为-责任”机制与难以达成共识时,也可以利用类反思平衡的方式进行风险的法律分配,尽量达到差别原则的要求,最终使人工智能技术风险造成的影响控制在可接受的范围。

(责任编辑:周中举)

猜你喜欢
风险人工智能
我校新增“人工智能”本科专业
2019:人工智能
人工智能与就业
数读人工智能
我国P2P网络借贷的风险和监管问题研究
浅析应收账款的产生原因和对策
中国经济转型的结构性特征、风险与效率提升路径
互联网金融的风险分析与管理
企业纳税筹划风险及防范措施
下一幕,人工智能!