人工智能时代刑法归责的走向

2018-05-28 05:26储陈城
东方法学 2018年3期
关键词:自控刑法机器

储陈城

内容摘要:随着全面的人工智能时代即将到来,刑法作为回顾性法律,也需要对未来可能产生的风险进行提前性展望。由于人工智能技术的复杂性、裁量的独立性和行为自控性等特点,使得现实中会出现人工智能因过失导致的法益侵害,存在无法归责的空白地带。对此归责上的间隙,目前理论上形成了“机器人刑法”与“传统刑法修正”两套应对方案。机器人刑法虽然在一定程度上会防止技术发展的萎缩,但是在刑法的主体、刑罚正当化和自由意志等方面备受质疑。而传统刑法修正,虽然会保留刑法的本来面貌,但是会导致出现刑法介入过失犯的范围过宽的局面。应对人工智能时代的风险,社会应当在保障技术发展的长远目标的基础上,限缩过失犯的成立,保持刑法的最后手段性。

关键词:人工智能过失犯归责间隙机器人刑法

一、问题的提出——人工智能领域过失犯中归责的间隙

机械随着人类文明的进程不断地演进。因为电子计算机技术的迅猛发展,任何信息都可以数据化,全球化的互联网络已经形成,在这种技术的发展中,需要有法律的存在。作为机械相关的初期的法律规定,中世纪的矿业法,17、18世纪的制粉法等,工业革命时期,蒸汽锅炉相关的立法也开始出现,比如铁路法的制定,其也成为现今责任法的基础。〔1 〕目前,机器人技术的进步已经日新月异。不受人的直接操作,独自地根据周围的环境,进行目的指向性行动的机器(自控型或者部分自控型机器)正在走向人类的生活。未来随着机器人技术的进步,机器人将会和人类完全一样自主地进行活动。“自控型”是指机器不受来自人类的指示,有判断的裁量性,并且具有学习和适应能力,使人无法预测其具体的行动。〔2 〕

当经过了机器人作为人类的道具被使用的阶段之后,接近奇点理论的时候,人工智能或者机器人开始脱离人类的控制,〔3 〕将会引发什么样的问题?如果人类是将人工智能作为支配性工具而辅助性地使用的话,出现归责问题时,基本上只要通过现行法及扩张解释就可以应对。因为,此时人类是作为主体行动,只不过是将人工智能作为工具而使用,最终的法律效果(权利和义务)都归属于人类,人类也应该承担法律责任。而与此相对,当人工智能发展到近乎奇点理论的时候,人工智能或者机器人脱离了人类控制,现行的法律规则是否能够全面应对呢?

当然,无论是依据美国生化学家Isaac Asimov曾经提出的机器人三原则,〔4 〕抑或是日本学者新保史生教授所提出的机器人使用的八原则,〔5 〕都绝对禁止故意生产、设计或者使用能够对人类产生法益侵害的机器。比如远程操作型的机器就会产生这样的一般性问题:即因为该机器是远程操作,即便是遭到反击或者逮捕,也不会受伤,因此这种机器可能会被人类恶意使用作为抢劫银行的工具。即便没有恶意使用到那种程度,也可能会通过远程操纵而破坏他人财物。还可能会因为网络线路的故障,导致指示传达的滞后,并出现射杀和意图的对象不一致的其他人的结果。〔6 〕对于设计、生产和使用这种机器人的主体,因为机器只是人类实施犯罪行为的工具,即便该机器人是自控型的,也可以利用和解释间接正犯理论来对具体人进行归责。然而,在人工智能时代,刑法适用中成为问题的是过失犯领域,往往会出现归责的间隙。

以德国刑法学者约尔登教授曾探讨的莱茵河案为例:在浓雾当中,导航向正在与莱茵河流向呈平行线行驶的驾驶员发出指示,让其向右转弯。已经50岁左右的驾驶员听从该指示向右转弯,使得自己和汽车一齐飞入到莱茵河当中,致使驾驶员和同乘的乘客溺水死亡。导航大概是想让驾驶员更容易地改变行驶路线,而在此处并没有横跨莱茵河的大桥存在,要想到达对岸必须要通过船运才可以实现,认识到这一点实际上并不困难。但是因为有浓雾,驾驶员没有注意到,甚至都没有踩刹车就跌入到莱茵河当中。〔7 〕关于此案,当该导航只是普通的电子产品的时候,对于驾驶员和乘客的死亡结果,可以考虑追究导航制造者的刑事责任。其原因是,制造者可以预见到发生这种死亡事故的发生。另外,制造者应该能够预见到,导航在指示道路变更时,在有大雾等例外状态中,会给驾驶员错误的指示的可能性,这样或许可以通过程序设计来回避错误指示的出现。也可以通过设计程序,让驾驶员在航道前停车。但是,如果该导航具备人工智能的属性,通过设计者和生产者的初始设计,设定了行动目标后,该导航系统摆脱了人类的控制,根据自己的判断进行学习、适应。此时,该智能型导航因为错误导致驾驶人员死亡的案件,又该如何处理呢?〔8 〕

二、可能的解决路径——德国刑法学界的争议

关于刑法应该如何回应上述归责上的间隙问题,对此,德国学者分成两派观点。第一种是对刑法中已有的概念进行修改、完善,开辟出刑法对机器人适用的可能性。这一派观点的代表性学者是希尔根多夫教授。第二种则是直截了当地否定刑法对机器人适用的可能性,强调刑法的人类中心主义,试图通过对现行刑法理论的解释、修正予以应对。这一派的主流学者是贝克教授和约尔登教授。

(一)机器人刑法之倡导

行为、归责、责任这样的概念,一直以来都是不可侵入且不可变化的,被认为是无法适用于机器的。即便机器是自主地进行活动,但是因为该活动不属于刑法当中的行为,则对机器进行责任归属,或者认定责任都不具有可行性。〔9 〕希尔根多夫教授认为,这样的立场是将机器人所惹起的损害,让机器人自身承擔责任的可能性,先验地予以完全排除。但是,认定人类和机器人之间的差异是否存在何种理由呢?对于人类所适用的概念用于机器人时,犹豫不前,难道不是人类固执地认为“我们人类是独一无二的存在”所导致的吗。〔10 〕

一般的语法当中,记号的意义并不是使用者单方所规定的,重要的是概念的接受者该如何理解。换言之,语言的共同体和解释的同一性就是记号的意义所在。〔11 〕但是,即便是在同一的语言共同体中,也会存在同样的表达出现不同的意思的情形,语言用法不明确的情形并不少见。因此,明确概念的方法还必须要进行摸索。赋予概念明确意思的第一种方法就是注释。所谓注释,是对某个概念的意思进行具体化,对该概念的各个标准进行分析。比如刑法当中将“夺取”这一概念,注释为“侵害他人的占有以及确立新的占有”。〔12 〕与此相对,第二种方法是定义。定义,不管是在使用不明确的语言的时候,还是在通过定义来赋予语言新的概念的场合,都会使用到。通过定义可以设定占位词,将冗长的表达予以简略化(省略功能)。比如:德国《刑法》第11条第1项第1号当中所规定的内容:“本法律的意义中,1.所谓亲属是指:(a)直系血亲、直系姻亲、配偶、订婚者、兄弟姐妹、兄弟姐妹的配偶以及配偶的兄弟姐妹;婚姻已经不复存在的场合,或者血亲关系、姻亲关系消灭的时候,也是亲属。(b)监护人和被监护之子女。” 〔13 〕

定义,并不是表述意思,而是通过规定来确定语言新的意思。因此,定义没有正确和错误之分,只有相当性(合目的性)程度的差异而已。这样的话,语言的意思就不是不可变化的。也即,语言是在历史的过程当中不断变化的,可以通过定义来改变其意义,可以赋予语言全新的内涵。而且,正是在法律领域,通过新的解释,使得概念适应需求的变化,并使该变化不断地延续。

行为、责任这样的基本概念并非只限于人类。比如民法和刑法上,因为存在法人的概念,因此作为责任主体的人的概念,并非没有扩张的可能性。〔14 〕既然可以将行为、归责、责任等概念,扩张到法人领域,自然将其也用于机器人的可能性就无法完全被否定掉。现在的语法绝非不可侵的,而是可以变更的。一般的语法在历史的流程中不断地变化,而在专门领域当中的语法,可以通过应用专门语法之目的而创设出来的定义进行修正。

第一,关于机器的行为,希尔根多夫教授认为,行为被理解为通过意思而被控制的举止,至少,机器人在外观上看起来像是自己进行的举动。但是,确实机器人会四肢动作、发出语音,对周边环境施加影响等,但是还不能明确地说这些举止是基于意思进行的控制。这其中的“意思”更可能是对机器进行程序的人或者使用的人的意思,这样的话,就会将机器的举止归属于机器背后的人,而不是机器本身。要提出“机器行为”这一概念,就必须要在机器自身当中找到和人类意思完全相当的意思,这里往往会想到控制机器的程序。最为简单的程序是,按照“遇到什么场合→做什么动作”这样的组合来进行设计,机器人在A状态中,就会做出A动作,在B状态中,就会做出B动作。这样可能会妨碍机器基于意思而控制举止的可能性了。鉴于人类原则上也是按照一定的规则,或者根据该规则的指引,来选择行为举止的,这样的话,人类和机器进行对比,将机器基于程序而进行动作,表述为“意思控制”也具有可能性。

但是,这一类比并没有考虑“自由意志的问题”。自由意志当中,以“人类不能(完全地)决定自己的举止,和能够自由决定”为前提,这一命题在刑法当中尤为重要。当然,在实务当中,对于意思自由的结论是保留的。法官只关注否定意思控制的要件,比如无法抵抗的强制。这样的话,机器人的行为也可以作同样的评价。也即,机器也有行为能力,只需要在无法抵抗的强制这样的因素存在时,否定行为即可。〔15 〕

第二,关于对机器的归责。希尔根多夫教授质问,只有自然人才能成为责任主体吗?民法上的企业能够承担责任已经被予以认可了,另外,考虑到很多国家甚至已经认可企业可以承担刑事责任,〔16 〕那么自然人以外的主体承担责任是可能的。原理上,肯定人类以外的非人类主体承担责任是法律的自由范畴。因此,至少在概念上,肯定机器人的责任并没有什么问题。另一方面,承认责任的法律效果会怎么样,则成为问题。机器人因为没有财产,所以不能判决机器人承担损害赔偿。但是,这一问题可以通过如下途径解决,比如对于机器人的使用者,为了使得机器人能够附着损害赔偿的义务,需要强制性购买保险这样的法律义务。或者法律规定,所使用的每个机器人的时候,必须向银行账户中转入一定的存款,万一发生机器人损害赔偿的时候,可以从中支取。〔17 〕

第三,关于机器的责任能力,希尔根多夫教授认为,要承认刑法上的追责,不仅需要行为能力,还必须以责任能力为前提。责任一般被解释为“非难可能性”,1952年德国联邦最高法院的判例当中就意思自由作出如下判解:“通过责任这样的无价值评价,行为者可以采取遵从法律的举止,尽管能够选择适法的决定,却没有采取合法的行为,转而决定選择不法,就能够被非难。责任非难的内在根据是,人只要道德已经成熟,只要这种自由且道德地决定自己行为的能力,没有因为病理原因暂时性或者长时间地受阻甚至丧失,那么就视为具有自由、有责且道德地进行决定的能力,因此可以选择适法行为,抵抗不法行为,使得自己的举止作为法律所允许的合规范行为,回避法律所禁止的行为。” 〔18 〕

因此,德国联邦最高法院就意思的自由持如下立场:“人只要没有被病理所困扰,就可以在合法与非法、善与恶之间,自由地抉择。”这种意思自由是责任刑法的本质性要素,在现今德国刑法领域广受支持。基于这样的背景,初见之下,似乎无法肯定机器人的责任。但是,21世纪的脑科学研究,对意思的自由产生了质疑,法学又恢复到将意思的自由视为是一种拟制的立场。〔19 〕如果意思自由只是一种拟制的话,那么这种拟制不就有扩张适用到机器人身上的可能性了吗。拟制不是反映现实,有的时候甚至是和现实相反。拟制是基于合目的性这样的观点而被提出的,所以将机器人的自由意志作为一种拟制予以引入的话,也只有在满足实际生活的必要性时,才具有可能。但是在目前,这种必要性还无法获得认同。和人类的处罚相类比,考虑对机器人进行“处罚”,比起法学来说,更像是科幻的主题。要想变更机器人的举止,虽然最简单的方法是更改程序,但是,必须因为有自行学习的系统,而使得程序更改无法奏效的时候,就需要讨论能够使得机器举止发生变化的“危险补充”。但是,为了应对这种“危险补充”,并不需要多重意义的刑罚。

然而在法学上,实际上意思自由并没有那么重要的意义。行为者的责任,只要满足:1.责任能力;2.特别责任要素(比如德国《刑法》第315条c所规定的道路交通危险罪中的鲁莽要素);〔20 〕3.责任过失、故意;4.不法的意识;5.免责事由不存在,就可以予以肯定。这其中完全没有涉及到意思的自由问题。这可以说是德国刑法中的实际主义(或者即物主义),将意思自由这种形而上学的问题置于考虑的范围之外。因此,只要机器具备上述5点要件的话,就可能认定机器人的责任。这样来看的话,可能会有人批判认为,机器实际上并不具有理解所为不法的能力,不可能进行实际的无谋行为。但是,对于这种批判,即便是人类,这种所为的“实际上”到底是什么意义,并不明确。另外,适用上述词汇的时候,只是被单纯的拟制,那是基于实务上的理由而被引入的,并不需要实际地阐明内在的、心理的状态。

总而言之,希尔根多夫教授认为行为、责任等概念可以用于到自控型的机器身上。这些概念只要有必要运用到机器人领域,就可以在法律的框架内,基于扩张解释来对这些概念进行必要的修正。虽然会出现形而上学的难题,但是意思自由这样的问题,在实务上几乎无需有所顾虑,而且人类的自由,对于国家来说也只是必要的拟制而已。基于上述的原因,对于机器人可以认定行为、归责和责任。

(二)传统刑法修正对策

约尔登教授是反对机器人刑法的典型代表,他认为关于用何种方法来判断对机器人的决定是否应承担责任的问题,可以通过承认法律中的自由行为起到何种作用这一观点来解释。这一讨论虽然也在脑科学和哲学中被提出,但是重要的是,要区别从法律的角度来看的情形、从生活实践中所见的情形、以及将来所见的情形。其认为,自由行为为法律所认定,是被告人从国家那里获得作为主体的资格。因此,行为尚且不自由的情形下,比如法律视野下的儿童那样,只能作为国家的客体予以对待。约尔登认为人类的尊严、责任、有责性等概念如果没有自由的概念的话,就没有任何意义。人类是基于自由的决定而遵守规则的。而机器人的自由观念和人的自由是无法相容的。〔21 〕

那么通过传统的过失犯论,应对自控型的机器人所产生的归责问题,会产生很多难题。因为要想成立过失犯,必须要有对注意义务的违反和对危险的预见可能性。

而现在,机器人工程学当中,注意义务划定的参考标准几乎不存在。界定注意義务的大致标准是作为工业标准的ISO标准,或者是DIN标准。在使用这一标准的时候,必须要注意一些事项。〔22 〕

第一,这些标准都是非国家组织所制定的民间标准,未必和刑法上的注意义务标准相一致。因为刑法也保护部分的社会道德,和民间标准所要保护的利益并不完全一致。因此,即便是遵循民间标准,也有可能会构成过失犯。刑法和民间标准的保护目的之不同的一个例子是,刑法中所谓的“伤害”概念。按照DIN标准,和机器人一起作业的人受伤的话,如果该受伤没有出现出血的情况,那么应该忍受身体侵害的危险,如果出现出血的话,则不需忍受该危险,也即违反了该标准。但是,刑法中的伤害的概念不以出血为必要,只以身体是否有重大伤害作为区分标准。

第二,因为民间标准是非国家组织所制定的,所以其制定的标准缺乏民主主义的正当性。这是因为,在制定标准的时候,参与制定的委员的选任方法、标准的起草以及最终采纳的方法等,都不甚明确;而且,甚至和该标准相关的领域专家都完全没有参与。

尽管有上述的疑问之处,但是实务界仍然对民间标准有着很大的依赖性。正是由于民间标准有着这种官方的印象,很多学者和制造商认为,只要遵守民间标准,就不会有法律上的问题。如果,开发者所设计的机器人对他人造成伤害,该开发者确信“只要遵从民间标准的就没有问题”的话,虽然该确信对于认定注意义务的违反没有影响,但是有可能会否定他们的违法性意识。

过失犯成立的第二个要件,需要要求危险的预见可能性。在利用自控型的机器人的时候,总觉得该机器人可能会造成某种损害,这很容易想象得到。比如,自动驾驶的汽车 〔23 〕、军事机器人 〔24 〕等都是比较好的例证。但是,对具体的结果预见、因果经过的基本部分等的预见,几乎不可能。〔25 〕这是因为,自控型机器人有学习和适应能力,使人无法预测机器人的具体行动。刑法上所要求的预见可能性,需要对该具体事实以及和因果关系相关的具体的预见可能性,那么这就无法对机器人的设计者等肯定其预见可能性。另一方面,如果将预见可能性理解为“大概可能会对人造成危险”这样抽象的预见可能性的话,显然会使得过失犯的范围变得过于宽广了。

通过传统的过失犯理论来解决有上述困难之外,自控型机器人领域的刑事案件的问题之复杂性,还远不止此。这是因为,机器人大多数都是在和人类打交道。也即,机器人的过失行为的原因,是因为设定机器人学习和适应的程序设计者的行为导致的吗?还是因为制造和贩卖的人导致的呢?抑或是进行训练和调整的利用者的行为呢?这调查起来非常困难,认定谁拥有多大程度的过失,可以说是几乎不可能完成的任务。

作为这种情况下的责任分配的方案,能够考虑的大概有以下四种方法:1.相关主体当中的一人,比如利用者独立承担责任。2.相关主体当中,只由能够通过证据证明存在过失的人承担责任。3.和机器人相关的所有的人,理解为一种新的法律人格,由这种新的法律人格来承担责任。4.可以将机器人视为是对社会来说重要的存在,因此由机器人所产生的危险性、责任性应由社会全体来分担。这些解决方案的背景是,因机器人的利用而受益者,对于机器人的过失而应该被课以金钱或者刑法上的制裁,机器的行为应该归责于受益者。即使这种机器的行为超过了正常人的预想。但是,在机器人的体系当中,对过失行为、损害赔偿进行追责不是问题的所有。刑法本是只有回顾性地对犯罪进行非难的机能,所以并不具有对这种现代性风险进行概括性控制的导向。

针对上述复杂问题,能够想到的解决对策之一,是对过失概念的修正。以下是这种修正过失犯论的核心。

这种修正的过失犯论当中,最早危险的抽象预见可能性,不能成为刑法中责任的标准。这是因为,汽车、核能发电等,虽然统计学显示具有危险性,但是广泛地被社会所接受。〔26 〕因此,要侧重于设定注意义务的基准,这种注意义务的基准不应该用民间标准或者刑法以外的规定。如前所述,民间标准和刑法以外的规定,衡量比较某种行为的优缺点,这样的规范未必和刑法规范的保护目的不一致。因此,这种利益衡量无法直接用于划定注意义务的标准。机器人的有用性和机器人所拥有的危险性衡量以后的结果,尚能够为社会所接受的话,就应该在“可容许的危险”的范围内进行。

在过失责任分配的时候,重要的要素是“信赖原则”。根据信赖原则的规定,所有的人原则上都可以信赖别人进行合法行为。〔27 〕在机器人的体系当中,这就意味着,比如自控型机器人侵害人类法益的时候,只要设计者、贩卖者、利用者相互之间可以期待适法行为的话,任何人都不承担责任,只有没有实施被期待的合法行为的人,承担侵害结果的责任。这样来看的话,责任分配的结果要么是谁都免不了责任,抑或是谁也无法被证明有责任,那么谁都无法被处罚。

但是显然这又会产生新的归责空白,为了填补上述责任上的空白地带,也有观点指出让利用者完全承担责任。此时,除了程序设计、制造时存在明显的构造上的缺陷,否则我们让机器人代为实施的行为造成的损害,均由利用者来承担责任。但是,这样的归责结果很难被接受。因为我们将判断转移给自控型的机器人,让机器人代为行使,就是让人类从判断的负担中解放出来。也即,是为了减轻人类的负担。〔28 〕如果即便将判断转移,而机器人的行为必须由利用者来承担责任的话,那么结果是人类的负担并没有予以实质地减轻。比如长距离的运输当中,利用机器人来进行自动驾驶的时候,虽然是将路线和速度调整等都交给机器人代为决定,但是如果因机器人判断失误而导致出现事故,事故责任由利用者来承担。这样一来,利用者必须不休息,一直注视着机器人的驾驶,这显然需要利用者付出和自己驾驶同等程度的注意义务。那么,这种归责方式显然和使用自控型机器人的意义本末倒置了。这样的话,与其为了避免责任上的空白地带而采取上述不当归责方法,还不如让社会容忍这种归责空白地带。〔29 〕

三、人工智能归责间隙的刑法应对

(一)对机器人刑法的回应

机器在运转的时候发生的侵害法益之行为,能够对机器追究刑法上的责任吗?或者说,机器应该承担责任吗?当计算机出现崩盘的时候,导致数据丧失,计算机的所有者基于愤怒,可能会对计算机施加私人的“处罚”,但是国家能够基于刑事程序,对计算机施以国家层面的刑罚吗?希尔根多夫教授将刑法中的行为、归责、责任等概念进行分析,认为概念存在的重要性,需要考虑语言共同体当中的合目的性,得出也可将时至今日只能适用于人类的刑法概念体系,扩张到人类以外的实体当中的结论,并进而创造出机器人刑法的概念。确实,在不久的将来,机器极有可能在没有人介入的情况下,进行决断实施某种行为。此时,根据机器所遵守的原则,可能并不是在制造过程当中所确立的,而是在其实际运转过程中发生变化的原则,并且机器会根据自身需要进行变更所遵守的原则。也即,人类开始对机器失去控制时,机器在运转过程中所产生的法益侵害结果,到底由谁来承担,就成了刑法上的空白地带,那么机器人刑法似乎成了必然结论。〔30 〕如果不让人类来为机器的行为买单,机器人真的有为自己行为承担责任的可能吗?

根据希尔根多夫教授的观点,创设机器人刑法,可以通过对现行概念进行修正,扩张适用到机器人领域。通过对自然人设定经济义务,让机器人在被追究刑事责任时有财产可供(罚金)执行。这种观点并非没有任何意义。这一观点,一方面使得遭受机器人过失侵害的被害者有获得救济的途径,能够缓解因机器人过失侵害无法受偿所导致的社会恐慌和不满。另一方面,通过对机器人进行处罚,虽然实际上是由自然人实际负担经济责任,但是却实现了罪“刑”分离。也即虽然设计、生产、销售和使用机器人的自然人可能会因为机器人的过失侵害,实质背负罚金刑,但是因为不是犯罪主体,所以不会因为机器人的过失行为,而被认定为犯罪。这会极大减轻自然人设计、生产、销售和使用机器人的刑法成本,在过失犯领域,将自然人本应承担的刑事责任实质转化成为了只承担民事赔偿责任。考虑到刑事责任成本过高,会导致对技术创新造成萎缩效果,故这一观点能够保障人工智能技术的发展。

尽管如此,批判机器人刑法观点的声音仍不绝于耳。创设机器人刑法的概念,第一个反对的声音来自于刑法是只以人作为规制对象的传统刑法观念。这一观念也被称之为“刑法人类中心主义”。〔31 〕基于这一观念,国家发动刑罚的对象则必须是人类。确实,刑法典当中对此并没有明确规定,但是大部分的规定都内含着“实施……的人”这样的用语,从中可以看出刑法所针对的对象也是人类。

诚然,纵观人类刑法的历史,直至启蒙时期,在刑法秩序当中确实存在着很多非人类的实体,也即刑法曾经经历过并非完全以人类为中心进行建构的时期。所谓的非人类的实体,包括动物或者物体。比如曾经有刑法规定可以对作为犯罪发生场所的建筑物,或者行为人所住过的房屋进行销毁,即所谓的废墟化。另外,还存在一种口袋之刑,即将罪犯和动物一起装入袋子,沉入河中溺死的刑罚。〔32 〕甚至,还存在对物或者动物进行裁判的刑事制度。但是,这种非完全以人类为中心主义的刑法,已经在启蒙时期到来之后基本消失。其后,刑法迎来了专门以人类為中心的时代。这里所言的人类,是指作为拥有自由地进行行为的能力,且有理性的先天能力的个体的人类。换言之,即作为被课以需要遵守法律义务的国家市民的人类。这样的话,动物或者其他物体已经不再能够成为刑法规制的对象、这是因为,动物或者其他物体不具有自由和理性的能力,而且,动物也不是国家中的市民组成。刑法进入人类为中心的时代,标志着刑法文明的巨大进步。

针对机器人刑法的第二个质疑是,目的能够将所有的手段都正当化吗?即对机器施以刑罚制裁,无法获得承认。即便现代刑法又返回非完全以人类为中心的时代,刑法可以规制机器人的行为,那么对于机器该如何施以刑罚呢?

对此,有的学者认为,可以对机器人进行再程序化或者重新设计,即认为机器人和人类不同,机器的制造者可以将机器人的程序信息全部抹消,将其恢复到和最初出厂时完全一样的状态,然后,机器人就可以重新按照最初的程序来决定和定义自己的行为了。因此提议将机器予以再程序化融入到刑法的刑罚制度体系中去。〔33 〕这种刑罚的设置和当前的刑罚体系格格不入。以德国刑罚体系为例,其主刑包括自由刑和罚金刑,而再程序化的处罚和这些刑罚无法相适应。通过对机器人予以再程序化,显然无法达到自由刑那样的限制行为自由的效果;同样,机器人没有财产权,通过再程序化也无法强制机器人支付罚金。

那么是否可以将再程序化单独列为一种独立的刑罚呢?作为再程序化的对象是机器的“身体”“生命”或者“人格性”。如果将机器人作为和人类等同的人格主体的话,则针对这三者的处罚,都是为现代刑法所排除的刑罚手段。针对机器人的再程序化这样的刑罚设置建议,实际上相当于针对人类的生命刑及身体刑。换言之,机器人刑法是以将机器人视为与人类拥有同等程度的自控性人格为前提。对机器人实施再程序化,就相当于对人类实施脑白质切除术,以强行改变人格的不可逆性一样,对被承认具有人格的自控型机器人,也就不能实施强制变更其内置程序。再程序化应该和人类死刑一样被禁止。

反对机器人刑法设立的第三个核心论点来自机器人刑法所主张的自由意志。诚然,自然人的自由意志也不过是一种虚拟,这种观点为很多学者所认同并主张。比如有学者提出“自由意志和他行为的可能性,完全无法证明”,因此认为自由意志理解为规范的要求。〔34 〕井田良教授认为,作为确定责任的有无和程度的基准的自由和可能性,并不是经验性事实,而是规范的要求或者假设。〔35 〕高桥则夫教授则主张:“责任并不是作为实体的责任,甚至可以说一种社会的虚构。”“没有这种社会的虚构的话,社会就无法存续,结果、责任和刑罚,如果没有将自由意思假设作为前提的话,也会成为无法存续的制度。” 〔36 〕但是,即便自然人的自由意志是基于规范的要求而作的法律之虚拟,也不能直接肯定机器人的意思之自由也是法律之虚拟。正如佐伯千仞教授所指出的那样,刑法上的责任和意思自由即便是一种拟制,“那也是在社会生活的现实中有基础的,绝不是被架空的”。〔37 〕自然人由于存在一定的社会基础,才能够允许将自由意志进行假定的话,那么机器人的责任和自由意志的假定,也必须要求有同样的社会基础。

但是,到底容许自然人自由意志的社会基础是什么呢?增田丰教授作出这样的批判:“通过作为国家拟制的自由,对行为人归属责任的非难,对行为人课以刑罚的构想,大概不会得到我们相互之间主观的承认,也无法获得正当化。”认定对行为人进行责任归属,必须要具备“为追究责任的相互主观的、交流的条件”。也即,“作为责任非难基础的自由,即便是习惯性的存在,社会的、文化的构成,也必须是先于国家拟制,相互主观所构成的现实”。〔38 〕总而言之,追究责任的一方和被追究责任的一方要处于相互对等的立场,也即,相互立场的交换可能性是责任(以及自由意志)的前提。进一步来说,处于对等位置的人,基于共同认识,来决定自由的意思,才能够将此作为拟制予以假定。那么,讨论机器人的责任、自由意志的前提条件,也即追究责任的一方(自然人)和被追究责任的一方(机器人)需要被认定具有对等性。然而,至少在目前,我们人类和机器人之间的主观交流和探讨的基础尚不存在。因此,自然人状态下,承认将自由意志予以拟制,这一理论原封不动地导入到机器人领域,尚不可行。

(二)传统刑法修正应对策的评价

自控型机器人的行为是无法进行预测的,所以具体的预见可能性是无法被认定的。因此,承担过失责任的话,只以注意义务违反作为要件。对于该机器人,负有注意义务的人承担责任,只有被证明违反了注意义务的人,才能承担过失的罪责。如果没有证据证明任何人有注意义务的违反的话,虽然会出现责任的空白地带,但是鉴于刑法的谦抑精神,应该将这种空白地带让社会全体来承担。

我国刑法学中的过失论是从苏俄引入的,其特点是以法条关于过失犯罪的规定为中心进行注释性论述。随着将过失的本质确立为违反注意义务,我国的过失理论最终完成了从苏俄刑法学话语到德日刑法学话语的转变,由此而使我国刑法中的过失理论获得了生命力。在过去三十年间,我国对过失犯的研究从以法条规定为中心到以违反注意义务为中心,经历了一个过失犯理论的全面提升。

那么日本的过失犯到底是怎样的现状?日本学者认为,日本的判例对于过失责任的要件,虽然要求预见可能性,但是也并沒有要求达到具体的预见可能性,只要对“因果关系的基本部分”有预见的话,即已足够。〔39 〕所以最后的问题是,在日本的判例当中,什么是“因果关系的基本部分”?什么是预见可能性的对象?

日本的判例,预见可能性的对象被理解的范围相当广。比如,没有认识到车辆货架上有人,而驾驶车辆,因为超速导致无法操纵,进而冲撞到信号柱,使得货架上的人死亡的案件中,日本最高裁判所认为“对于鲁莽地驾驶车辆会导致人的死伤等交通事故,这是应该能够予以认识的”,因此认定被告人成立业务上过失致死罪。〔40 〕另外,在最近的判例中,在以前经常发生塌陷的人工沙滩,在新的其他地方发生了塌陷,被害人因为掉进陷坑死亡。作为市政府职员的被告人被认定,因懈怠而存在过失。相关的判例肯定过失时,要求必须有预见可能性,其预见对象是“因果关系的基本部分”。只要能够认识到该人工沙滩的其他地方以前曾经发生过大规模的塌陷,那么就能够预见对人的生命的危险,这就足以驱动(被告人)采取充分的结果回避措施,因此认定成立业务过失致死罪。〔41 〕

以上述判例的立场为前提的话,在所谓“懈怠该注意义务,就可能出现该结果”的情况下,就会肯定预见可能性的存在。对于注意义务,并不要求对具体结果的预见,只要预见到充分的危险性,就肯定需要履行结果回避义务。这样的话,预见可能性和结果回避义务并不是相互独立的成立要件,预见可能性是用于划定结果回避措施、注意义务的内容的前提。〔42 〕在日本的判例中,如果是将预见可能性作为划定注意义务内容的下位标准的话,Beck教授所说的,不需要预见可能性来修订过失概念的必要性,至少在日本缺乏基础。

过失犯是风险社会中典型的犯罪之一。所谓的风险和危险不同,它是指因实施或者不实施某种行为而产生的危险。比如说,受到地震侵袭的是危险,而虽然知道要发生地震,建造抗震的住宅,并继续住在哪里,这就是承担风险。而这里所言的实施某种行为或者不实施某种行为,是指在法律规范中,不得为何种行为,或者应该为何种行为等禁止、命令被规范化。在故意犯当中,这种禁止、命令规范,包括构成要件、行为人等的规定,对于一般人来说都是比较明确的,但是在过失犯当中,构成要件上,只规定了“基于过失而导致”这样的描述,因此法官对于具体的案件,必须要补充的构成要件的范围就比较大,这也就是为什么说过失犯是“开放的构成要件”的原因所在。因为过失犯是开放的构成要件,对于过失犯的把握要非常谨慎。实际上,过失犯论的学说演进从旧过失犯论的主流地位到新过失犯论和修正的旧过失犯论的并立格局,与目前对新新过失犯论的批判,都显示出法学界对过失成立予以限缩的趋势。〔43 〕

在德国,2005年曾经就针对医疗过失的过失处罚的限定,进行过激烈的讨论。〔44 〕并且在此之前,就过失处罚的限定的争议,积累了大量的成果。不管是什么领域,对于过失犯的处罚都应该予以限定。比如德国学者科赫就认为,不仅是医疗过失等特定的领域,即便是一般的过失犯,其处罚也应该予以限定。其后,德国学者都深受这一观点的影响。科赫以过失致死伤罪为例,认为应该限定处罚的根据包括:1.能够减轻司法的负担;2.过失犯中,行为者的人格非犯罪人格;3.过失在事实上不具有回避的可能性;4.和其他领域中的评价相抵触;5.存在所谓的偶然要素;6.在追诉的实务中,存在不平等现象;7.对于过失犯的处罚没有任何实际意义等。〔45 〕

显然,日本对于过失的认定过于宽泛,通过日本理论和判例所形成的过失犯的判断框架,容易导致人工智能时代,人类所承担的过失责任范围过广。在互联网的背景下,不加限制地严格遵循扩张化的过失犯构造,或许会导致网络时代技术开发的萎缩效果。人工智能技术是现代工业文明发展的必然产物,自动驾驶汽车、人工智能医疗等将会对人类带来诸多便利与福祉。人工智能的健康、快速发展,对于人类整体来说,利大于弊。因此,我们在处理人工智能的刑事归责问题时,必须要维持秩序与变革、守护与创新、价值与事实之间的动态平衡。〔46 〕

(三)人工智能初期归责问题中刑法的定位

如果说刑罚是对责任进行非难的话,存在“歸责的间隙”的时候,因为不存在对无责任进行处罚的观念,所以不能直接适用现行刑法来解决问题。这就必须要慎重地讨论通过现行刑法解释进行解决的可能性及其界限。

刑法要应付完全自控型机器所带来的法益侵害,可能只有两种选择路径。其一是,如前所述的那样,现行刑法中的规定,因为无法对完全自控型的机器人进行抓捕以及处罚,只能通过将过失概念作宽松化理解,让制造者、贩卖者以及使用者来承担责任。但是,将刑法作为对犯罪进行非难来理解的话,尚处于初级阶段的技术产业都没有明确的规制标准,而这种需要予以追责的行为还没有明确的细则的话,刑法是不能够予以介入的。〔47 〕另外现实上也是如此,完全自控型的机器这一技术自身是非常复杂的。因此,基于前述的累积效应,即便是在经过了开发、制造阶段之后的利用阶段,也可能会陷入无法预测的事态当中。在使用这种完全自控型的机器时,虽能够认识到会有一些危险性,但是这种极为抽象的预见可能性是不能作为过失责任的基础的。而且因为技术的复杂性,使得结果归责的证明变得几乎不可能。另一个可能的路径就是,比如在医疗、护理、道路交通等和人的生命息息相关即便是再小的失误也不能够被允许的领域当中,将完全自控型的机器一律作为刑法所禁止的对象。但是,这样的话,通过刑法来表明禁止的态度过于宽广了,这就会对自由造成过度的限制。这无论是对于医生或者患者来说,都是弊大于利的事情。〔48 〕另外,被禁止的领域中的机器人的开发、研究,在事实上就被制约了,这便严格限制了研究和学问自由的发展。〔49 〕大凡尖端技术都会蕴含有不确定的要素,如果都通过刑法的介入来勉强进行解决的话,那么就会使得尖端技术可能给人类社会带来的利益也被消解掉了。

因此,通过现行刑法来应对完全自控型机器非常困难。虽然可以通过刑法的修正或者补充立法,来对部分自控型机器人的法益侵害行为找到归责主体。但是,这种立法也并不是完全没有限制。因为,罪刑法定原则的存在,对于行为要素必须要有严密且明确的规定,否则就视为违反了明确性原则。也即,如前沿技术那样,在很多领域还有大量未知的因素,不应该通过刑法这种回顾的视点,而应该求诸其他法当中那种展望性视角,即软化的对应策略,通过刑法来规制并不是适当的方法。另外,完全自控型的机器,使得人类的判断一部分被让渡,因此部分承担了人类的责任,这使得责任性被扩散开,这进而导致对值得非难的行为无法单独地予以定义。此时刑法还不是出场的最佳时机。不管是对完全自控型机器自身进行处罚,还是让相关自然人承担“连带”处罚责任,都是违反刑罚的目的。所以,刑法的目的不仅仅是消除危险性,还有保障行为者自由的一面。在面对行为人的自控性和人的尊严的基础上,刑法只能对明确应该非难的行为进行补充性地处罚,这才是刑法的目标。基于这种明确性的原则、责任主义和补充性原则的考虑,对于先端技术,刑法应该秉持谦抑的态度。

虽然如此,由先端技术所引起的,明确应该非难的行为而导致的法益侵害之情形,并不是无法想象。比如通过远程操作机器人来抢劫银行就是其中一例。这种只是将机器作为犯罪手段的场合中,将责任归责于操纵者并无特别的障碍。

关于对部分自控型的机器进行远程操纵的过失责任,比如通过互联网来进行操作,但是由于互联网服务提供商技术上的漏洞,而使得通信变得不稳定,导致操作滞后进而出现自动驾驶汽车冲撞使人受伤的场合。原则上,可以挪用信赖原则,以操纵者信赖能够稳定地使用网络这样的基本理论来寻找归责的主体。但是,如果同样的案件发生在农村地区,能够容易想象到信号不稳定,无法信任通信的稳定性的时候,使用人知道存在能够使得现场的人陷入操作不能的风险,似乎没有任何可以避免侵害产生的时候,那么使用人可以被课以节制使用这种机器的义务。但是即便如此,比起刑法,活用道路交通安全法等公法或者民法中的赔偿性规定更为妥当。

结语

在完全自控型的机器的情形中,基于他们具有把人类的判断被部分转移进而减轻人类的负担这一性质,人类的责任要相对地减少。另外,处罚机器自身没有任何意义,刑法出面的必要性已然不大。但是也有极少数例外,在一定领域中使用完全自控型机器的危险性能够非常容易估计到,该机器的利用并非对社会有益,而只是有利于利用者个人的利益,且非常容易陷入无法控制的状态的话,是可以通过过失来追究自然人的责任的。鉴于有追究完全自控型机器利用者的责任的例外情形,虽然可以通过制定应对机器人的特别刑法的可能,但是不限于刑事规制,通过其他法律制度来进行规制也是可以解决问题的。如果该机器的侵害性很高,无法获得社会的一致认可的话,也可以对这部分机器的利用予以禁止。如上所述,刑法对于先端技术,不应该过于积极地介入。刑法不应该对于先端技术的发展产生使之萎缩的危害效果。但是反言之,刑法也有保障国民自由的使命,因此为了技术发展而导致社会不安定显然也不是社会所期待的。刑法也必须在一定程度上进行回应。

猜你喜欢
自控刑法机器
机器狗
机器狗
哲理漫画
我国刑法立法效益提高的制约因素与实现途径思路构建
刑法修正案研究述评
中国刑法立法晚近20年之回眸与前瞻
刑法修正案的立法方式考察
神奇的独眼机器