浅议人工智能实体的刑事责任

2020-03-04 05:39王洪涛吕希钰
经济师 2020年2期
关键词:刑法实体犯罪

●王洪涛 吕希钰

一、人工智能概述

(一)人工智能概念

人工智能(Artificial Intelligence),当前社会范围内将其简称为“AI”或“AI 技术”,其最早是由以麦卡赛为首的年轻科学家在1956 年的一次聚会中,大家共同探讨与机器模拟人类智能的一系列有关问题时首次提出,但对其概念定义最早的且较为流行的,是由美国计算机科学家约翰·麦卡锡于1956 在美国达特茅斯学院的研讨会上正式提出。简单来说,人工智能就是智能机器模仿人类行为的能力,人工智能开发的目标也是满足人类追求生产、生活自动化的理想和需求,进一步帮助人类更好地处理关键和复杂的任务和情况。人工智能已经从20 世纪中期的一个理论概念变成了现代社会各国实力角逐的砝码,并且其带来的不仅是国力强盛,更是丰富便利了人们的生活,我们完全可以承认:人工智能时代的序幕已经拉开,人工智能已经渗透到人们生活的各个角落,与人们的生活不可分离。而本文所探讨的“人工智能实体”,指的是人类将创设的人工智能程序附着在某一机械或其他材质的实体物质上,创设出的仿人类智能机器,即具备人工智能的实体物。因为人工智能本身只是人类将智慧变为程序运算的产物,其并不具备实体,只有将人工智能与实体相结合才能创设出对人类生活实际有影响的人工智能实体。

但也正是伴随着人工智能实体在智能与实体能力上的不断发展,新的矛盾和纠纷随之产生,德国就有发生人工智能错误执行指令,致使工人被误伤致死的惨案。近期美国发生的无人驾驶汽车交通肇事致人死亡事件,也是大大超出了人们对人工智能安全性的预期,更多地引发出人们对人工智能安全性的担忧,即对人工智能可控性的担忧。劳伦斯·莱斯格(Lawrence Lessig)的格言“代码就是法律”(Code is Law)认为,计算机硬件和软件的组合,就像人类现有的监管模式一样,可以约束和指导人类行为,所以人工智能并不直接受到现有社会体系和法律体系的限制,其只能按照即有的程序开展工作和学习。如果他们只会以某种方式这样做,而且只能用于某些目的,人们可能出于某些目的将机器人视为人(或动物),人工智能具有逃避人类规划和期望的独立行为能力。而当这种独立的行为能力变得越来越接近人类,一旦其开始掌握学习新知识和面对新情况的独立能力,那么人们将很难预测其下一步的行为会是什么。

笔者认为,当前人类所面临的不单单是发展人工智能、控制人工智能的危害风险,更重要的是在人工智能导致了社会损害时如何予以救济。如人工智能技术被人类滥用或误用而导致的社会危害如何担责?人工智能体凭借自身高科技的学习系统独立行动导致社会损害谁来负责?而这些问题的关键就在于刑法是否承认人工智能的独立法律地位。笔者认为,基于现阶段人工智能的发展进程,我们不能仅局限于现有技术的范畴进行讨论,法律的目的不仅是救济,更兼具预防功能,故我们应当大胆地假设除现有的人工智能技术外,对更高层次的人工智能应当如何进行法律规制。因此,我们不妨先对人工智能进行理论的分类,进而探究其是否具备承担刑事责任的资格。

(二)人工智能分类

人工智能按照不同的分类标准、不同机构,其划分的类别也不同。其中刑法学界讨论中引用最多也是最获得众多学者认可的有“二分法”“三分法”和“四分法”,其中科学界较多关注的分类标注为“四分法”,即将人工智能分为四个层次:最低层的是弱人工智能,即只能按照设计人员即定的程序开展固定的工作,如家庭中常见的扫地机器人、温控空调等,此类产品只能识别某项特定的事物,并围绕其展开工作;中间层次的是中人工智能,即能够与人类互动,按照人类的设定的程序,按照不同的指令进行工作;高层次的是强人工智能,即能够通过自主学习产生不在即定程序内的独立创造,其自身可以通过不断的学习进行升级;最高层次的是超人工智能,此项分类目前还只是存在在科幻电影和科学家的理想环境中,即完全的和人类相同,拥有自己独立的思考和创造能力,具有普通人类的感情。法学界的分类较科学上的分类略有不同,因为鉴于法学上区分主体是否需要承担民事或刑事责任能力,不论是从年龄划分还是从是否患有精神疾病划分,其本质上均是在考量行为人是否具有独立的、正常的思维、思考、辨认、控制的能力。因此,法学上对人工智能的讨论多围绕“二分法”,即人工智能划分为“弱人工智能”和“强人工智能”两个层次,其划分的标准就是人工智能是否具有独立思考的能力,即能否从人类设定的已有程序中独立创设行为和思想。本文也是采取法学界的通说“二分法”,对人工智能从强人工智能和弱人工智能两个方面展开讨论。

二、人工智能实体刑事责任探讨

按照当前法律的规定,刑事责任主体是指实施危害社会的行为,依法应当负刑事责任的自然人和单位,即只有自然人和单位是承担法律责任的主体。但笔者认为就当前时代发展的进程而言,此规定已经不能完全符合当下时代的发展。法律的对象并不是人,而是人的行为,即受到法律限制的并非是人或法人这些主体,而是主体所实施的行为。如果某一主体(如本文所探讨的人工智能产物)虽然不具备人的生命属性,也不具备法人的组织性,那它是否能够成为刑法规制的对象呢?因此,当前学界针对人工智能实体是否能够成为刑事责任主体有如下两种观点:

一部分学者认为人工智能实体不存在自我意识和感知力,在实施社会危害行为时,人工智能实体只是产品研发者和实际控制者的犯罪工具,是他们智力和体力的延伸,就类似于故意杀人罪中的刀、枪等工具,由其承担刑事责任,明显与刑法中刑事责任主体的立法本意相悖,故其不能成为刑法意义上的刑事责任主体。

还有一部分学者认为,对人工智能实体的认识不能仅仅局限于当前人工智能实体的科技水平。时代在发展、科技在进步,人工智能实体完全可能产生自己的意识和意志,故应当结合人工智能实体自我意识的强弱对人工智能产品的刑法规制进行具体的分析和判断,即在原有设计者即定的编程范围内,人工智能实体按照设计者的意识和意志实施犯罪行为,或者是按照实际控制人的实际控制实施的某些不法行为,则应当将人工智能实体看作人类实施犯罪行为或者是工具;而当科技发展到一定阶段时,人工智能实体可能自身能够产生超越即定编程的范围,按照自主的意识和意志实施控制自身实体实施违法犯罪行为,这样的人工智能实体完全能够也应该自己承担刑事责任。

笔者赞同第二类学者的观点,即对于人工智能是否应当承担法律责任,应当采用分类讨论的方式,不能单纯地一概而论。具体分析如下。

(一)弱人工智能实体刑事责任探讨

1.弱人工智能实体不能成为承担刑事责任的主体。首先,弱人工智能是按照人类即定的程序开展工作,同时受到人类行为控制和支配的,其仅能作为人类生产生活的辅助,类似于大脑与四肢的关系,完全的按照人类预先设定的并预期的方式进行作业或反馈,其自身即使能够学习到新的技能或者有进一步的升级,也是专业技能上的升级,并非是其自身具备了思考、控制或者预判的能力。就像Alpha 围棋机器人,即使其学习了再多围棋技能,并且其根据自身的学习功能已经推演出更高级的围棋算法,但是其始终没有产生情感,不能做到自我的控制,甚至不能从事与围棋无关的任何事,所以其并不能够辨认其他事项,更不具备控制自己实体的能力。因此,其不具备作为刑事责任承担主体的基本要件。

再次,如果将弱人工智能当作犯罪主体看待,现有刑法将会受到根本性的冲击。从类比的角度看,如果将弱人工智能实体在程序控制下实施的行为定义为刑法上的违法犯罪行为,那么人类的无意识行为(如精神病人的行为)及受控制行为(间接正犯中的实行行为)从行为的外观上更贴近刑法意义上的“社会危害行为”,这就会导致刑法在适用刑事责任主体时的法律适用混乱,无限地扩大了刑事犯罪责任主体的范畴。所以,如果将此种无意识的不受实体自身控制的行为纳入刑事犯罪惩罚的范畴之内,这对传统刑法理论的打击是致命的。

最后,人工智能并不具备主观能动性,不能形成犯罪的主观故意。主观意识是人类区别于机器的关键。而犯罪之所以被惩罚,不单单是考虑其行为的社会危害性,更要考量其主观上的意愿,如刑法中就明确规定了故意犯罪与过失犯罪在刑罚上的区别。而作为不具备主观意识的弱人工智能,其并没有独立的主观意识,其根本不能意识到自己行为的定性,与刑法中的14 周岁以下儿童及严重精神病患者一样。因此,其不能成为刑事上的责任承担主体。

2.弱人工智能犯罪刑事责任承担问题探究。因为弱人工智能不能为自己的“行为”承担刑事责任,那么由“弱人工智能”导致的刑事犯罪,应当如何追究刑事责任,成为了广大学者探讨的话题。笔者认为,此问题不能简单地一概而论,因为导致犯罪行为产生的原因可能存在很多种,如开发者的设计程序原因,又如生产者的产品质量原因,还有实际使用者的实际操作原因,故应当对不同原因导致的责任进行分类讨论。

(1)程序问题、被实际操控人利用——开发者责任。如前文所述,弱人工智能的工作行为和模式是按照开发者即定的程序展开,如果开发者利用弱人工智能程序上的漏洞,或者专门制作某一程序,使得弱人工智能成为其犯罪的工作,那么在生产方和实际控制人均不知情的情况下,弱人工智能实际上是开发者为了犯罪而设计的工具;还有如弱人工智能的实际控制人,利用弱人工智能的某项研发功能不是为了生产、生活的便利,而是为了实施某项犯罪,那么这些情形中,弱人工智能实际上就是开发者或者实际控制人为了实施犯罪而利用的工具,即此时的弱人工智能与故意杀人罪种的“刀、枪”等一样,此种情形可以直接对开发者和实际控制人以其实际实施犯罪定罪量刑。

(2)生产方问题——产品责任。人工智能产品与其他所有的产品一样,其质量问题一直是广大消费者、使用者最关心的问题。对于其产品质量,按照现有法律规定,完全能够追究相关人员的刑事责任,即如果是由于生产方生产的弱人工智能产品不符合产品质量的规定,可以依据弱人工智能产品性质的不同,按照《刑法》第三章第一节的法律规定,追究生产者生产伪劣产品或者不符合标准产品的生产者责任。

(二)强人工智能可以成为刑事责任主体

在探讨强人工智能能否成为刑事责任主体,即能否以自己的名义承担刑事法律责任的问题上,我们需要深入剖析,按照现有刑法的规定,何为刑事责任主体?能够成为刑事主体的内在要求是什么?为什么有些主体不能或者有条件的承担刑事责任?

依据《刑法》第16、17、18 条规定可知,首先,刑事责任能力划分的第一要素是年龄,对年龄在14 周岁以下的自然人,不须承担刑事责任;其次,精神状况,精神病人在不能辨认或者控制自己行为时造成刑法意义上的危害结果时,只要经由司法鉴定程序确认其行为是不能辨认或控制的,也不承担刑事责任;最后,《刑法》第30 条对于单位犯罪的规定可以看出,单位作为犯罪主体其本质还是人的行为导致,只是在处罚上由单位承担了一部分的责任。因此,我们不难看出,能否成为刑法意义上的承担刑事责任的主体取决于行为人对自己行为的辨认能力与控制能力。因为不论是年龄的限定还是精神状况的限定,均是以行为人对自己行为的辨认能力与控制能力作为标准进行的衡量。具体而言:辨认能力是指行为人在实施某项行为时能够认识到自己特定行为具有的行为性质、结果与最终意义的能力;而控制能力是指行为人自己支配实施或者不实施某项特定行为的能力。而作为模仿人类智能的人工智能,如果能够其不能产生独立的行为和工作模式,只是单纯的按照人类即定的程序进行工作,那应当由其实际操控人或设计者承担责任无疑;但如果人工智能能够通过学习,产生其自身的思维方式和行为,即具备了独立的辨认能力和控制能力,那就应当能够承担刑事责任。因此,笔者认为,强人工智能能够成为刑事责任主体,应当比照刑法中现有的对自然人的法律规定进行处罚,不必另设法律予以规制,具体预设的情形如下:

1. 人工智能实体在自身独立意识支配下实施的犯罪行为,只需对这实体进行处罚。本文所称人工智能的独立犯罪,是指人工智能在其自身预设的系统外,通过其自身学习、思考后产生独立的行为,并进而实施犯罪的独立行为,即行为必须是通过人工智能自主意识形态下实施的。笔者认为,此种行为与人类的行为无异,是人工智能自主思维意识的体现,如果不能证明研发者在研发的过程中存在程序设计上的瑕疵外,或者实际控制人在操作使用的过程中存在故意或者重大过失的情况下,不能要求人工智能的设计者及实际控制人承担责任,这与刑法中,父母对子女的教育或者培养存在缺失,最终造成子女的心理存在缺失导致产生犯罪行为,不能要求其父母承担刑事责任一样,如果不具备年龄或者精神缺陷,必须由其本人承担刑事责任。但当前学术界,也有很多学者提出,即使是强人工智能具备了自己的独立意志,也不能成为刑事责任主体。理由有二:

其一,人工智能实体不具有违法认识的基础性。人工智能实体的运算基础是人工智能即定的程序,其运算的过程类似于数学和物理上的公式,其并不收到周遭环境的影响,而法律的形成是历经人类长期发展史的产物,其规制的是对社会伦理长期积淀下的人的行为。而人工智能并不具备人类的社会属性,不具有人文属性。刑法上要求承担刑事责任的前提条件就是思维意识正常,对其行为的辨认能力和控制能力有准确的认识,但对人工智能来说,其未经过社会周遭伦理道德的环境影响,对人类社会的法律并没有明确的认知。因而,人工智能的程序对人类社会的规制不可能有明确的认识,其对于自身行为在社会文化中的定位和认识,难以与人类相统一,其难以认识到自身行为的违法性。

其二,将人工智能实体犯罪纳入刑法范畴具有本质上的隔阂。首先,现行刑法中的全部罪名设置并没有考虑到人工智能实体的特性。现有法律规定不具有约束人工智能实体犯罪行为的现实性。我国刑法中罪名共计458 个,虽然随着社会的发展,现有的罪名也是从少数罪名增加至此,而且还有继续增加的趋势。但是从现有罪名的设置上看,其针对的主体还是人的行为,即便是再增加罪名,也是围绕人类的新型行为,不能脱离现有的刑法体系结构。但如果把人工智能实体纳入刑事责任主体的范畴,那就不能单从人类的行为范畴内考虑,立法者还需要将人工智能犯罪行为的特点纳入立法的考虑范畴之内进行衡量,并且有针对性地设置人工智能实体适用的法条。这就不单单是增加主体的问题,而是整个刑法体系的修改。而现阶段来看,强人工智能只是人类的假想,并不是现实存在的。因此在现阶段对其进行研究缺乏现实的依据和基础,无异于空中楼阁、纸上谈兵,故不应当过早地讨论。其次,从现有刑罚的手段上看,将现有的刑罚作用于人工智能实体,不具有现实的可操作性。我国现有刑罚体系中对能够作用于人的包括有罚金刑、限制自由刑(管制、拘役、有期徒刑、无期徒刑)及生命刑(死刑),对于人类而言,上述刑罚均对人有足够的威慑力。因为不论金钱、自由、生命,均与人类的生活息息相关,但如果将这些刑罚作用于人工智能实体,产生的效果将完全不同。如罚金刑,人工智能实体对于自身的开销可能远远低于人类的开销。因为其并不需要满足生理上诸如饮食、病理等现实需求,其能够生存的成本可能非常低,所以罚金对其并不具有可罚性,而且其完全可能不拥有财产;而自由刑则更不具有现实意义。因为其实体是由人类打造的,其生存的时间可能远远长于人类,那么自由刑对其的威慑将毫无意义,还消耗了大量的人力物力去实施刑罚;而死刑可能对其更不具有意义,因为其自身的生命体就是人类制造并赋予的,人类完全可以再另行制造、生产一个相同的人工智能实体予以替代。

笔者认为,部分学者的上述观点不能成为否定人工智能刑事主体资格的理由。首先,人工智能可以认识到违法性。因为违法性的认识并不是与生俱来的,人类对于违法行为的认识也是通过不断学习、认识、理解,最终形成习惯的。而人工智能只要具备了自主学习的能力,其完全可能具备违法性认识,其甚至可以通过程序预设的方式去预先设定违法禁止性程序予以规制,其本身就可能具备比人类更强更准确的违法性。因此违法性认识不能成为人工智能不能作为刑事责任主体的理由;其次,人工智能具备担责的可能性。我们要用发展的眼光看待任何问题,虽然现阶段的人工智能并不具备与人类相同的独立思考能力,但随着社会和科技的发展,人类生产力的不断进步,科技能够进步到何种程度,是我们现阶段无法预测和想象的。因此,我们不能局限地用现在对人工智能的认识去假设未来的情形,所以,当人工智能发展到成熟的阶段,其能够以自己对自己的行为有明确认识和认知,能够为自己的行为承担责任;再次,法律并不是教条而死板的。其本身就是随着人类的发展而不断完善和改变的。而且从现阶段的人工智能发展来看,现有的法律完全可以应对当前涉人工智能案件的情形,如果真的出现现有法律不能涵盖的情形,我们也可以通过法律修正案或者司法解释的形式进行弥补,以确保能够适应发展的环境。因此,不能因为害怕修法而不去面对日新月异的司法实践。最后,现有的刑罚手段虽然对人工智能而言不能达到惩罚其犯罪行为的目的,但是不代表我们不能创设新的刑罚。随着人类历史的发展,刑罚的种类也在不断更新和进步,如古时不同朝代就有刑罚方式的延续和创新,包括我国当前死刑中采用的注射死刑等,均是刑罚方式的更新与进步。而对于人工智能的刑罚,有学者也提出了诸如删除数据或者由研发者、实际控制人代为缴纳罚金等等方式,因为现有阶段并不涉及具体案例,且人工智能发展到强人工智能时代时,人工智能会以何种方式呈现,对于其最为有效、最能够让其产生畏惧的惩罚,我们还不得而知。但能够确定的是,我们可以采取相应的手段对其惩罚,并且将之纳入到法律的范畴之内。

2.人工智能和人类相互协助实施的犯罪行为,应当依据共同犯罪的刑法规定针对两个主体进行法律追责。结合前文所述,强人工智能能够以自己的名义承担刑事责任,因此,在强人工智能与人类相互协助进行的犯罪行为,完全可以类比现有刑法关于共犯的规定,按照共同犯罪中各行为人的行为和对犯罪结果的贡献,分别认定罪名和刑事责任。

3.人类利用人工智能进行犯罪,即刑法理论中“间接正犯”的情形时,应当由实际实施行为的人类担责。此项分类下,人工智能的作用与14 岁以下的儿童和精神病人一样,均是实际犯罪人的工具。这种情况下的人工智能可以比照前文对于弱人工智能犯罪在不同情况下的责任承担方式进行责任划分,也可以按照刑法的基本理论,在间接正犯的理论框架下,追究实际犯罪人的刑事责任。

三、结论

人工智能是新时代下的科技产物,是时代发展所必须面对的,因此人工智能实体刑事责任是必须被正视的问题。本文通过剖析刑事责任主体能够承担刑事责任的本源,即法律是依据什么标准去划分能否承担刑事责任,得出主体是否能够承担刑事责任,其本质在于是否对自己的行为有辨认和控制的能力,再将此标准附之于人工智能实体中,可以清楚地辨析。一旦人工智能实体具有自己的意识和意志,能够产生自己的思维去辨认和控制自己的行为,那其就应当以自己的名义承担刑事责任,只是在刑罚的方式上要较现有刑法中的刑罚有所改变;而如弱人工智能实体,其更多地体现的是工具属性,不能有独立的辨认、控制自己的行为,其只是按照人类既定的程序去执行某些特定的行为,其产生的犯罪行为应当由研发者或者实际控制人承担。

猜你喜欢
刑法实体犯罪
过度刑法化的倾向及其纠正
前海自贸区:金融服务实体
Televisions
实体的可感部分与实体——兼论亚里士多德分析实体的两种模式
两会进行时:紧扣实体经济“钉钉子”
振兴实体经济地方如何“钉钉子”
刑法适用与刑法教义学的向度
什么是犯罪?
论刑法总则
重新检视犯罪中止