人工智能在刑法领域的思考

2019-10-21 08:36郑云鹏
新生代·上半月 2019年5期
关键词:立法人工智能

郑云鹏

【摘要】:风险必将伴随着人工智能时代一同到来,届时可能会产生一系列新的犯罪,或者高端的人工智能产品通过自我完善和学习摆脱人类控制,进而做出了具有严重的社会危害性的犯罪行为。面对千变万化的现代社会,法律的滞后性和局限性不可避免,但对于将来大概率出现的危机,也应当未雨绸缪,进行超前立法。刑法应从立法源头对研究人员和使用人员以及相关人工智能方面犯罪的刑事主体有所增加,但刑法秉承“宽严相济”原则以及刑法的谦抑性,不应当过度干预人工智能的发展。

【关键词】:人工智能 立法 刑事责任主体

几十年前,人类无法想象到我们已经处于互联网的时代潮流之中。正如今天的我们,也很难去预想我们将进入另一个全新的时代—人工智能时代。人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学 。毋庸置疑,人工智能在高速发展的同时,随之而来的是技术研發和应用的过程中带来在伦理上的、道德上的、法律上一定的风险。根据国务院最新发布的《新一代人工智能发展规划》可知 ,人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。面临一个风险与机遇并存的全新时代,我们需要尽快建立相关的法律法规、道德以及政府的相关政策。

一、新时代存在的刑事上的风险

人工智能时代以人工智能技术的应用为核心,人工智能技术通过模拟人类的神经网络,让计算机系统对数据库进行深度学习,使得计算机系统能够进行分析、判断以及决策。人工智能已经被广泛应用在各个领域,其必然掀起另一次革命,但人工智能的全面化可能会导致与其他情形结合导致新型犯罪的出现,其在工作的过程中会使数据进行集中,数据的集中本身就是一种风险,数据越大,被攻破时不法分子的获利就越丰,这就出现了“地动山摇”的危险境地。

二、人工智能时代相关犯罪的主体认定

机器人分为智能机器人与一般机器人,其二者的主要区别为智能机器人不是简单的从数据库中提取相应的信息,而是它进行自主的思考。从智能机器人本身的属性来说,其就具有智能性、主动性、创造性的特点。一旦智能机器人能够通过深度学习而产生意识和思想,并在自主意志和思想支配下实施不在人类设计和编码的系统程序范围内的犯罪行为,那么智能机器人就极有可能需要面临刑事责任的承担问题。在现行刑事法律体系下,需要承担刑事责任的主体只有一般自然人和单位。同自然人相比较,智能机器人虽然没有像自然人一样的生命体征,但是却拥有作为刑事责任主体所要求的辨认能力与控制能力,所以智能机器人完全有可能成为刑事法律所调整的犯罪主体。同时应当看到,智能机器人有一定的特殊性,即具有两面性:一方面在研发人员和使用人员设计和编制的程序范围内实施行为—即在人类的可控范围之内实施犯罪,其实现的是人类的意志,智能机器人无法决定自己的行为目的,其可以看作为使用人员实施犯罪的“工具”,所以智能机器人实施的犯罪行为不需要承担相应的责任;另一方面,智能机器人在研究人员与使用人员设计和编制的程序范围外实施行为—即智能机器人脱离人类控制在自己的意识支配实施的行为,实现的是自己的意志,与其他具有刑事责任能力的主体实施犯罪行为的情形高度一致。一个自然人从出生到死亡可以看做是一种“纵向”的刑事责任能力递增的过程,即不满14周岁的完全不具有刑事责任能力,已满14周岁不满16周岁的具有限制刑事责任能力只对八种犯罪行为承担责任,已满16周岁的就具有完全刑事责任能力。而智能机器人从设计和编制的程序内到程序外可以看做是一种“横向”的刑事责任能力的转化过程,即智能机器人在设计和编制的程序内实施行为不需要承担刑事责任,而在设计和编制的程序外实施行为则需要承担相应的刑事责任。笔者认为,随着人工智能广泛的普及大概率可能使得智能机器人在人类社会生活中的地位从普通工具上升至刑事责任主体的标准,因此未来人类社会的法律制度需要针对人工智能技术的发展做出相适应的标准,但不宜抑制其发展。

三、人工智能时代的刑法完善

为防止未来智能机器人脱离人类控制的局面出现,我们应防患于未然,从立法环节上,应增设相关犯罪,刑法是调整社会关系最广泛的法律,其对犯罪人权利的限制往往是不可逆的,能起到明显的威慑作用。因而刑法必须对滥用人工智能的行为加以规避,人工智能风险才有可能得以有效的控制。但根据刑法的谦抑性理论,只有在其他法律仍不能调整的情况下,才应得到刑法的规制。只有这样,人工智能的发展能够得到健康、有效、快速、高质量的发展。同时,笔者认为应该对研发人员和使用者进行严格限制,可以在人工智能源头的创造上规避重大安全隐患。首先,开发人员应当在书写智能机器人的代码时或产品系统的研发中必须嵌入人类社会所必须的道德、法律与伦理。换言之,就是产品成型后的第一时间内必须让其自主学习法律、道德与伦理。其次,研发人员具有保护数据的义务,在数据爆炸的时代,数据代表着的不仅仅公民个人的隐私,乃至整个国家的政治、经济、文化等各方面的安全,对数据库的严密保护应成为研发人员的责任,最后,研发人员必须能够保证完全的控制人工智能系统。当然可以在设置程序中,如果脱离控制,可以设置机器人的“自我终结”程序,其主旨就是为了保护现有的人类社会的安定。只有研发者违背了上述义务,其需要承担相应的刑事责任。

四、结语

综上所述,笔者认为人工智能时代已经来临,人们应当具有控制它的能力。故应当对机器人纳入具有刑事责任能力的主体,并对研发者和使用者进行严格限制,将利用人工智具有严重的社会危害的行为纳入刑法的调整范围。

【参考文献】:

【1】 刘宪权:《人工智能时代的刑事风险与刑法应对》,《法商研究》2018年第1期。

【2】 参见2017年7月8日国务院印发的《新一代人工智能发展规划》。

猜你喜欢
立法人工智能
人工智能之父
2019:人工智能
人工智能与就业
数读人工智能
我国无居民海岛使用权性质的立法存在的问题及完善
试论我国证人拒绝作证权制度的构建
关于治理潮州市区流动摊贩占道经营问题的思考
下一幕,人工智能!
下一幕,人工智能!
网络版权运营中的风险防控