人工智能时代的刑法挑战与应对

2019-09-10 08:13赵楠楠
大众科学·上旬 2019年5期
关键词:人工智能

赵楠楠

摘 要:人工智能时代已经来临,无论我们欢喜抑或恐惧,都应以冷静客观的态度正视它。人工智能技术的兴起对当前我国刑法体系与制度产生冲击,传统犯罪在人工智能的辅助下产生了新特点,现有刑法无法完全应对新型的犯罪类型。本文通过对人工智能主体的适格、责任归置的阐述,来解读刑法应对弱智能时代刑法风险的方法抉择。

关键词:人工智能;犯罪主体;责任归置;刑法完善

引言:自1956年达特茅斯会议首次提出人工智能术语后,AI(人工智能)被广泛应用于人类生活的方方面面,对人类生活产生了不可估量的影响。随着人工智能的深入发掘,也出现了前所未有的社会问题,如:2015年英国《金融时报》报道的大众机器人“杀人案件”[1],2017年绍兴公安机关破获全国首例利用AI犯罪案[2]。人工智能犯罪已经在世界范围内蔓延开来,人工智能的发展带来了新的刑法风险,现有刑法对人工智能犯罪的认定以及处罚有严重滞后性,因此刑法的完善成为应对人工智能刑事风险的关键举措。

一、何为人工智能

人工智能是一门科学技术,可以分为人工和智能来看,人工就是人类通过自己的劳动创造出来的,也就是通常意义下的人工系统,智能是智力和能力的总称,在人工智能的解读上,智能是意识和思维的统称,这也就引申出人工智能的认知能力。美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使用计算机去做过去只有人才能做的智能工作”[3]。這也就反映了人工智能是人类智能运作的体现。

根据人工智能的发展程度,可以把人工智能划分为普通机器人时代、弱人工智能时代和强人工智能时代[4]。目前我们仅处于弱人工智能时代,人工智能已经实现自动化生产、无人驾驶、AI技术应用覆盖家电产业链、改善医疗保健等方面。如果人工智能被不法分子有意利用实施犯罪,或者人工智能被正常使用时产生责任事故危害到社会,都将触碰到刑法的“雷区”,促使刑法作出正面回应。

二、人工智能犯罪责任归置

(一)人工智能主体适格

刑法上的犯罪主体分为两类,一类是自然人,一类是单位。对于自然人主体的认定主要是辨别能力和控制能力。人工智能发展到现阶段,笔者在查阅资料后,认为根据辨别能力和控制能力人工智能可以分为无自我的人工智能和有自我的人工智能。

1.无自我意识的人工智能

无自我意识的人工智能是人类通过编程和芯片的输入利用人工智能进行决策和实施行为,无自我意识的人工智能被运用到社会生产和生活方面时,对社会发展产生了巨大的影响,但也对社会造成了一定的恐慌。2018美国特斯拉汽车公司生产的一辆S型电动轿车在自动驾驶模式下发生撞车事故,导致40岁的司机当场身亡[5]。在这场事故调查中,无人驾驶汽车没有任何安全隐患,美国特斯拉汽车公司不用承担刑事责任,但这场没有任何技术问题人工智能具体化应用带来了一定的社会恐慌,究竟谁该为这场事故买单?

一些不法分子利用人工智能实施犯罪,人工智能成为案件犯罪工具。我国近几年来的电信诈骗令人恐慌不止,究其原因是“人工智能”在背后作祟,诈骗分子利用人工智能倒卖个人信息,并绕过互联网监控系统实施屡见不鲜的电信诈骗。在我国首例利用AI技术犯罪案中,人工智能再次成为社会焦点,信息泄露和打码程序暴露在公众面前,新型犯罪的破解也成为一个新的挑战,以人工智能技术破解人工智能也成为侦查机关的难题。无自我意识的人工智能无论是在正常运转还是被当作犯罪工具时,在实施行为时都对社会产生了一定的危害,笔者认为从行为上看,无自我意识的人工智能应当成为刑法中的新型主体。

2.有自我意识的人工智能

人工智能的发展已经超乎人们的想象,机器人在不断被人们改善的过程中,通过学习在接收到外界的刺激时能获得自己的意识,如同一匹脱缰的野马逃脱研发者的控制。2016年7月,由Knight scope平台制造的一款打击犯罪的机器人在硅谷购物中心撞倒并打伤了一名16个月大的男孩。这款机器人已经超出使用者的控制,作出打人的行为完全是机器人自身的反应,准确来说,是机器人的自我意识在指示它作出打人的行为。这款机器人已经能控制和辨别自身的行为,称得上刑法上的“自然人”,成为犯罪的主体和实施者。因此人工智能具有刑法的主体适格性。

(二)人工智能责任归置

人工智能在实施犯罪时可以分为有自我意识的犯罪和无自我意识的犯罪,对于被不法分子对于被不法分子控制实施犯罪行为的人工智能可以对这些不法分子追究责任,但无自我意识和有自我意识的人工智能实施的犯罪行为又该向谁追究责任?笔者认为应当对开发者和人工智能使用者予以责任归置。

人工智能开发者对人工智能负有监督责任,开发者在人工智能设计阶段和投入使用时都应该做好监管责任,一旦出现技术上的漏洞,开发者应该及时修复,以防造成不必要的责任事故。如果不能通过技术解除危机,此时,开发者应该摧毁人工智能程序,使其走向灭亡。在人工智能投入使用时,开发者应当在现场以防出现异常,具有自我意识的人工智能已经完全超脱人类的控制,开发者更应该密切监督这些经过深度学习的人工智能。在发现人工智能异样时,应及时提醒使用者,并在发生危机时提供救助行为,否则将对其追究不作为和监督过失责任。

人工智能使用者对人工智能负有监督和管理责任,在人工智能造成责任事故时应承担监管不力的责任,尤其是在人工智能有自我意识的犯罪中。如果人工智能在正常使用下发生重大事故,此时的责任应该转化为民事上的公平责任。但在具有自我意识的人工智能犯罪中,由于使用者的监管不力,造成人工智能作出危害社会的行为,人工智能使用者要为这场事故买单。

三、应对人工智能犯罪的刑法完善

人工智能犯罪时,对涉事的人工智能整改程序、清除数据、摧毁附属物。笔者认为认为人工智能具有刑法的主体适格性,刑法对于新型犯罪具有严重滞后性,因而应加快对刑法的完善。

(一)科学立法

人工智能犯罪可以称为技术犯罪,在针对这一类犯罪时,立法者可以以技术攻破技术。立法者可以利用大数据来弥补对新型犯罪问题的不足,通过对犯罪现象的追踪,深入剖析犯罪本质,为解决社会隐患提供更好的帮助,从而推动社会发展。

(二)增设刑法罪名,加大对新型犯罪的惩罚力度

人工智能犯罪已经不适用传统刑法的罪名,在不法分子利用人工智能实行犯罪时,在传统刑法中无法获取最合适的罪名,因而需要针对这些新型犯罪增设罪名。

四、结语

人工智能的发展程度超乎人类的想象,我们身处弱智能时代被人工智能的便捷性折服,同时对人工智能的可危害性感到未有的恐惧,所以我们更应该防患于未然,将人工智能锁在刑法的笼子里。

参考文献:

[1] 王肃之. 人工智能犯罪的理论与立法问题初探[J]. 大连理工大学学报(社会科学版), 2018(4):53-63.

[2] 刘宪权, 房慧颖. 涉人工智能犯罪的前瞻性刑法思考[J]. 安徽大学学报(哲学社会科学版), 2019, 43(01):113-122.

[3] 李峰. 基于人工智能的农业技术创新[J]. 农业网络信息, 2017(11):22-24.

[4] 刘宪权, 房慧颖. 涉人工智能犯罪的前瞻性刑法思考[J]. 安徽大学学报(哲学社会科学版), 2019, 43(01):113-122.

[5]https://www.kwm.com/zh/knowledge/insights/self-driving-cars-who-will-be-liable-20170829.

猜你喜欢
人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能与就业
China’s Artificial Intelligence Revolution
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!