人工智能进法院的可能风险探讨

2020-06-04 12:55姜萌萌
数字技术与应用 2020年3期
关键词:风险人工智能算法

姜萌萌

摘要:人工智能技术在法院的应用可以提升司法效率,缓解当前法院案多人少的局面,提高司法过程的标准化,促进司法公正。同时人工智能技术也是一把“双刃剑”,在为我们带来便利的同时也可能带来一系列风险。本文探讨了人工智能进法院的现实需求,分析研究了未来人工智能可能给法院带来的风险。

关键词:人工智能;智慧法院;算法;风险

中图分类号:TP18 文献标识码:A 文章编号:1007-9416(2020)03-0222-02

0 引言

近年来通过发展高效的人工智能技术将迅速普及,同时人工智能技术具有网络化效应,一旦系统出现漏洞,则可能出现系统性的风险。由于人工智能技术准确性远超人类法官,法官可能在办案过程中形成路径依赖,同时由于司法责任制,法官要对案件结果负责,再加上在互联网发达的今天,任何案件都可能在网络发酵,引发舆论危机,法官为了规避风险,更有采纳人工智能给出的答案的冲动,这可能使法官失去办案主动权,沦为系统的助手。人工智能系统的标准化结果,会使两审终审制以及公检法的相互制约关系变得形同虚设。人工智能办案结果更正确、更标准,但是对标准的追求可能导致社会多样性的缺失,导致社会价值观的一元化,从而影响社会的发展,甚至造成社会风险,多样性是社会发展的保证,因此应允许法官有不同意见,允许法官犯错,使司法活动有人味儿。

1 人工智能进法院的现实需求

2016年3月到2017年5月,谷歌旗下人工智能系统阿尔法狗Alpha Go及其升级版Master对决人类顶尖棋手并取得完胜后,人工智能开始被普通大众所熟知,一时间全社会掀起了一场对人工智能思考及讨论的热潮。目前人工智能已经在医疗、自动驾驶、金融等多个领域得到广泛应用,并且在某些方面已经有了比肩甚至超越人类顶尖专家的能力。与此同时,“法律+人工智能”的模式在法律界也已经成为一个新的发展方向,美国一些州法院已经开始将人工智能技术普遍用于审前保释或判决后的假释风险评估中,加拿大科技公司开发的ROSS法律人工智能项目利用IBM Watson的平台进行技术开发与升级,能够识别用户自然语言问题,并给予精确、快速的回答,目前ROSS已经在国际上获得多家知名律师事务所客户[1]。案多人少、錯案频出一直是困扰我国司法审判工作的难题,近年来人工智能技术的飞速发展似为我们解决这一难题指出了一条道路,2016年7月由中办国办印发的《国家信息化发展战略纲要》中提出“建设智慧法院,提高案件受理、审判、执行、监督等各环节信息化水平,推动执法司法信息公开,促进司法公平正义。”将“智慧法院”建设作为我国信息化发展战略的重要组成部分,拉开了我国法院人工智能审判系统建设的序幕,于是各地法院纷纷上马了自己的人工智能项目,目前上海、北京、浙江、江苏、广东、贵州等地法院均已推出了自己的人工智能办案系统,其中比较成功的有上海法院的“206”刑事案件智能辅助办案系统,北京法院的“睿法官”智能研判系统及江苏法院的智能办案工具。在审判方面,人工智能可以以现有的大量司法案例数据为基础,通过深度学习,基于智能算法,对海量案件进行分析,做出相应的法律判断,实现“大数据”与“专家经验”完美结合[2],当前智能审判已经能够对法律关系简单的案件做出相对准确的判断,可以想见,随着技术的进步,人工智能在法院必将更有用武之地。

2 未来人工智能可能给法院带来的风险

与其他学科不同,信息技术的发展具有发展速度迅猛,更新迭代快速的特点,人工智能亦处于高速的发展之中,与此同时,近年来人越来越多的人开始对工智能的迅猛发展表示担忧,特斯拉汽车创始人艾伦·马斯克及著名科学家霍金都曾公开表达过对人工智能的发展可能对人类社会带来威胁的担忧,虽然能够完全取代人类的所谓强人工智能目前还遥遥无期,但是任何一项新技术的广泛应用都会改变人类现有的生产工作及交往方式[3],技术是一把双刃剑,司法作为正义的最后一道防线,所以在司法人工智能的应用中更应对其所能带来的相应影响保有充分警觉并尽力规避,总体来说,以下问题需要注意:

2.1 系统性错误风险

2018年前文提到的智能医生Watson就被爆出给多名癌症患者开错了药,给有出血症状的癌症病人开出了易出血的药物,无独有偶,美国亚马逊公司的人脸识别软件也曾闹出过将多名国会议员识别成罪犯的笑话,上述例子在人工智能领域并不罕见,通常情况下,人工智能的效率及准确率是远超人类的,但是是系统就难免出现漏洞,一旦出现漏洞,人工智能则可能出现错误。人工智能出错和人类出错有一个区别,就是人类出现差错往往体现在个案上,比如医生可能因为一时疏忽等原因为某个病人开错药,但其结果往往只影响到具体的患者,但人工智能如果存在漏洞,其出错则是成批出错,最后可能造成大错。另外,所有的人工智能系统都是网络化的,每一个终端都与系统相连并相互影响,而计算机的思维是不会变通,不会反思,它只会以设定好的目标为方向继续执行指令,美国股市曾经多次出现过因为计算机系统而引发的股灾,因为人在设计计算机操作股票时,为了确保在暴跌时他们的委托人能够立即止损,会瞬间抛售掉手中的股票,而这种操作会触发另一台计算机的止损条件,于是形成雪崩式的链式反应,造成股灾。司法人工智能领域当然也存在上述的风险,更为严重的是,随着司法人工智能的发展,在信息交流极度通畅的今天,最有效的智能算法会迅速的被各地法院运用,此时一旦算法出现漏洞,则可能出现大面积的错误,而此时的错误就并非个案错误,而是系统性的类案错误。司法活动对当事人乃至对社会都有着巨大的影响,鉴于此,人工智能与法院工作的结合更应采取保守的态度,稳扎稳打,不宜冒进,确保引进的是经过市场考验的成熟且可靠的技术,同时应密切监视系统的运行状态,建立高效的系统故障响应机制,确保将风险降到最低。

2.2 法官主体性丧失风险

虽然当前司法人工智能系统还很不成熟,但是随着技术的不断发展,智能阅卷、智能证据审查、智能庭审系统、智能文书起草、智能案例及法条推送甚至智能裁判结果建议等人工智能功能将逐渐完善,法官收到案子后拿到的是经过系统提炼过的案件报告,证据亦经过系统的智能筛查及认证,系统再向法官智能推送类案案例及相应法条,法官需要做的工作似乎就是依据人工智能给出的上述材料顺理成章的作出裁判,如此一来就会产生一个疑问,这样形成的裁判结果究竟是法官作出的还是人工智能系统作出的?当系统作出的判断正确率远高于人类时,人类法官面对系统给出的判断时将很难有产生不同意见的自信,由此产生的风险就是法官可能在办案过程中形成路径依赖,过于信赖系统给出的判断从而怠于自主积极的思考,以致业务能力生疏,甚至沦为系统的助手。另一方面,在司法改革的今天,司法责任制要求法官对案件的结果负责,而互联网的发展使任何一个判决都可能在互联网上迅速发酵,最后形成舆论危机,在这种情形下,法官具有天然的风险规避倾向,此时,人工智能系统给出的标准化答案无疑将成为其最稳妥的方案。因此,如何厘定法官与人工智能系统的关系,保证法官的办案主导权,这也将是我们今后将要面对并不断探索的课题。笔者认为,在法院人工智能系统的建设过程中,我们要明确人工智能系统“为法官节省体力而非脑力”的原则,确立人工智能的辅助性地位,防止系统的越俎代庖。

猜你喜欢
风险人工智能算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
人工智能与就业
一种改进的整周模糊度去相关算法