强弱人工智能产品之法律地位再思考

2018-05-31 02:49张洁
商情 2018年14期
关键词:能动性社会性主观

张洁

【摘要】本文的写作缘起是在阅读了华东政法大学法律学院著名学者刘完权“人工智能时代的‘内忧外患与刑事责任”一文后引友的有关强弱人工智能产品法律地位的一些思考。在“人工智能时代的‘内忧‘外患与刑事责任”一文中,作者对强弱人工智能产品予以了定义并以刑法学的视角从刑事责任入手分别对其法律地位予以了深度剖析。关于弱人工智能产品,作者认为因其不具有辨认和控制能力,所以仅仅是人类改造世界的一种工具,不具有独立的法律地位;而强人工智能产品因其具有辨认和控制能力,可以自主决策和行动,所以承认其主观故意和过失等心理状态,具有独立的法律地位。本文赞成其关于弱人工智能产品的观点,但是,有关强人工智能产品的法律地位本文进行了一些新的思考:本文认为不适宜承认强人工强智能产品的法律地位,并且其应用仅限于科技研究领域,为“弱人工智能产品”的完善提供技术支撑,而不能以“产品”的形式投放到市场交易中,予以推广应用。本文将从人类与强人工智能产品的关系、人类大脑结构与强人工智能产品结构、法律演进发展的社会性以及人类主观意识内容的社会性、强人工智能产品发展的科技性及其主观意识内容的算法、程序和深度学习性来论述给予强人工智能产品独立的法律地位是不合理的,也是不可行的。

【关键词】强人工智能产品强人工智能产品的科技性人类的社会性法律发展的社会性

一、人类与强人工智能产品的关系

华东政法大学刘宪权在“人工智能时代的‘内忧“外患与刑事责任”一文中从刑法学的角度指出“以人工智能产品是否具有辨认能力和控制能力,可以将其划分为弱人工智能产品与强人工智能产品。弱人工智能产品不具有辨认和控智能力,仅能在设计和编程的程序范围内实施行为,实现人类设计和编制程序的目的;强人工智能产品具有辨认和控制的能力,能在设计和编制的程序范围外实施危害社会的行为,其具有独立的人格和刑事责任能力”,其观点肯定了“强人工智能产品”独立的法律地位。先不论“强人工智能产品”是否具有独立的法律地位,本文并不赞成“强人工智能产品”以“产品”的形式流入市场予以大规模推广应用。2017年4月27日,大名鼎鼎的物理学家、剑桥大学教授史蒂芬·霍金(StevenHawking)在北京召开的主题为“天?工?开?物”的全球移动互联网大会(GMIC)上发表了“让人工智能造福人类及其赖以生存的家园”的演讲,其中捉到“强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。”人工智能的逐步强大确实会带来巨大的社会和经济效益,但是,“人类主导型”的社会的稳定性更要求我们必须时刻保持清醒的头脑,坚持辩证的思维,警惕强人工智能产品塑造一个“人工智能社会”,从而颠覆“人类社会”。阿西莫夫的科幻作品中,已经开始担忧机器控制的世界有可能对人类本身带来巨大的威胁,因此,其首先提出了“机器人学三大法则”:①机器人不得伤害人,也不得见人受到伤害而袖手旁观;②机器人应服从人的一切命令,但不得违反第一定律;③机器人应保护自身的安全,但不得违反第一、第二定律。仔细思考,其机器人“三大法则”本身就存在着明显的矛盾:“一方面要求机器人应该绝对服从于人,另一方面有要求機器人要具有一定的主观判断性,即在人的利益与机器人的利益发生冲突的情况下,应该将人类的利益置于机器人的利益之上”。其矛盾之处正如同“要求一个人既要绝对服从于另一个人,又要有自己独立的判断能力”,二者是不可以共存的,若要真正将“强人工智能产品”提到与“人类”相同或者相似的地位,那么这种观点似乎有点本末倒置的感觉,“人类”相比较其它动物而言,最明显的特征是其“主观能动性”,要将“主观能动性”视为人类的“自然特征”的话,那其“服从性”就是人类的“社会特征”,是在特定的社会历史时期或者特定的社会环境场合中形成的。可见,“强人工智能产品”与“人类”本身就存在着天壤之别,“强人工智能产品”是先有的“服从性”,后有的“主观能动性”;而“人类”则是先有的“主观能动性”,后有的“服从性”。人类之所以能够在地球上居于“主导地位”延续千万年,正是其主观能动性不断进化的结果,要想“人类”的主导地位稳固地延续下去,那么这种“主观能动性”就不能受到任何的挑战,一旦强人工智能产品具备了可以自我进化,自我演变的主观能动性之后,其一定会以其特有的方式不断进化,人类将难以阻挡,正如同其它生物无法阻挡人类的进化一样。因此,为了保证人类的绝对“主导”地位,在强人工智能产品“绝对服从性”与“主观能动性”不可兼得的前提下,应该舍弃强人工智能产品的“主观能动性”,坚持其“绝对服从性”,其“主观能动性”的探索仅限于科技研究领域,而不能以“产品”的形式予以推广应用,采用这样的方式,既不影响我国与外国在人工智能方面的研究竞赛,有利于人工智能技术的不断提高,又有正确处理“人类”与“强人工智能产品”之间的关系,维挣“人类主导型”的社会的稳定格局。

二、人类大脑结构的复杂性与强人工智能产品智能复制的局限性

人类与强人工智能产品存在本质区别,“正如人类的大脑是一个复杂而精致的系统,尽管当代神经科学不断深化我们对人脑的认识,我们仍然不能完全了解大脑的运转机制”,对于人类大脑的运转机制尚是一个未知数,又怎敢断言“机器人”大脑与“人类”大脑相同或者相似呢?因此,实现强人工智能产品完全等同于“人类”是不可能的,即使是在‘‘弱人工智能产品”上,“人工智能”也只能大致效仿“人类智能”的某些方面,而不能精确效仿。2016年5月7日,一位40多岁的企业家和科技爱好者JOs~ua Brown正坐在TeslaModels Sedan,这时,一辆拖车穿过了其道路。Tesla,一直致力于其自动驾驶系统,但是其系统并没有将白色的拖车于佛罗里达明亮,阳光的天空相区分。Brown先生也没有及时地踩住刹车,他的Tesla以每小时74英里的速度立刻被撞死。试想,区分白色的拖车与明亮阳光的天空对于司机而言是十分简单的,如果司机未将二者予以区分,那就是未能尽到合理注意的义务,就会存在过错,如果其过错行为导致了财产或者人身损害的发生,其就应该承担侵权责任。但是,这里“合理注意义务”理论内涵的前提基础是基于“人”独特的大脑结构而言的,虽然并不知道人脑的独特结构是什么。纵然自动驾驶系统有类似于人类的设计,但是,若以这样的“合理注意义务”来要求自动驾驶系统的话,是不合理的,甚至有些苛刻。因此,从人类大脑结构的复杂性与强人工智能产品“智能复制的局限性”这一角度来看,以“人类大脑结构特征”为前提产生的法律概念无法准确适用于“强人工智能产品”,因此,承认“强人工智能产品”独立的法律地位是不可行的;

三、法律发展的社会性、人类发展的社会性、强人工智能产品发展的科技性

具体的法律不仅是一种法学现象,其本质是一种社会现象,只不过该社会现象在不同的历史阶段有不同的表现,法律的根本属性是社会性。“法律演进”(Evolution of Law)意指某一个国家或者社会之中的法律制度,在整体上从落后状态向先进状态的不问断却是长期而缓慢的发展或者进步过程;“法律发展”也是一个整体性的概念,它指的是与社会经济、政治和文化等全面发展相适应、相协调的,包括了法律制度的变迁、法律精神的转换、法律体系的重构等在内的法律进步过程与趋势。如果说法律演进表征的是法律制度从现在向过去回溯的整体上的变迁路径与发生的动态过程,那么,“法律发展”更关注的是法律制度在当下所发生的以及面向未来所可能发生的动态过程。法律作为社会调整以及控制的技术,是人类对自身社会的性质、经济、政治、文化以及其他社会关系及其客观规律的科学认识的结晶。社会发展引导与促进法律演进,他们是决定和推动法律演进的最终力量。但是,法律的演进与社会的整体发展又是相互适应的,一方面,法律演进由社会发展所驱动,是社会发展的结果。没有经济的发展、政治的发展和文化的发展,法律既无必要,也不可能。另一方面,法律演进对社会发展也起着引导、保障和推动作用。可见,法律与社会紧密相关,其深深植根于社会整体以及在社会中生活的人类个体。

刘宪权在文章中提到:“虽然应该承认强人工智能产品具有成立故意或过失的主观罪过判断,应与对自然人责任主体的主观罪过判断有所区别。原因在于,在认定自然人责任主体的主观罪过时,通常以一般人的认识能力作为基本标准并结合行为人自身的特殊情况进行判断。自然人责任主体形成对事物的认识是靠学习和生活经验积累;而强人工智能产品形成对事物的认识是靠程序、算法和深度学习而不是靠生活经验的积累,且设计者设计大部分强人工智能产品的初衷可能是为了让其在特定领域中发挥作用,因此,强人工智能产品的认识水平在很大程度上会被局限于特定领域,而缺乏对社会整体的认识,其判断是非善恶的标准也就有可能异于常人。”由此可见,人类主观意识内容是形成于社会生活中,而强人工智能产品的主观意识内容是形成于算法以及程序中,首先,从二者与法律的联系来看,法律与社会的联系相比法律与算法和程序的联系要更为直接,法律直接反映社会生活内容,不管其滞后还是超前,而算法和程序本质上是一种自然科学,其是由人类植入到强人工智能产品中,并且这种植入往往需要一定的时间周期来研发和试验,就算成功植入,也不町能与社会生活在人类头脑中所反映的内容一模一样;就算达到一模一样的理想状态,强人工智能产品以其自身结构的特殊性,也不可能会完全依照人类的预期去活动,这样一来,势必会在同一社会状态下出现两种差异的“主流意识内容”,用反映“人类意识内容”的法律来规制“强人工智能产品”的意识内容,无疑是不合理的,也是不公平的,会使人类陷于一种骑虎难下的尴尬境地,扰乱整个社会秩序。因此,鉴于法律演进发展的社会性以及人类深深植根于社会中,及强人工智能产品发展的科技性以及强人工智能产品深深植根于算法、程序以及深度学习功能中,以反映“社会生活”的“人类主观意识内容”的法律来规制反映“程序、算法以及深度学习功能”的“强人工智能产品的主观意识内容”是不合理的,也是不公正的。因此,从法律演进发展的社会性、人类发展的社会性、强人工智能产品发展的科技性角度来讲,均不适宜承认人工强智能产品独立的法律地位,其应用仅限于科技研究领域,为“弱人工智能产品”的研发与推广应用提供技术支撑,而不能以“产品”的形式投放到市场交易中,予以推广应用。

“弱人工智能产品”不同于“强人工智能产品”,因其不具有辨认和控制能力,其完全可以作为一种人类改造世界的新型工具以“产品”的形式投放到市场中,予以推广应用。我们可以将弱人工智能产品看作是人体的延伸,其可以避免一些由于人为失误与懈怠所造成的损失,也有利于解放劳动力,弥补人类自身技能的不足。与一般的产品相比,弱人工智能产品的优势在于其可以在某一方面完全替代人类自身的行为,达到人类预期的目的,如果將其合理应用,将会实现霍金所言,用“人工智能”造福于人类及其赖以生存的家园。

参考文献:

[1]张文显.法理学[M].北京:高等教育出版社,北京大学出版社,2016.

[2]柴占祥,聂天心,Jan Becket.自动驾驶,改变未来[M],北京:机械工业出版社,2017.

[3]刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J],东方法学,2018.

[4]霍金GMIC演讲全文:让人工智能造福人类及其赖以生存的家园[Z].微信公众号,201 7—11—26.

[5]Kartik Hosanager,Imran Cronk[J].哈佛商业评论(科技),2016.

猜你喜欢
能动性社会性主观
基于新课程改革的英语教师负向能动性及其应对策略
以户外混龄活动促进社会性发展
社会性死亡
the Walking Dead
孤独会造成实质性伤害
后印象
有主观小量倾向的“数+量/名+之+形/动”格式
挣多少钱,才可以买到快乐
项目教学法在《微机原理》教学中的应用
对立与存在