论高级人工智能的有限法律人格

2019-12-14 13:51
法制博览 2019年13期
关键词:行为能力人格权利

谢 月

澳门科技大学,澳门 999078

一、人工智能

(一)人工智能的含义

人工智能是近几年人类顶尖科学技术发展的集合体代表,它主要是通过计算机技术的高速发展而衍生的一个新兴产物。人工智能本质上是机器数据自主思维处理方式的一种,人工智能一般由半导体结构,机器驱动和云计算组成,表现为不仅直接执行指定命令计划,而且可以依据已有的基础性物质、数据、逻辑、分析进行自主学习、自主升级从外界获取的新知识从而不断地增强其判断能力和决策能力。现在高级人工智能区别于之前的简单集成电路反应体,最主要的特征表现为高度的"智能化"和"类人化",即人工智能和人类日常行为表现相似,有独立的推理判断逻辑能力,有自己的思维和意识。人工智能拆分来看,关键词是"人工"和"智能",简单的定义来讲,"人工"与"自然"相区分,是以人力能制造生产达到的地步,"智能"是与"非智能"相区分,按照目前的定义来讲,就是具有相对独立的推理判断逻辑能力,有自己的思维和意识,能够表现出和人类较为接近的思维和行为模式。简而言之,人工智能就是人工实现的智能化产物。

(二)人工智能的分类

人工智能发展是由低级到高级的,在研究的初期阶段,人工智能并不是今日人们所理解的这么智能化的产物,大多数是一定算法编程并以集成电路的简单循环路径,只能执行一些命令和任务,在算法控制下模仿人类的行为和思考模式,这种人工智能称之为“初级人工智能”。所谓初级人工智能指其智能和行为是人类提前设定的,不存在意志和主观判断,只受指令和程序影响做一些机械性往复运动罢了。初级人工智最明显的特征就是没有自主的逻辑能力,思维能力,判断能力,不能在已有的基础上学习升级。然而,高级人工智能通过合适的程序设计,便可以有自主感知能力、自主思维能力和自主行动能力,从这个角度来说,高级人工智能具备自己的意志和思考方式,拥有高度“类人化的能力”,相信在不远的将来,人类与高级人工智能的思维意识模式差距会逐渐缩小,以日常的行为表现难以直接区分两者的不同,高级人工智能会逐渐融入人类的社会生活,改变人类现有的生活方式。所以,以一种简单的方式来划分目前的人工智能,主要包括低级人工智能和高级人工智能。由于低级人工智能的弱“弱智能化”,我认为不存在讨论其法律人格的必要,因为其本质上只是人类工具的一种,不具备讨论的意义,因此我们主要研究高级人工智能。

二、高级人工智能的有限法律人格

目前业界流行的三种理论,无法律人格,有限法律人格和完全法律人格学说,针对高级人工智能的发展状况,我们应该采取哪一种学说呢?如果人工智能不能获得法律拟制人格,即采用“无法律人格”学说,那么人工智能没有法律人格,就不会有自己的权利义务内容,也不能独立担责,也没有研究的必要了。讨论人工智能法律人格问题的最终是为了构建合理合法的人工智能管理应用体系,通过法律手段保障人工智能和谐有序发展,对人类带来益处,同时防范人工智能可能带来的危险。当前人工智能,特别是高级人工智能,已经能够独立作出一定的决策,有自己的意思观念和价值判断。在社会生活中可以代替人类做一些简单的法律交易行为,产生法律后果,尤其是在知识产权领域,且不论人工智能自己衍生的作品归属权问题,但这种权利肯定是受法律保护的。尽管目前技术上能满足法律人格的人工智能还未出现,但是就已经出现的现象来看,高级人工智能成为法律主体的必须性和可能性已经成立了。由于技术的限制,人工智能法律拟制获得法律人格并不是完整的,必须存在一定限制的,定义为“限制法律人格”。有限法律人格理论认为,高级人工智能作为具有理性认识并能作出独立意思表示的特殊法律主体,但是这种法律人格是存在局限性的。从人工智能的表现来看,以及具有独立自主意识和一定的思维能力了,可以在一定程度内享受民事权利承担民事责任,但是在部分领域存在限制。综上所述,依据斯通纳对于法律权利条件的理解,人工智能具有法律保护的意义和效果,所以高级人工智能应该满足获得法律权利的条件,也意味着人工智能是可以取得法律人格的。但是毕竟人工智能还处于发展之中,即使目前种种表现出来的高度拟人化,也不能认定人工智能能够完全取得法律上的人格,特别是在侵权救济问题上,大多数人工智能是没有自己独立的财产的,因此为了保护相对人和第三人的利益,高级人工智能的法律拟制人格必须受到一定的限制,所以笔者更倾向于“有限法律人格”学说。

三、有限法律人格下的权利义务责任划分

第一在权利方面,按照权利理论划分,权利包括政治权利,经济权利,社会权利和其他权利,在有限法律人格规制下,我们主要考虑政治权利的局限性。由于政治权利的全系社会、国家和民族的发展,其本身的特殊性要求,所以,高级人工智能在政治权利方面享有的权利必须得到限制,不然会引发一系列道德和安全危机。在民事方面的权利也要得到一定的限制,按照目前的发展技术,高级人工智能的婚姻家庭权,继承权没有实现的可能性和必要性。从总体来说,关于高级人工智能的权利在法律上应该予以肯定,但是高级人工智能的权利并不是完整的,应当受到一定程度的限制,不能完完全全的享有和人类一样的权利,考虑到道德和伦理的限制,高级人工智能的权利的范围也确定了下来。

第二是高级人工智能的行为能力和意思表示能力有限。行为能力指的是法律主体是否能够独立作出一定的意思表示,产生相应的法律后果的能力。行为能力以法律所认可的权利能力为前提,公民具有行为能力,意味着他对自己的行为及可能产生的后果独立地承担法律责任,是否有正常的理智以及是否达到一定年龄就成为确定公民有何种行为能力的依据。高级人工智能尽管在形式上有自己的思维和意识,能够作出一定程度的意思表示行为,产生对应的法律后果,但是这种行为能力是存在限度的,为了保护对方和第三人的安全和利益,我们认为高级人工智能的行为能力和意思表示能力有限,类似于人类公民当中的“限制民事行为能力人”。因为从理论上讲,人工智能在一开始已经被人类预设一定的指令和算法,在一定范围内执行命令。例如保姆机器人,可以在日常生活中代替主人进行一定的简单交易行为,比如买菜,收快递等等,这些简单的意思表示行为仍然在其预设的指令程序范围之内,为了促进交易的简便性和有效性,我们应该承认高级人工智能享有的这一部分的法律意识表示能力,承认这一部分合同的有效性,整体上来看和“代理人制度”相似,限制高级人工智能的行为能力和意思表示能力,我们并不是否认高级人工智能的自主意识能力,而更多的是保护交易方的安全,如果人工智能的这项权利不受限制,它们做出的意思表示行为远远超过其“代理人”授予的权限,给“被代理人”和交易方带来了不可逆转的损失,如果简单的归责会导致一方的不公,所以,高级人工智能的行为能力和意识表示能力必须受到一定的限制,其限制的范围应该依据交易的大小,重要性以及授权范围来综合考虑。

第三是高级人工智能责任能力有限。责任能力,是指权利主体以自己的行为履行法律义务和接受不履行义务时的惩治性法律后果的资格。在民事法律关系方面,有经济能力的无行为能力人或限制行为能力人,因为自己的行为造成他人财产损失,要以行为人自已的财产进行赔偿。对犯罪行为承担刑事责任的能力:凡达到刑事责任年龄,精神和智力正常的人,即具有刑事责任能力。无责任能力的人,对自己的行为不承担刑事责任。但其对自身行为所产生的后果并不能完全承担责任。责任能力与行为能力紧密相连,简单来说就是该法律主体能否承担自己行为导致的法律后果的能力。虽然高级人工智能在实践中表现的行为独立越来越明显,但其在造成侵权后对侵权责任的承担较自然人等法律主体来说仍显不足,特别是在当前的技术水平还难以完全实现强人工智能的意识能力的情况下,我们不能直接用规制人类的法律手段来要求高级人工智能承担自己的行为后果。比如,高级人工智能实施危害一定法益的行为,依法应负刑事责任时,其是否能作为犯罪主体承担相应后果值得质疑。这种质疑主要体现在高级人工智能承担刑事责任所带来的效果难以能达到刑罚的真正目的,难以使受害者获得权利的救济和心灵的慰藉。另外,在民事责任方面,我们之前谈到了高级人工智能的有限行为能力和意识表现能力,让其行为在一定界限范围内运转。可是如果一旦发生了超越授予权限的法律事实,那么该法律后果应该怎么承担呢?民事上一旦侵权责任发生,大多数依据填平规则,将被侵权人所受损失填平,而且大多数是以金钱给付的方式,可是按照目前的人工智能发展状况,一般的人工智能没有自己独立的财产,所以我们应当重新考虑责任的承担。高级人工智能的法律人格获得方式与公司的法人人格拟制极为相像,因此,我们可以考虑引入公司法上的“法人人格否认制度”,在重大侵权事故或者责任以后,综合利益的考虑,我们应该否认人工智能的法律人格,“刺穿其面纱”找到人工智能背后的所有者和实际掌控者,让人工智能的所有者来实际承担侵权责任;或者我们可以引进“第三方强制责任险”,损害发生以后,依据法定程序让保险公司来承担相应的侵权责任。从这个角度来讲,为了保护其他的合法权益,高级人工智能的责任能力也是受到限制的,其责任能力的大小应该依据范围当时的具体侵害和损失情况来确定。

四、对人工智能法律人格的规制建议

(一)理论立法上的重视

由于目前人类科学技术日新月异,人工智能的发展更是以我们不能预测的速度进行。针对越来越多涉及高级人工智能法律人格问题的客观事实,然而法律上却难以找到确切的依据和标准。一个国家社会应有的是“立法先行”模式,但是针对人工智能法律人格问题相关立法进展缓慢,从而来带来了一些的相关问题。首先是人工智能的法律人格界定不明,导致其法律地位无法确定。目前的人工智能依据具有了自己的思维和意识,到底这种程度的自主意识满不满足获得法律拟制人格的要件?相关立法应该给出具体的法律答案和认定标准,以此来解决这个初步问题。其次是关于关于人工智能的法律拟制人格是界限问题,因为这个关系到人类现有社会的道德伦理观念和合法权利保护,如果不明确具体界定出人工智能的法律人格界限,限制其一定的法律权利,行为权利和责任能力,那么对现有的法律体系逻辑乃至人类赖以生存的伦理社会体系产生巨大冲击和破坏。最后就是重视理论建设,“百家争鸣”对学术的发展有很大的好处,但是也不能一直放任其自由发展,学术界对人工智能的理论越来越多,不排除很多学者会为了某种经济和社会利益,提出一些不负责的理论,我们应该重视这个问题的理论研究,提出相对合理正确的看法,从而达到“谣言止于智者”的效果。

(二)把握好人工智能发展的边界

人工智能的规范和调整以及人工智能的发展边界问题,必须引起我们的重视,不论人工智能的法律人格是否能够在法律上最终获得承认,人工智能发展边界和限制问题也是我们应该首先考虑的。在前文考虑三种不同学说时候我们就提到了法律人格应该受到限制,相应的其权利能力,行为能力和责任能力也具有相应的界限。对于人工智能在不同领取的限制,如果用一一列举的方式是肯定不现实的,但我们可以以提纲挈领的方式说出主要的指导思想,笔者认为解决人工智能发展的边界问题主要依据三个原则。第一就是尊重现有的道德和伦理观原则。道德和伦理规范则不受生产力发展水平的限制,其可以超前于经济基础的发展而预先设立。在人工智能的迅速发展过程中,风险总是伴随着便利,为了防止人工智能给人类社会造成更多的风险,建立健全人工智能的伦理体系势在必行。人类社会现有的道德伦理观念,是千百年来逐渐发展建立起来的,人工智能的发展必定会对其带来冲击,但是一定要时刻怀有敬畏之心,尊重和遵守人类社会的道德和伦理规范。二是保障人类的安全和自由。安全是首要问题,如果人类社会的安全不能保障,反过来人工智能的发展也会受到颠覆性的革命。自由也是人类最高目的性追求,人工智能的发展必须保障人类的安全与自由,这是最低限度的要求。如何保障人类的安全和自由,主要体现在以下两个方面:第一是人工智能的发展不能对人类的安全产生威胁。人工智能不论发展到什么阶段都应将“为人类服务”作为初衷,而不能违背初衷,对人类造成伤害尤其是在当前相关的法律法规缺位的情况下,更应该保证人工智能的研究在不会对人类安全产生负面的情况下进行。第二是绝对不能触犯人类的主体地位和权利。人类的对人工智能的绝对管理,是人的尊严的象征,更是人类赖以生存的基础。人工智能的发展不能影响人类这项权力,总而言之促进人类与人工智能共同和谐发展的基础,就是要坚持处理好人类的管理和人工智能的自由和社会安全原则。三是要坚持以人类政府监管为主导。建立健全人工智能的伦理规范体系,还需要政府的介入和监管。法律法规的制定与完善必须紧跟科学技术的发展步伐,在相关法律法规暂时缺位的情况下,政府的监管至关重要。若此时政府监管不力,则极有可能导致人工智能等新型事物处于无法可依的状态,由此会严重影响人们对于人工智能的看法,产生各种矛盾。另外,即使在发展的将来,人类制定出了一套严密的人工智能管理法律制度,但是仍然少不了相关政府机构的监管实施,人类政府的管控十分重要,对于之前的社会伦理道德和人类的自由安全,是最有效、切实可行的办法,因此我们必须要坚持以人类政府监管为主导,科学健康的发展人工智能。

猜你喜欢
行为能力人格权利
共产党人的人格力量
我们的权利
远去的平凡背影,光辉的伟大人格
论不存在做错事的权利
论君子人格的养成
权利套装
基于行为能力培训的组织人才战略管理研究
通信部队作业人员电磁辐射暴露对神经行为能力的影响
无行为能力人实施法律行为的正当性
爱一个人