建设以阿西莫夫机器人学法则为基础的现代人工智能伦理
——以《机器人学与人工智能示范公约》的解读为基础

2020-12-09 20:06张建文
山东社会科学 2020年7期
关键词:阿西莫夫公约伦理

张建文

(西南政法大学 人工智能法律研究院,重庆 400031)

新兴技术,特别是可能产生颠覆性效果的技术研发必须有相应的且被有效遵守和监督的科技伦理为基础。其中,智能机器人和人工智能技术就是极为迫切地需要建设详细的伦理规则的技术领域。图灵测试,作为最重要的智能机标准,几乎也是关于智能存在与否的唯一可操作的标准,(1)[英]博登:《人工智能哲学》,刘西瑞等译,上海译文出版社2001年版,译者序第2页。本身就蕴含着这样的矛盾:“只有我们不知道机器在想什么、怎么想时,才认为它有智能。”(2)刘慈欣:《序二 AI时代的曙光》,载李彦宏等:《智能革命:迎接人工智能时代的社会、经济与文化变革》,中信出版社2017年版,第19页。也就是说,人工智能的本质中就隐含着它们最终失控的可能性。笔者曾经提出过,阿西莫夫的机器人学法则,并不是法律原则,也不是法律规范,而应当属于关于调整机器人与人类关系的伦理原则。(3)张建文:《阿西莫夫的教诲:机器人学三法则的贡献与局限》,《人工智能法学研究》2018年第1期。既然作为伦理原则,那就是说可以作为机器人学伦理规则建设的伦理指针,以机器人学法则为基础提出机器人学和人工智能发展的伦理规则。2017年11月,俄罗斯自治科研组织机器人与人工智能调整问题研究中心的负责人Андрей Незнамов和该中心学术顾问Виктор Наумов起草了《机器人学与人工智能示范公约》,特别是提出了《创建和使用机器人与人工智能规则(1.0版)》。这个公约提出的相关机器人学与人工智能的伦理规范,提供了一个机会去观察以阿西莫夫机器人学法则为基础的机器人学与人工智能发展的伦理规则何以可能与如何构建的问题。诚然,目前关于机器人学与人工智能发展的伦理规则并不是只有俄罗斯学者提出的示范公约,而是有多个版本,如2017年初美国的《阿西洛马人工智能原则》、2018年1月中国有关单位发布的《人工智能标准化白皮书(2018版)》、2018年4月10日在布鲁塞尔签署的《人工智能领域合作宣言》、2018年12月18日欧盟委员会人工智能高级专家小组发布的AI 开发和使用的《可信赖 AI 的道德准则草案》等。选择俄罗斯学者提出的《机器人学与人工智能示范公约》作以解读并不纯粹出于笔者能够深度阅读俄语文本的个人偏好,而是基于该文本所具有的特点,那就是非常全面和详细,涉及到机器人学和人工智能的一般概念、安全规则、创建和使用机器人的规则、人工智能的研发规则、军事机器人的使用限制规则以及该公约所提出的机器人学与人工智能规则的发展机制等。当然,在解读的过程中,笔者也会使用到其他版本的人工智能伦理规则作为参考。

一、以阿西莫夫机器人学法则为基础的现代人工智能伦理何以可能:人工智能发展与人类命运共同体的安全焦虑

根据该公约作者们的观点,之所以起草该公约,是考虑到以下因素(4)参看《Модельная конвенция о робототехнике и искусственном интеллекте》前言部分,http://robopravo.ru/matierialy_dlia_skachivaniia#ul-id-4-35.:在现阶段人类面临着确定最近几十年的发展道路的全球性目标;思考科技进步的角色和确定其所提出的可能性,以及评估科技进步对世界秩序、国家、经济、社会和人类个体的影响的风险与后果,成为现代性的优先任务之一;在科技进步的框架内最近几十年来变得日渐广泛应用和积极发展各种用途的包括机器人在内的物理网络系统;人类整体寄予发展机器人学与人工智能太多的期望,它们客观上能够解决诸多积累的问题并推动全球社会的发展;在开放前景的条件下决不能忽视由于使用新的机器人学与人工智能技术而可能产生的潜在危险和威胁;决不能排除可能会产生对现存世界秩序或者整个人类种族产生灾难性后果的大规模应用机器人与人工智能的场景;尽管机器人和物理网络系统的数量在增长,整体而言全球社会并未研究出关于使用它们的互动规则的综合观念;到目前为止尚不存在关于使用高度危险的机器人的协议或者规则,这不能不引起不安,它们由于自己的构造和用途能够给相当多数的人们造成伤害;相当部分的人们关于人类与智能机器人的关系的观念主要是通过大众文化形成的,而且常常局限于艾泽科·阿西莫夫的机器人学法则,这可能会导致误解,认为上述法则将会在研发所有的物理网络系统时被广泛考虑;尽管世界上有几个国家在近年来开始发展人工智能立法,但是国际法和大部分民族法律体系并没有提出专门的调整与使用机器人有关的社会关系的模式和机制;在当前所形成的条件下就产生了联合所有利益相关的国家、创新行业代表、国际科学团体和专家制定创建、发展、推广、使用和传播物理网络系统领域中的一般立场、法律规范和伦理规范,致力于理解必须全力创建作为开放发展文本的本公约,邀请所有利益相关方参与讨论和完善该公约。

机器人学与人工智能的伦理规则之所以必要,端在于新兴科技发展与进步对人类整体的未来影响的不确定性,这种不确定性引发的焦虑感,迫使人们不得不考虑对科学家的理论与技术创新活动施加必要的限制,以保障科学界从科技发展中所释放的力量不会毫无方向性,以至于毁灭了创新者自己和创新者所在的或大或小的人类社会,乃至整个人类社会。

机器人学与人工智能的快速发展引起了人类整体的深深的集体焦虑和迫切的安全担忧,为了给机器人学和人工智能的发展确定安全、可靠、可控的方向,制订人工智能伦理的倡议者们呼吁全世界的专家学者们共同参加关于这一问题的讨论,该问题的解决至少在目前是悬而未决且待尽快解决的。根据该公约前言部分的表述,作者们提出该公约的意图在于:“确定由于积极发展物理网络系统而可能会在社会和法律体系中产生的基本问题,总结在不同时期由不同专家们提出的机器人学基本规则,标识解决现存的和(或)可期待的问题的可能方向;倡导在不同国家的专家之间为制订统一的关于创建和使用机器人与人工智能的规则的、伦理的和法律的观念而进行讨论。”(5)参看《Модельная конвенция о робототехнике и искусственном интеллекте》前言部分。

针对机器人和人工智能的法律调整问题,А.Незнамов不无感慨地用所谓的“红旗法案”(6)An Act for Further Regulating the Use of Locomotives on Turnpike and other Roads for agricultural and other purposes (5th July 1865), URL: https://archive.org/stream/ statutesunitedk30britgoog#page/n246/mode/2up (дата обращения: 21.01.2018).暗喻:“机器人化的生产、自动化交通、机器人-医生、可穿戴植入设备等等已经出现,但许多国家且不说完全缺乏立法基础,而且对机器人化也持怀疑态度。正如以前对汽车适用通常的马车的法律那样,现在也正对机器人适用通常的机械的法律。久远过往的教训在物联网时代也完全是现实的”(7)А.Незнамов.Красный флаг для робота.Стандарт.2018.№2(181),С.30.。他和该公约的另一位作者提出了关于适用于不同阶段的机器人创建与使用调整原则,其中综合性的原则可以适用于所有种类的机器人,包括安全与机器人安全优先原则、机器人危险性(或者安全性)感知原则、设计安全原则、通过设计的隐私原则、来自人类一方的对机器人实施监督的原则、禁止机器人主动造成伤害原则;专门性原则主要是用于个别类型机器人的,诸如对高度危险机器人强制适用额外的规则,如黑匣子、红色按钮、行为撤销、切入灾难模式等,再如递推的自我完善的监督原则只能适用于所谓的强人工智能。

二、现代人工智能伦理如何构建(一):适用的主体、对象及其范围

根据该公约的文本来看,作者们将该公约分为前言、介绍性条款、机器人安全规则、创建机器人的一般规则、使用机器人的一般规则、研发人工智能的规则、使用军事机器人的限制、机器人学与人工智能规则的发展,共计8个部分,42个条款。

作者们首先规定了机器人学的主体和客体,将“机器人学领域的研究者、研发者、资助机器人学研究与研发的人,以及机器人的生产者、所有者、占有者、操作者,国家权力机关和任何调控机关,还有使用者和其他与机器人包括具有人工智能的物理网络系统进行互动的人”均称为“机器人与具有人工智能的物理网络系统的创建、推广或者使用进程的参加者”,也就是机器人学的主体。(8)相对而言,在我国,对于人工智能伦理规范的适用主体范围问题,主流的观点将主体范围集中于系统设计者和开发者(参看中国信息通信研究院安全研究所:《人工智能安全白皮书(2018年)》,第30页),而没有考虑从事人工智能基础工作的研究者以及资助研究和研发的人。

机器人学的客体包括“在最宽泛理解上的所有种类的机器人,无论其用途、危险程度、可移动性或者自主性,以及任何形式的具有人工智能的物理网络系统”。作者们特别指出,“在此情况下,除非可以从该公约文本中直接得出不同规定,为示范公约的目的,‘机器人’的术语在公约文本中将被在最广泛的意义上予以解释,也包括机器人化的装置和物理网络系统,具有人工智能的物理网络系统也在其中”。

可以说,在该公约的意义上,机器人的术语涵括了可能不具有人形的机器人化的装置以及具有或者不具有人工智能的物理网络系统。针对前述术语的概念,公约的作者们提出:首先,“机器人”和相近的诸如“机器人化的装置”或者“智能机器人”概念的内容,将根据这些概念在具体国家和(或)针对具体的机器人类型中最广为接受的意义予以确定;其次,实在无法确定时,按照国际标准确定,“如果这些概念的意义无法确定,则可以使用现有的国际标准,特别是ISO8373:2012《机器人和机器人装置. 术语与定义》”。也就是说,国际标准组织制定的相关标准仅具有补充性,是第二意义上的标准。

按照公约作者们的意见,他们所设计的创建、推广和使用机器人的规则具有通用性,可以适用于所有的机器人学主体。但是,规则的通用性并不意味着要排斥其他可适用的规范,相反公约要求尊重其他可适用的法律规范、伦理规范和宗教规范,并赋予所适用的立法规范以更为优先的地位,即“机器人创建、应用和使用进程的参加者有义务了解并遵守机器人被使用地或者被计划使用地有效立法(“所适用的立法”)的要求,亦需考虑到包括伦理规范和宗教规范的其他可适用的规则”。

三、现代人工智能伦理如何构建(二):机器人安全规则

机器人安全规则尽管只是该公约的一部分,却体现了阿西莫夫机器人不得伤害人类整体的零号法则以及机器人不得伤害人类个体的一号法则的基本价值理念。该公约相较于阿西莫夫所提出的机器人与人类关系的较为抽象和简略的伦理原则,创造性发展出了一系列较为详细的实现人类安全优先原则的机器人安全规则。

(一)机器人安全原则的创新与发展

相较于阿西莫夫以零号法则和一号法则为基本内容的人类安全原则,该公约的作者们提出了更为广泛的人类安全视野,其所为的“机器人安全原则”包含了两个层面的含义:一是最大安全保障原则,即“机器人的创建、应用和使用应当在保障个人、社会和国家的最大安全的条件下进行”;二是不得造成伤害原则,这里所谓的不得造成伤害的对象除了阿西莫夫所关注的人类个体和人类整体外,还包括了更为广泛的对象,即“人类个体、人类整体、生物圈和整个生存环境”,体现了更为宽广的人类与自然共生关系观和地球作为人类生存基础观念下的人类安全原则,而非可能被做过于狭窄理解的阿西莫夫式的狭义人类安全观。

(二)人类个体的基本权利保护

对人类的基本权利的保护是机器人安全原则中极其重要的一面,公约的作者们提出了较为一般性的要求,而且其所适用的范围相对较小,即“对机器人所收集和处理的信息的获取与使用不得侵犯人类私生活的不可侵犯性,也(或)不得违反依照所适用的立法对其他种类的保密信息的保护制度”,似乎仅局限于隐私权与个人信息的保护,而对于更为广义和宏观的关于人类尊严与价值的保障则付之阙如。也许作者们也认为,人工智能对隐私和个人信息保护的冲击最大吧(9)韩丹东等:《人工智能太聪明让个人信息如同裸奔》,《法制日报》2017年6月1日第5版;韩丹东等:《人工智能法律风险怎么消弭》,《法制日报》2017年6月1日第5版。。实际上,尊重、保护隐私权和数据保护问题,还直接影响到更广泛的人权,最值得注意的是歧视、言论自由和信息自由。因此,在笔者看来,隐私权与个人信息的保护尽管也是“不可或缺的基本权利”(10)林鸿文:《个人资料保护法(2018最新版)》,书泉出版社2018年版,第48页。,但是并未完全涵盖和取代对人类尊严和自主的价值。

(三)不得造成伤害原则:禁止或限制机器人造成的损害规则

对于机器人所可能给人类造成伤害的情形,公约的作者们明确要求禁止机器人主动造成损害,即“除非本示范公约有不同规定,不允许制造能够自己主动有目的地给人类个体造成伤害的机器人”。这里没有明确表明这里所谓的伤害是何种伤害,从后文关于对人类财产损害的态度可以辨明,公约的作者们在这里谈到的伤害是指对人类个体生命和健康的损害,因为他们提到了“对人类个体的财产的损害的条件、程序和后果由所适用的立法规定”。

对于智能机器人所可能造成的损害,公约的作者们似乎更倾向于限制而不是禁止,而且似乎在一定条件下,如为了预防更大的损害,允许智能机器人对人类或者人类的整体造成一定的损害,从第8条的文本标题“限制智能机器人造成损害”和文本表述上看,该条文的文本可能是最糟糕的,相对于阿西莫夫在零号法则和一号法则与其他法则之间清晰的重要性和绝对性的程度上的划分,该文本的表述是一个严重的倒退,尽管在形式上糅合了阿西莫夫的零号法则和一号法则,“智能机器人不得给人类个体和人类整体造成损害,也不允许以其不作为而造成损害”,但是,该条相对于阿西莫夫作为不附带任何例外条件的绝对性保护对象的理念和意图,公约的作者们增加了例外条款,即“如果造成损害是被迫的且有理由能够预防更大的损害”时,允许造成损害。在这里,由于公约的作者们将以保护人类整体为己任的零号法则和保护人类个体为己任的一号法则杂糅在一起,导致存在一个致命的缺陷或者含混之处,那就是这里允许造成的伤害到底是仅仅针对一个人、几个人或者一个群体,还是允许可以对整个人类整体造成一定的损害以预防更大的损害?从阿西莫夫的机器人学法则的意图和在其所提供的案例来看,似乎应当是在极端的情况下,即在被迫的且有理由能够阻止更大的伤害时允许对一个、几个人或者一个群体造成较小的损害,而不是允许对人类整体造成损害。阿西莫夫将人类整体的保护放在更加突出的地位,从零号法则作为最后产生的机器人学法则,以及其将零号法则单列而不是修改一号法则以涵括人类整体的做法,可以体会到阿西莫夫对机器人学法则的整体发展的新思考。然而,即使做这种更贴近阿西莫夫提出机器人学法则意图的理解,也并不能阻止该公约的作者们在更关键的地方留下(尽管可能是毫无恶意地甚至是怀着善意地留下)有可能摧毁整个不得伤害原则的例外,那就是关于损害的概念的理解:“在此情况下,损害的概念根据智能机器人所掌握的信息确定。”对损害的这种确定方式,可能会为智能机器人造成更多、更大、更严重的伤害留下空间。估计作者们的意图是希望为未来更加接近人类的智能机器人的出现预留空间,其假定的前提是智能机器人会像人类在具体的情况下那样做出不一定比人类更好但也至少不比人类差的适当的判断。这可能是由公约的作者们对人工智能发展前景的极度乐观预测所致,且不说至少在未来数十年内将损害的定义权与判断权委诸智能机器人的决定是不是个明显低劣的决定,但至少说,其中蕴含的将人类在与机器人关系中的中心地位和人类尊严价值的尊重降低至智能机器人水平,或者反过来说,将智能机器人的地位和价值提升至与人类的地位和价值相同甚至略高,这并不是一个符合人类尊严的做法。因为判断对人类个体或者整体的损害是否存在、孰大孰小、是否值得用作防止所谓更大损害的手段等问题,攸关人类自我的判断和认识。

(四)最大安全保障原则:同等风险、人类中心、机器人危险性感知、黑匣子和红色按钮

同等风险规则道出了最大安全保障原则的底线,那就是,“在所有的使用机器人的过程中,人类个体不得遭受较之在没有机器人参与的相同过程中他已经遭遇的风险更大的对其生命和健康造成损害的风险”。

公约的作者们尽管也提出了似乎是最体现人类中心地位的条款,但是这种控制看起来更多的是针对外在行动的而非是内在判断的,是向人类个体提供信息式的而不是事先嵌入其内在设计的,是事后式的和应急式的。

人类对机器人的可控性条款,要求“无论机器人的具体类型的目的特性,机器人应当在最大可能和合理程度上处在人类直接或者间接的监督之下”。这种控制主要是通过任何人能够公开无偿和轻易地获取相关信息,或者特定的主体依照特定程序获取相关信息的方式来实现的,如“所有的关于任何机器人给人类个体、社会和环境造成危险的信息,均应当公开地、无偿地且可轻易地为任何机器人学主体所获取”;再如黑匣子条款规定:“机器人应当时时固定和保存关于自己的运作条件和所有其所实施的行为的信息”,但是该类信息获取权并不是赋予所有人的,“对该信息的获取应当提供给对机器人的行为和正常运作负责的人,以及按照所适用立法规定的程序提供给主管权力机关”;红色按钮条款则意味着,那些“在物理上与人们进行互动的且不处在人类的直接管理之下的机器人应当具备按照要求瞬间断开或紧急断开的功能”。

值得注意的是,从阿西莫夫机器人学法则的角度看,整个公约文本并没有明确规定对机器人的自我保护,即对应于三号法则的内容,但是存在一个看起来类似但实际上并无相同之处的条款,即关于保护机器人免受未经许可的接近的条款——“机器人应当配备免遭未经许可而对其系统和装置的物理性和电子性接近的保护系统”。从该条的规定上看,是针对潜在的机器人研究者、研发者、生产者和推广者提出的要求,而不是像三号法则是针对机器人自己提出的要求(也可以说是赋予的自我保护的权利);从该条的规范目的上看,这个条款的目的是通过防止未经许可的对机器人的系统和装置的接近,从而防止不法之徒将机器人作为伤害人类的手段而保护人类的安全。可以说,对机器人免受未经许可的接近的保护仅是具有手段性的目的,其最终目的是保护人类,而三号法则的目的却是允许机器人在不违反一号法则和二号法则的前提下保护自己。

(五)公约作者的创造:“高度危险机器人”的概念及其法律制度

“高度危险机器人”的概念和法律制度,则是公约作者们的创造,这个概念和制度只出现和存在于该作者们包括该公约在内的作品中。按照两位作者的意见,“在因机器人的设计特性和(或)其信息系统参数导致其行为由于人类不可能对之进行完全的控制而产生造成损害的高度盖然性时,机器人被视为高度危险来源”(11)张建文:《格里申法案的贡献与局限——俄罗斯首部机器人法草案述评》,《华东政法大学学报》2018年第2期。。根据该公约第13条“高度危险机器人”的设计,“应当对由于自己的构造和用途潜在地能够给人类个体造成包括致命性的伤害在内的实质性伤害的机器人的应用设立更高的保护其免于第三人未经许可的接近的要求”。这里所谓的高度危险机器人,具体包括医疗机器人、植入设备、高度自动化交通工具、军事机器人等。“机器人学的诸主体应当以该类机器人的危险性推定作为出发点,而主管权力机关应当规定相应的要求并监督其在所属司法管辖区内的执行。”此外,对于此类高度危险机器人还规定了人机管理的特别要求:“由于其构造和用途所决定的高度危险机器人潜在地对人类个体的消极作用,应当在其他人类个体的直接管理下进行。”

四、现代人工智能伦理如何构建(三):创建与使用机器人的一般规则

(一)创建机器人的一般规则:造福、责任、安全与遵守公约

对于创建机器人的一般规则,该公约的作者们提出了四个规则:创造公共福利、负责任地对待应用机器人后果的态度、安全优先、遵守示范公约的可能性。

根据该公约第18条,所谓的创造公共福利,是指“机器人的研发者和生产者,以及其他参与机器人创建过程的人(‘机器人的创建者’)应当尽可能地努力使得他们所创建的机器人能够给尽可能多的人们创造最大福利”。相较于阿西莫夫的机器人学法则,创建现代人工智能伦理的努力明确提出了造福公众的目标,这一点在欧洲议会提出的关于机器人民法规范的动议中所附的《机器人技术研发者伦理守则》提出的造福原则中也得到了体现。

对机器人创建者以及资助机器人学领域的研究和研发的人提出了负责任地对待应用机器人后果的态度的要求,要求他们“应当了解,他们的活动不具有特别的技术性,负责地对待所可能产生的作为应用机器人的后果的那些社会与经济现象和情事,并极力预防与之相关的任何重大消极后果”。

作为一般原则的机器人安全原则在创建和使用机器人的领域中的具体体现,公约的作者们明确提出了“安全优先”规则,要求“在创建机器人时,保障人类安全的目的应当始终胜过所有其他目的和任务”。

对于机器人的创建者而言,“应当保障在设计上(考虑到本公约的可能的更正、修改和补充)遵守本公约指明的规则的可能性”。

(二)使用机器人的一般规则:建构人类中心的抑或平等的机器人与人类关系模式

使用机器人的一般规则,较之于研究和研发机器人更需要全面回应建构什么样的人类与机器人关系模式问题,其中包含着在机器人与人类之间人类的基本权利、尊严和价值到底处在何种地位,是人类更优先还是机器人更优先,抑或二者可能构成平等的关系。后一种倾向还蕴含着机器人是否可能具有法律主体地位的问题,在机器人造成损害的情况下,责任的归属与分配问题也是机器人与人类关系模式的应有之义。根据有的学者的看法,服从法则——“机器人要服从人类”,就是“人当主子,机器为奴,为工具”,不伤害原则同样是“主奴关系的推衍,视AI为听使唤的奴仆”(12)冯象:《我是阿尔法:论法和人工智能》,中国政法大学出版社2018年版,第216-217页。。

整体而言,公约的作者们在现阶段对人类与机器人关系模式的构建充分贯彻了人类中心主义,也就是人类高于机器人的模式。但是,从作者们关于机器人法律地位的考虑看,作者们将机器人作为权利主体蕴含了不排除、不排斥而是允许将人类高于机器人的人类与机器人关系模式修改为机器人与人类有限平等的关系模式的倾向。

首先,该公约所提出的人类中心主义的人类与机器人关系模式,主要集中在对人类的基本权利和安全优先的保护上(13)张建文:《阿西莫夫的教诲:机器人学三法则的贡献与局限》,《人工智能法学研究》2018年第1期。。该公约要求,“在使用机器人的过程中,无论是否存在专门的法律调整,均应当遵守人类的基本权利和公认的道德与伦理规范”;“拥有预防和阻止机器人给其他人类造成未经批准的(包括偶然的)损害之可能性的人,有义务为此采取所有可能的与对自己的生命或者健康的风险无关的措施”;“关于某一装置或者客体为机器人的信息,应当使任何与之互动的人类个体或者其他机器人周知,但由于情势所限或者由于其用途和适用具体形式的机器人的特别条件不需要的情形除外”;“机器人的运作原则上应当对其创建者和使用者而言为可预见的,符合其构造和用途,是安全的和可控的”;“机器人的运作应当以如下方式进行,即使得与其互动的机器人学诸主体能够理解这些机器人的运作方式或者在进行互动时拥有取得足够相关信息的可能性”;“如果不能从所适用的立法条款或者具体情势中得出相反规定,履行机器人运作规则的责任,由机器人的创建者以及任何其他的能够以自己的行为影响其履行的人承担”。

其次,该公约蕴含了将人类中心主义的人类与机器人关系模式构建为人类与机器人有限平等的关系模式。

一是在人类作为使用者对待机器人的态度上,公约的作者们提出“尊重人类尊严”的要求,但是这个所谓的尊重人类尊严,并非是要求机器人尊重人类尊严,恰恰相反,却是要求“人类不得以自己对待机器人的态度漠视人类的尊严”。这里蕴含的意图不是突出和凸显人类尊严的地位和价值,恰恰是要求人类作为使用者在对待机器人时不得过分残酷或者严重违反人道规则。这种对人类使用者的伦理性限制,为可能的人类与机器人(特别是智能机器人)之间的有限平等关系模式建设铺垫了伦理基础。这有点类似于罗马帝国时期皇帝对奴隶主任意对待奴隶的权力的限制,特别是公元2世纪时,无正当理由杀死奴隶被等同于杀害侨民。但是,笔者认为,将机器人与曾经作为奴隶的自然人类比并不恰当,自然人即使作为奴隶存在,其本身的自然本性会使其他人类能够在人性范围和限度内对其进行理解和判断。也就是说,奴隶与主人这一对关系中所涉及的都是在最纯粹的自然意义上相同的人类(种属上的共性,就是“奴隶有生命——和罐子或者锤子不一样,但更具体地说,是一种有生命的工具”(14)[美]列奥·施特劳斯:《古典政治哲学引论:亚里士多德〈政治学〉讲疏(1965年)》,娄林译,华东师范大学出版社2018年版,第50页。)。在人类与机器人的关系上,机器人并不属于与人同类的存在,尽管人类期望和决定要全面了解和绝对掌握机器人,但是并不意味着人类最终能够全面了解和绝对掌握机器人。在没有这种绝对性把握之前,无条件地将机器人与人类关系完全类比为奴隶与主人的关系,并试图为机器人创造一个伦理性的主体地位,毫无疑问属于爱心泛滥的体现,罗马帝国时期限制主人的权限也并非是为了“不漠视人类尊严”,而是罗马人清楚地意识到,“处在一个大量存在努力的环境中,罗马人经受着时时的威胁”(15)Римское право:учеб.пособие для студентов вузов,обучающихся по специальности 030501《Юриспруденция》/А.А.Иванов-М.:ЮНИТИ-ДАНА:Закон и право,2016.C.130.,“有多少奴隶,就有多少敌人!”(16)Ранович А.Б.Первоисточники по истории раннего христианства.Античные критики христианства.3-е изд.М.,1990.С.97,104.这种观点也不排除有将机器人作为动物看待的因素,要求人类在行使权利的时候不允许违背人道原则残酷对待机器人(17)Гражданский кодекс Российской Федерации . Части первая , вторая . третья и четвертая . - Москва : Проспект , 2017. С.80.,“通过限制人的行为,来达到对动物权利的保护”(18)腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第266 页。。

二是在对机器人可能的法律地位上,公约的作者们预留了机器人作为权利主体的空间。尽管是有限的权利主体地位,但这种有限主体地位将会为机器人与人类使用者的平等地位建构初步的桥梁,并成为逐步扩展的基础。根据作者们的意见,“在所适用的立法直接规定的情况下,机器人可以在民事流转中作为独立的人,包括作为其他机器人的所有权人”。尽管将该问题付诸各国国内立法去解决,至少根据该作者们所提出的俄罗斯首部机器人法草案“格里申法案”的内容和意图来看,该公约作者们是要将机器人作为有限的权利主体,也就是权利能力被限定为特定范围的主体,也有其他作者提出将其作为“准民事法律关系主体”(19)Е.Н.Ирискина,К.О.Бедяков.Правовые аспекты гражданско-правовой ответственности за причинение вреда действиями робота как квазисубьекта гражданско-правовых отношений.Гуманитарная инаорматика.2016.Вып.10.С.63.。仍然不甚清晰的是,该权利能力的范围目前希望限定在哪些领域,以及将来是否会扩大,有否可能在机器人智能水平达到或者接近人类的情况下赋予机器人与人类完全相同的权利能力范围,等等。

五、现代人工智能伦理如何构建(四):人工智能研发规则

对于人工智能的发展和规制,А.Незнамов认为:“悖论在于,那种强人工智能还不存在。如果可能的,最好任何时候都不要创建它”,“一旦问世,它就会立即失控。而人们简直就是不会有时间去创设游戏规则:现在就需要去写下游戏规则”,“如果即使是存在0.1%的极端风险存在的可能性,法学家也有义务去着手工作。这就意味着,21世纪的法学领域期待着重大变革”(20)А.Незнамов.Искусственный вопрос.Стандарт.2018.№3(182),С.13.。所以,该文作者同时也是该公约的两位作者之一,就把人工智能的研发规则作为该公约的重要组成部分,提出了四项规则:负责任的态度、人工智能危险性假定、知情互动和将公约条款适用于人工智能。

“负责任的态度”意味着,要求“人工智能和相近领域中的研发者、研究者以及研究资助者,有义务顾及社会情绪,而且无权忽视那种认为人工智能技术可能会对人类整体产生不可逆的后果并令人类自己承担极端风险的意见”。“负责任的态度”要求给纯粹的疯狂的以求真为导向的自然科学精神套上价值的笼套,明确要求不但是自然科学的研究者和研发者,就连资助这些研究和研发的人也要承担顾及社会情绪的义务,明确他们没有权利忽视那种特定的社会意见。正如施特劳斯所说:“某些意见虽然并非真理,但有益于政治生活”(21)[美]列奥·施特劳斯:《古典政治理性主义的重生——施特劳斯思想入门》,郭振华译,华夏出版社2011年版,第197页。,“技术和艺术从道德和政治中获得解放将导致灾难或人的非人化”(22)[美]朗佩特:《“什么是政治哲学”中的论证》,载 [美]列奥·施特劳斯:《什么是政治哲学》,李世祥等译,华夏出版社2014年版,第307页。。尤瓦尔·赫拉利说得更直白:“虽然科技带来了许多美好的承诺,但我想特别强调的却是威胁和危险。引领科技革命的企业和企业家,自然倾向于高声讴歌科技创造的美好,但对于社会学家、哲学家和像我这样的历史学家,却想尽快拉响警报,指出所有可能酿成大错的地方”(23)[以]尤瓦尔·赫拉利:《今日简史:人类命运大议题·序》,林俊宏译,中信出版社2018年版,第8页。。

正是基于对人工智能完全的绝对的安全性保障期待之不可能和人类理性有限不能顾及到所有可能的情形特别是意外的情形,“人工智能危险性假定”规则就极有必要,该规则同样针对“人工智能与相近领域的研发者、研究者和研究资助者”,要求他们“应当以人工智能的危险性假定作为出发点”,“明白在没有相反证明以前,所创造的或者正在创造的人工智能技术对人类而言是危险的”。从这种“人工智能危险性假定”出发,“知情互动”规则就顺理成章了,知情互动意味着要求“任何一项人类与人工智能的互动行为,未经告知人类并获得同意均不得进行”。

由于机器人与人工智能的紧密联系,该公约的作者们提出“本公约中所述的机器人条款应当考虑其设计特性而适用于人工智能的物理网络系统”。

六、现代人工智能伦理如何构建(五):军事机器人的使用限制

阿西莫夫机器人学法则中的零号法则和一号法则构成了完整的不伤害原则。第一层意义上,机器人不得伤害人类是指机器人不得以自己的作为伤害人类的消极义务;第二层意义上,机器人不得以自己的不作为致使人类受到伤害又蕴含了机器人应当全力以自己的行为救助人类、使人类免遭伤害的积极义务。实际上,第二层面的不伤害原则并未在现代人工智能伦理中得到充分实现。

军事机器人特别是将来智能化程度更高的机器人的使用是一个现实而又迫切需要解决的问题。该公约将军事机器人的使用限制作为单独的一个部分,提出了四个规则:一是人道主义战争规则的可适用性,明确要求“为军事目的使用机器人不得违背世界上公认的人道主义战争规则”。二是为遵守人道主义战争规则的限制。这是关于军事机器人的内在设计的要求,“为军事用途而创建的机器人,应当拥有自始就嵌入其中且不得修改的符合国际人道主义法规定的对进行战争的方法和手段的限制,无论机器人将会被用于哪个领土”。三是不得伤害和平居民。该条实际上包含了两个层面的内容:一方面是不得用于给和平居民造成伤害,即“被用于军事目的的机器人不应当用于给和平居民造成伤害”;另一方面是对敌方的伤害的限制,要求“在军事用途中使用机器人时必须以所有在此情况下尽可能的方法排除或者最小化机器人给敌方人手的生命和健康的伤害”。四是对使用机器人实施犯罪的责任,主要是对使用机器人实施军事犯罪的责任,明确了责任的主体,即“使用机器人实施军事犯罪的责任依照对控制这些机器人的人所实施的军事犯罪所适用的规则确定”,而且“国家应当努力制定使用机器人实施军事犯罪将构成加重情节的规范”。

七、现代人工智能伦理如何构建(六):机器人学与人工智能规则的发展

该公约的作者们将机器人学与人工智能规则的发展作为该公约的组成部分并且是最后的部分。第一,关于公约规则的适用,“在本示范公约的条款没有强制性之前,机器人学主体有权指出自愿适用本公约的全部或者部分条款”。从表述来看,公约的作者们是期望该公约具有强制性约束力的,但在此之前只能作为机器人学主体们自愿选择全部或者部分适用的文本。第二,示范公约的适用范围。作者们将其开放给所有的司法管辖区自由适用并可作创建和使用机器人规则统一化的基础使用,“本公约的规则可以在任何司法管辖区并由任何创建、应用和使用机器人进程的参加者团体作为创建和使用机器人规则统一化的基础使用”。第三,推进制定公认的国际规则。“机器人学主体应当推动在制定公认的创建、应用和使用机器人的规则,以及协调可能在最大数量的司法管辖区适用的机器人学标准方面的国际合作”。第四,推动创建超国家机构。“为了有效地、协调地和完全地发展机器人学和人工智能,应当建立国家间的和非国家的机构,包括已经存在的国际团体和组织下设立国家间的和非国家的机构”。第五,示范公约的发展。“本公约的条款应当经讨论、更正、修改和补充,以便它们在最大程度上体现当前人类社会中关于机器人和人工智能的观点,并符合应当在机器人学和人工智能中发生效力的公认规则和规范。”

阿西莫夫机器人学法则在本质上属于机器人与人类关系的伦理原则,正是由于其作为原则显得简洁明了,但这种简洁明了又成为其执行中的不足之处,太过简明反而对具体情形的指导性和可适用性不够(24)张田勘:《全面迎接和努力掌控人工智能》,《光明日报》2017年5月25日第2版。。

阿西莫夫机器人学法则应当成为现代人工智能伦理建构的基础,从本文研究的《机器人学与人工智能示范公约》来看,阿西莫夫的机器人学法则的大部分内容都在该公约中得到了体现,但也并不是完全都得到了体现。以人类的中心地位(人类对机器人和人工智能的控制、人类基本权利和人类尊严的尊重和保障)和机器人与人工智能的安全性保障(其相对的是机器人和人工智能的危险性假定)为基点的该示范公约,以不同的表述涵盖了大部分阿西莫夫机器人学法则,如将阿西莫夫的服从法则表述为来自人类一方对机器人的控制性、红色按钮等规则,将不伤害原则以机器人的安全性保障原则等形式予以接受和落实,并在具体的形式上创新和发展了机器人学法则中的不伤害原则与服从原则。也存在一些未能体现机器人学法则的地方:第一,未能体现阿西莫夫机器人学法则中的不伤害原则所蕴含的要求机器人以自己的积极作为救助人类个体或者人类整体的伦理义务;第二,未能体现阿西莫夫机器人学法则中的自我保护原则,即如何允许并以何种方式实现机器人在不违背第一法则和第二法则的前提下自我保护的问题有待进一步研究。

猜你喜欢
阿西莫夫公约伦理
《心之死》的趣味与伦理焦虑
图书借阅公约
永不停歇的工作者
了解《生物多样性公约》
《白噪音》中后现代声景的死亡伦理思考
诗意的理性:论阿西莫夫机器人小说中的人机伦理
制定《图书借阅公约》
伦理批评与文学伦理学
制定《图书借阅公约》
华语科幻电影中的“伦理性”想象