给人工智能一颗“良芯(良心)”
——人工智能伦理研究的四个维度

2018-01-24 18:33
教学与研究 2018年8期
关键词:伦理机器道德

随着大数据技术的发展、算法的进步和机器算力的大幅提升,人工智能在众多领域不断攻城略池,赶超人类。同时,围绕人工智能产生的伦理问题也越来越突出,成为全社会关注的焦点。近年来,国际学术界对人工智能道德算法、价值定位、技术性失业和致命性自主武器等问题展开了广泛的讨论,一系列富有卓见的研究成果相继问世。然而,学界关于人工智能伦理研究的问题框架尚未达成共识,正处于探索研究范式的阶段,人工智能伦理的教育与教学究竟该从哪些方面展开仍然缺少框架指导。其实,设计和研发安全可靠的人工智能不是单纯的技术层面的要求,也需要道德层面的引导和规制。人工智能的发展应增进人类福祉,与人类的道德价值相符合。要做到这一点,必须给人工智能一颗“良芯(良心)”。这意味着以打造“良芯(良心)”为中心任务的人工智能伦理研究应围绕“机芯”(机器之芯)和“人心”(人类之心)两个维度来展开。“机芯”研究主要是指人工智能道德算法研究,旨在使人工智能拥有“良芯”,使之成为道德的人工智能或道德的机器(moral machine)。“人心”研究是指人工智能研发者和应用者应当具有“良心”,使人工智能的设计合乎道德,避免恶意设计,并确保人工智能的善用,使之造福人类社会。也就是说,“人心”研究主要涵盖人工智能设计伦理和社会伦理等方面的研究。“机芯”和“人心”研究存在诸多基础性问题,需要在道德哲学层面做出回应或拓展。因此,人工智能伦理研究包括人工智能道德哲学、人工智能道德算法、人工智能设计伦理和人工智能社会伦理等四个维度。

一、人工智能道德哲学

随着人工智能和自主系统的决策能力的不断提升,它们可能对传统的道德哲学构成挑战。传统的伦理观念和道德理论的适用性问题将变得越来越突出,其中一些伦理原则或道德规范有可能会失效或部分失效,甚至在某些领域引起道德哲学的真空。不过,这反过来可能会倒逼伦理学家进行更加深刻的思考,修正已有的道德概念和道德理论,提出适应智能时代的全新的道德哲学体系,从而促进道德哲学的整体发展。从这种意义上讲,人工智能道德哲学不是替代传统道德哲学,而是对传统哲学的延伸和扩张。

那么,我们究竟该从何种意义上谈论人工智能的道德哲学呢?按照尼克·波斯特洛姆(Nick Bostrom)和埃利泽·尤德考斯基(Eliezer Yudkowsky)的观点,“创造思维机器的可能性提出了一系列的伦理问题,这些问题既与确保这种机器不伤害人类和其他道德上关联的存在者有关,也与机器自身的道德地位有关。”[1](P316)智能机器不伤害人类和其他道德上关联的存在者是设计伦理的要求,而机器自身的道德地位问题则是人工智能道德哲学的范畴,相关讨论可以从人工智能的主体地位、道德责任和人机关系等方面展开。

第一,构建人工道德主体(artificial moral agents,简称AMAs)是否是可能的?谈论人工智能伦理是否应该把AMAs地位的确立作为前提。不过,按照计算机伦理学的开创者詹姆斯·摩尔(James Moor)的观点,我们可以根据智能机器的自主性程度划分出四种人工道德主体:有道德影响的主体、隐式的道德主体、显式的道德主体和完全的道德主体。[2]因此,即使人工智能系统并没有被内置道德规范,只要其决策算法能够产生伦理影响,即可将其视为具备道德推理能力,可以成为道德受体或道德关怀对象。此外,讨论更为前沿的话题是:拥有自由意志或自主能力是否可以作为人工智能和自主系统成为道德主体的前提?如果人工智能有资格作为道德主体,那么人性中的情感和意识等因素是否是人工智能具备道德的必要条件?的确,拥有自我意识并且具备人类情感的人工智能会更像人,但将情感和自由意志赋予人工智能有可能会打开“潘多拉的魔盒”,给人类带来灾难性后果。在处理人类错误方面,人类社会积累了丰富的经验,但如何应对人工智能机器的错误方面,我们的社会可能还尚未做好充分准备。如果不良情绪被植入智能系统,它们可能不是给人们带来便利,而是给人们制造更多麻烦。关于类似问题的探讨对传统的道德哲学提出了挑战,我们已有的关于“自由意志”“自主”“理性”“道德主体”“道德受体”“道德地位”等概念的内涵可能需要重新被定义。这可能导致新的道德哲学的产生,或导致传统的道德哲学发生转向,如人工物伦理学的转向。“与许多人的直觉想法相反,技术不再是让我们的生存变得便利的简单的中立工具。在这些技术完成它们功能的同时,已经产生了更多的效应:它们框定着我们该做什么以及我们如何体验世界,并且以此方式,它们积极参与到我们的生活中。”[3](P1)

第二,人工智能的道德权利和责任分配问题。在直觉上,多数人可能会认为AMAs并不应享有与人类相等的权利。在他们看来,AMAs是服务于人的福祉,而不应该被设定为追求自身的福祉。人工道德主体的界定困难导致相应的责任、义务和权利的认定变得复杂。如果人工道德主体以人类伙伴的身份服务于社会,它们的权利和义务的边界如何划定,这是需要慎重对待以平衡人类的同理心。如果人工智能具有道德决策能力,同时获得了道德主体的地位,那么它的设计者、制造者和使用者是否应当为它们的过失负担相应的责任?如果它们能够承担一定的责任,那么是否人们会设法将一些道德责任推卸给人工智能来承担?面对这种情形,AMAs可能沦为替人类行为免责的一种工具,它们的权利保障可能更是无从谈起。如果AMAs能够为其不当行为承担完全责任,那么责任的边界和限度的划定问题将变得越来越突出。毕竟,道德谴责和否定评价如何对AMAs产生实际的道德约束力在技术上仍然是个难题。如果道德约束对于AMAs是不充分的,那么它们承担相应的法律责任是否是可行的?如果AMAs需要承担一定的刑事责任,那么究竟何种惩罚对它们具有威慑力,例如清除记忆、机身销毁等是否等同于机器的死亡?限制机器人人身自由是否有效?同时人类共同体在情感上能否接受这种形式的惩罚;如果它们没有基本的财产权,那么它们以何种形式承担民事责任?是社会整体承担还是多主体分担,这些都是值得深入探讨的问题。

第三,人类道德与机器道德的关系问题。通常,人们是基于后果来判定某人行为是否道德,但通过深入探究,人们会认识到主体的心灵状态(意图、动机或目的等)在评价或判定某人行为是否道德时发挥重要作用。目前,主流的道德理论基本都是以人类为中心提出的。随着人机互动时代的到来,这些道德理论可能需要卢西亚诺·弗洛里迪(Luciano Floridi)提出的所谓“分布式道德”来补充。根据这种观点,局部层面的智能体相互作用,可以导致系统整体或宏观层面的道德行为和集体责任感的增加。[4]另外,虽然AMAs必须以人类价值为目标被建构起来,但面对多样化的文化价值系统、多元化的宗教传统和无数的伦理理论,我们究竟该选择哪种作为底层的设计框架?按照瓦拉赫和艾伦的观点,弱人工智能的道德实际上是一种“操作性道德”,由设计者和使用者赋予意义;随着复杂程度的增加,人工智能将会表现出所谓的“功能性道德”,它将使其自身具备道德决断能力并能够影响道德挑战。[5](P6)这种划分有助于我们明晰所谈论的到底是指何种道德。不过,如果纯粹从实用主义视角出发,那么人工智能是否有资格成为道德主体可能并不是最紧迫的问题,只要它们能够像道德主体一般行动,尽可能地减少道德摩擦,而不惹是生非。从现实层面来讲,那些在道德上具有卓越表现的智能机器会有更高的公众认可度,能够更加顺利地融入到人类社会。这种可接受性的动力学来源可能来自以下两个方面:一方面机器道德的研究要求深刻理解人类道德的发生、起源和机制。从这种意义上建构人工智能道德,可能要求我们更多地去思考如何从学习、进化和发展的角度去考察如何培养人工智能的道德感;另一方面机器道德的研究对于传统的道德哲学发挥“反哺”功能,它能够激发传统的伦理学研究做出革新,甚至催生全新的伦理学体系。

二、人工智能道德算法

我们已经生活在算法时代,几十年前,人们对于“算法”的认识主要是在数学和计算机领域。“当今,文明社会的每个角落都存在算法,日常生活的每分每秒都和算法有关。算法不仅存在于你的手机或笔记本电脑,还存在于你的汽车、房子、家电以及玩具当中。”[6](P3)事实上,算法已经成为当今信息社会的一种基础设施,它们能够引导甚至支配人们的思维与行动。因此,算法越来越多地参与到人类的道德生活将是一种必然趋势。当然,有人会主张道德是不可计算的,反对用算法刻画道德,甚至认为道德领域是技术扩张的禁忌之地。不过,人工智能对社会结构的渗入作用势不可挡,算法的影响早已深入到文明社会的每个角落。

人工智能相关技术的核心主要体现在决策算法方面。人工智能道德算法的研究主要是指那些在道德上可接受的算法或合乎伦理的算法,它们使自主系统的决策具有极高的可靠性和安全性。从这种意义上讲,道德算法是实现人工智能功能安全的一项基本原则和技术底线。那么,人工智能如何才能成为一个安全可靠的道德推理者,能够像人类一样甚至比人类更加理性地做道德决策呢?在此,我们首先需要明确人工智能是如何进行道德决策。也就是说,人工智能的道德推理机制问题。目前,相关研究主要沿着三个方向展开。

一是理论/规则驱动进路。这也被称为自上而下的进路,它是将特定群体认可的价值观和道德标准程序化为道德代码,嵌入智能系统,内置道德决策场景的指导性抉择标准。在这方面,人们最容易想到的是20世纪40年代艾萨克·阿西莫夫(Isaac Asimov)提出的“机器人三定律”:“1.机器人不可以伤害人,或者通过不作为,让任何人受到伤害;2.机器人必须遵从人类的指令,除非那个指令与第一定律相冲突;3.机器人必须保护自己的生存,条件是那样做与第一、第二定律没有冲突。”[5](P1)从理论上讲,伊曼纽尔·康德(Immanuel Kant)的道义论、约翰·密尔(John Mill)的功利主义和约翰·罗尔斯(John Rawls)的正义论等都可以成为理论驱动进路的理论备选项。早期机器伦理尤其是符号主义的支持者对理论/规则驱动模式情有独钟,但技术瓶颈和可操作性难题使得这种研究进路日渐式微。例如,有限的道德准则如何适应无穷变化的场景在技术上始终是个难题;如何调和不同的价值共同体对于不同的道德机器的需求存在种种现实困境;如何将内置某种道德理论偏向的人工智能产品让消费者接受也是一个社会难题。[7]近年来,新兴起的一种综合运用贝叶斯推理技术和概率生成模型的研究方法为自上而下式的研究进路带来曙光。[8]

二是数据驱动进路。这种自下而上的进路要求对智能系统进行一定的道德训练,使其具备人类的道德推理能力,并利用学习算法将使用者的道德偏好投射到智能机器上。从根本上说,这是一种基于进化逻辑的机器技能习得模式。这种研究进路的支持者普遍持有一种道德发生学视角,主张道德能力是在一般性智能的基础上演化而来,或将道德能力视为智能的子类而不是高于普通智能的高阶能力。因此,他们是运用与人类的道德演化相似的进路展开研究的。如今,以深度学习(deep learning)为代表的数据驱动进路获得了更多的拥趸。在人工智能道德算法的研究中,道德学习将成为人工智能获得道德能力的关键。有学者提出,人工智能可通过阅读和理解故事来“学会”故事所要传达的道德决策模式或价值观,以此来应对各种复杂的道德场景。[9](P105-112)不过,以深度学习为核心架构的决策算法是基于相关性的概率推理,不是基于因果性的推理,这使得道德推理似乎呈现出一种全新样态。实际上,道德决策算法并不是独立运作的,需要和其他算法系统联合决策。当然,单单依靠学习算法是不够的,甚至是有严重缺陷的。机器的道德学习严重依赖于训练数据样本和特征值的输入,不稳定的对抗样本重复出现可能导致智能机器被误导,基于虚假的相关性做出道德判断,从而做出错误的道德决策。而且,算法的黑箱特征使得道德算法的决策逻辑缺乏透明性和可解释性。另外,道德学习还会受到使用者价值偏好和道德场景的影响,做出与使用者理性状态下相反的道德判断。例如,人们不自觉的习惯动作往往是在理智上要克服的,而机器学习很难对此做出甄别。从这个意义上说,人工智能既有可能“学好”,也有可能“学坏”。

三是混合式决策进路。自上而下和自下而上的二元划分过于简略,难以应对复杂性带来的种种挑战。混合式的决策模式试图综合两种研究进路,寻找一种更有前景的人工智能道德推理模式。按照当前学界普遍观点,混合进路是人工智能道德推理的必然趋势,但问题是两者究竟以何种方式结合。我们知道,人类的道德推理能力是先天禀赋和后天学习的共同结果,道德决策是道德推理能力在具体场景中稳定或非稳定的展现。与人类的道德推理不同,人工智能的道德推理能力在很大程度上是人类预制的,但这种能力并不能保证人工智能能够做出合理的道德决策,因为道德决策与具体场景密切相关,而场景又是极其复杂和多变的。因此,当智能机器遭遇道德规范普适性难题时,到底该如何解决?这不仅是技术专家所面临的难题,更是对共同体价值如何获得一致性的考验。面对具体场景,不同的道德规范可能发生冲突,也可能产生各种道德困境,究竟该以哪种标准优化道德算法,价值参量排序的优先性问题将会变得越来越突出。按照瓦拉赫和艾伦的分析,在众多的候选理论中,德性理论将有可能成为一种最有前景的开发人工智能道德决策能力的模型。[5](P102-109)德性伦理将人们对后果与责任的关注转向品质和良习的培养,因为这是好行为的保证,而这种道德良知的获得被认为恰恰需要混合式进路来完成。

三、人工智能设计伦理

人工智能的设计伦理需要从两个维度展开:一方面,设计和研发某种人工智能产品和服务之前,设计者或制造商要有明确的价值定位,能够对其所产生的伦理和社会影响有总体预判;另一方面,人工智能为消费者提供服务的过程中如果出现价值偏差,系统内置的纠偏机制能够有效地防控危害继续进行,防止危险的发生。例如,数据挖掘技术可能将隐藏在数据中的偏见或歧视揭示出来并运用到行动决策,但机器自身很难像人类一样自觉地抵制一些个人偏见或歧视,这要求通过技术手段和社会手段联合消除偏见或歧视。

那么,如何才能设计出符合人类道德规范的人工智能呢?概言之,面对在智力上日趋接近并超越人类的人工智能,设计者要设法赋予其对人类友善的动机,使其具备特定的道德品质,做出合乎道德的行为。设计人工智能使得它们能够充分发挥特定的功能,同时又遵从人类道德主体的道德规范和价值体系,不逾越法律和道德的底线。但是,人工智能不可能自我演化出道德感,其工具性特征使得对它的利用可能出现偏差。因此,在设计人工智能产品和服务时,尤其应当努力规避潜在地被误用或滥用的可能性。如果某些个人或公司出于私利而设计或研发违背人性之善的自主系统,那么公共政策的制定机构有必要提前对这些误用和滥用采取法律和伦理规制。如果具有高度自主性的系统缺乏伦理约束机制和价值一致性,那么在其尚不成熟阶段被开放使用,其后果令人堪忧。因此,为人工智能系统内置良善的价值标准和控制机制是必要手段,这是保证智能系统获得良知和做出良行的关键。

人工智能应该更好地服务于人类,而不是使人类受制于它,这是人工智能设计的总体的价值定位问题。2016年,国际电气和电子工程师协会(IEEE)发布《以伦理为基础的设计:在人工智能及自主系统中将人类福祉摆在优先地位的愿景》(第一版),呼吁科研人员在进行人工智能研究时优先考虑伦理问题,技术人员要获得相应的工程设计伦理培训。IEEE要求优先将增进人类福祉作为算法时代进步的指标。人工智能设计伦理是解决安全问题的必要措施,旨在保证优先发展造福人类的人工智能,避免设计和制造不符合人类价值和利益的人工智能产品和服务。2017年12月12日,IEEE《人工智能设计的伦理准则》(第二版)在全球同时发布,进一步完善了对于设计者、制造商、使用者和监管者等不同的利益相关方在人工智能的伦理设计方面的总体要求和努力方向。

人工智能产品制造者和服务提供商在设计和制造人工智能系统时,必须使它们与社会的核心价值体系保持一致。在这方面,IEEE《人工智能设计的伦理准则》阐述的人工智能设计“基本原则”为我们提供了很好的启示:第一,人权原则。算法设置应当遵循基本的伦理原则,尊重和保护人权是第一位的,尤其是生命安全权和隐私权等。第二,福祉原则。设计和使用人工智能技术应当优先考虑是否有助于增进人类福祉作为衡量指标,要避免算法歧视和算法偏见等现象的发生,维护社会公正和良序发展。第三,问责原则。对于设计者和使用者要明确相应的责任,权责分配和追责机制是明晰的,避免相关人员借用技术卸责。第四,透明原则。人工智能系统的运转尤其是算法部分要以透明性和可解释性作为基本要求。第五,慎用原则。要将人工智能技术被滥用的风险降到最低,尤其在人工智能技术被全面推向市场的初期,风险防控机制的设置必须到位,以赢得公众的信任。[10]

人工智能的设计目标是增进人类福祉,使尽可能多的人从中受益,避免造成“数字鸿沟”。智能技术的革命性进展可能会改变当前的一些制度设计,但这种改变不能偏离以人为本的发展结构,应当坚守人道主义的发展底线。技术设计不能逾越对个人和自身合法权益的控制权,制度和政策的设计应当维护个人数据安全及其在信息社会中的身份特质。如果人工智能系统造成社会危害,相应的问责机制应当被有效地调用。实际上,这是要求相关管理部门能够提前制定规则和追责标准,使得智能系统的决策控制权最终由人类社会共同体掌握。按照阿米塔伊·埃齐奥尼(Amitai Etzioni)和奥伦·埃齐奥尼(Oren Etzioni)的建议,从技术自身的监管角度考虑,应当引入二阶的监督系统作为智能系统的监护人程序,以此来防控人工智能技术的潜在风险。[11]对于社会监管而言,人工智能的政府监管机构和相关行业的伦理审查委员会对于智能系统的使用数据和信息具有调取权,并且能够对系统的安全性和可靠性进行风险评估、测试和审计,公众也有权知晓智能系统的利益相关方及其伦理立场。

确保人工智能的算法设计合乎伦理,是一个复杂的社会工程,需要整合各个方面的专业资源,进行跨学科的协作研究。为了提高智能机器的环境适应性,在为智能系统嵌入人类价值时,要平衡和分配不同的道德、宗教、政治和民族风俗习惯等因素的权重,使人工智能系统的设计能够最大限度地符合人类社会的价值标准。人工智能的伦理问题的妥善处理需要多方合作,产业界和学术界应形成联动机制,共同推进以价值为基础的伦理文化和设计实践。为此,下列措施对于实现上述实践目标是必要的:第一,需要发挥算法工程师的技术专长,提高他们对特殊场景中伦理问题的敏感性和工程伦理素养,确保智能系统促进安全并保护人权;第二,需要人文社科学工作者加强对人类心智运转机制和人工智能道德决策机制的研究,能够为人工智能的相关伦理议题提供思考框架和辩护理由,使公众认识到智能系统的潜在社会影响;第三,需要审查和评估机构严格行事,提高人工智能系统与人类道德规范体系的兼容度;第四,需要公众参与、表达诉求和提供反馈。

四、人工智能社会伦理

随着人工智能和自主系统逐步嵌入到社会生活的方方面面,人类与机器的关系将变得越来越复杂,由此所引发的社会伦理问题将变得越来越突出。如果人工智能的复杂程度不断提高,越来越具有人性,那么“恐怖谷”(uncanny valley)现象是否会真实发生?雷·库兹韦尔(Ray Kurzweil)预言的“奇点”(人工智能超越人类智能的点)是否真的已经临近?比人类更聪明的人工智能是否对人类“友好”,抑或损害人类福祉,甚至异化为刘易斯·芒福德(Lewis Mumford)所说的统治人类的“巨机器”?如果人工智能进化为超级智能体,是否像科幻电影所描述的那样反叛人类,奴役人类,甚至最终会消灭人类?在未来社会,人工智能如何造福于人类社会,避免被居心叵测的人类个体或团体操控,危害或奴役他人。人类如何适应和引导新型的人工智能社会,这些都是值得深入探讨的问题。这类问题的伦理学探讨并不直接着眼于帮助我们建构AMAs,也不能仅仅局限于未来学、科幻作品式的想象和哲学的思想实验,而应该开展特定的定量分析来研究,完善技术风险评估体系建设,权衡灾难发生的可能性,并做好积极的预防措施。

事实上,如何善用和阻止恶用人工智能才是人工智能社会伦理研究的关键问题。这个问题的落脚点在于优化人机合作关系,建立一种能够使人类与智能机器相互适应和信任的机制,使人工智能建设性地辅助人们的生产和生活。在这方面,当前讨论最多也最为实际的是人工智能是否会取代人们的工作,引起大规模的技术性失业?人们担忧,强大的人工智能可能导致很多失业人员完全无法找到合适的工作,进而使得社会结构变得不稳定。牛津大学对美国劳工统计局描述的702种职业所需技能进行定量分析:“美国47%的工作极有可能会被高度自动化的系统所取代,这些职业包括的很多领域的蓝领职业和白领职业。……无论你接受与否,高达50%的就业岗位在不远的未来都有被机器占领的危险。”[12](P147)回望历史,每一次技术革命都可能导致失业,很多工作岗位、工种和技能被淘汰掉。与此同时,技术革命也创造出很多新的职业和工作机会。不过,这次智能革命所具有的颠覆性可能不同于以往,它甚至有可能重新定义人们对于劳动的观念。如果人工智能最终导致大规模的失业潮,如何满足作为人们基本生活需要的劳动权,社会稳定如何得到维护,社会保障制度如何负担失业人员的生活?对于这些问题,学术界和政府相关部门从现在开始就需要展开深入研究。

人工智能的深入应用还将涉及更大范围的公平和正义的问题。历史证明,新技术可以消除基于旧技术的不平等,但也可能产生新的更大的不平等。不同国家、地区和人群在获得人工智能的福利方面可能存在不公平和不平等问题,导致“人工智能鸿沟”。如何避免这场技术革命引起新的差距,让更多的人获益,避免欠发达地区和弱势群体在技术福利分配中再次陷入被动地位,弥合“人工智能鸿沟”,是人工智能社会伦理研究的焦点。从技术角度看,在算法时代,人工智能系统对数据的需求几乎是无限的,这势必涉及个人信息安全和隐私权等问题。为了应对可能的伦理风险,隐私政策和知情同意条款需要得到相应的更新,商业机构在对信息进行数据挖掘和价值开发时要遵循相应的伦理规范。数据共享方式有待创新,以维护数据安全,保护隐私权和个人信息权将是人工智能社会伦理研究的重点领域。

在一些具体领域,人工智能的深入应用已经产生较为热烈的伦理讨论和媒体关注。在军事方面,是否应该限制或禁止使用致命性自主武器系统(lethal autonomous weapons systems,简称LAWS)的话题备受热议。LAWS真的能够做到“只攻击敌人,不攻击平民”吗?它们在不需要人类干预的情况下,能够像人类战士一样遵守道德准则吗?如果LAWS可以上战场作战,那它抉择目标生死的标准该由谁来制定?2015年7月,一封要求停止研发致命性自主武器系统的公开信获得了3万多人签名,其中包括斯蒂芬·霍金(Stephen Hawking)、埃隆·马斯克(Elon Musk)及众多人工智能领域的专家。在他们看来,自主武器系统具有极大的风险,一旦被研发成功并应用,就可能被恐怖组织掌握,这对于无辜平民是巨大的安全威胁,甚至有可能引发第三次世界大战。[13]在医疗领域,随着医疗影像诊断的精准度的不断提高并超越医生,人工智能技术可能被广泛应用于疾病诊断,如果出现误诊,责任究竟由谁来承担?人工智能技术同时也加大了医疗数据泄露的风险,医疗机构保存的病人健康数据和电子病例有可能被不恰当地进行价值开发,如何合法地收集和管理这些数据已经成为近年来学术界研究的热点话题。近年来,美国某公司制造出性爱机器人的消息曾一度引发舆论热议,支持和反对之声不绝于耳。类似的仿真机器人的出现是否会对人类相互之间的情感构成损害,是否对人们的婚姻观念和社会制度造成冲击,等等。

近年来,美国和英国等先后发布国家人工智能战略报告,大力推动人工智能及其相关产业的发展。我国也极其重视人工智能和自主系统的研发和应用,2017年7月8日,国务院发布《新一代人工智能发展规划》(以下简称《规划》),将人工智能伦理法律研究列为重点任务,要求开展跨学科探索性研究,推动人工智能法律伦理的基础理论问题研究。《规划》对人工智能伦理和法律制订了三步走的战略目标:到2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律法规、伦理规范和政策体系;到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。《规划》指出,人工智能的迅速发展将深刻改变人类社会生活、改变世界,但人工智能可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,要求在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。

结 语

我们必将生活在一个人机共生的时代。人类与机器之间势必将发生各种冲突和矛盾,这些很难仅仅靠法律和制度来完全解决,人工智能伦理研究对于人机合作和信任将是必要之物。虽然我们对伦理学指导人们日常生活的道德决策常存疑虑,但是伦理学理论可以为智能机器的道德决策提供指南将是基本事实。现阶段,有很多人鼓吹我们正处在智能革命过程中,但这场革命并不能被无限制地夸大。“在智能爆发的前景下,我们人类就像拿着炸弹玩的孩子。……尽管我们把炸弹放到耳边能够听到微弱的滴答声,但是我们也完全不知道爆炸会在何时发生。”[14](P328)类似的未来学家式的担忧、科技精英的猜想和科幻电影式的描绘虽然能为我们的伦理思考提供素材,但这些可能并不是我们实际上将会真实遭遇的情境。着眼于现实,人工智能伦理研究的目标始终是要给人工智能一颗“良芯(良心)”,使其像人类那样能够明辨是非,进而才能“行有德之事,做有德之机”。从这种意义上讲,“机器之芯”和“人类之心”的研究是相得益彰的。这些研究能够使得我们发现人造物与人类更多的相似性和差异性,恰恰是这些将会使我们更加明白“我们到底是谁”和“我们在做什么”。因此,人工智能伦理研究恰恰是对德尔斐神庙门楣上的神谕“认识你自己”的最好诠释。

猜你喜欢
伦理机器道德
《心之死》的趣味与伦理焦虑
机器狗
机器狗
灵长类生物医学前沿探索中的伦理思考
头上的星空与心中的道德律
护生眼中的伦理修养
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
未来机器城
用道德驱散“新闻雾霾”