论人工智能的自主性

2022-11-30 17:04程承坪
关键词:意志自主性道德

程承坪

(武汉大学经济与管理学院,武汉 430072)

出于两个方面的原因需要思考人工智能是否具有自主性的问题: 一是哲学,二是现实。从哲学角度而言,随着人工智能技术的不断发展,人工智能不但拥有了越来越多的智能,而且还逐渐拥有了情能,(1)程承坪.大力开发服务型人工智能的情能[J].武汉科技大学学报(社会科学版),2020,21(4): 449-455.能够自主决策,这促使人们思考人工智能是否具有自主性。(2)李仁涵.人工智能技术属性及其社会属性[J].上海交通大学学报(哲学社会科学版),2020,28(4): 19-22.如果人工智能具有自主性,那么它是否会挑战人类独一无二的尊严地位?这可能会促使人们重新思考人的本质以及人类的未来等问题。如从现实角度而言,如果人工智能具有自主性,那么它能否成为劳动力、公民、人类的朋友甚至于敌人,如果人工智能违反了法律法规或伦理道德,那么人们该如何处罚它,等等。

因此,研究人工智能是否具有自主性的问题,既具有重要的理论价值,也具有重要的现实意义。回答人工智能是否具有自主性的问题,需要结合人工智能的技术特点和哲学社会科学理论综合论证。本文首先从自主性概念出发,讨论什么是自主性。然后,根据人工智能的技术特点,对标自主性概念,得出人工智能是否具有自主性的结论。研究结果表明,人工智能可以具有弱自主性。

一、 什么是自主性

自主性(autonomy)是指行为主体按照既定的目标,管理、控制自己的行为导向目标的特性。(3)丛杭青,王晓梅.何谓Autonomy[J].哲学研究,2013(1): 108-115;王晓梅,丛杭青.自主性与道德[J].哲学研究,2014(2): 86-92,128.行为“不受外来力量的操控”是自主性的前提,因而自主性意味着行为主体具有自由意志。而自我意识是自由意志的前提,自由意志的行使要受到道德的约束或影响。正如美国政治哲学家、伦理学家约翰·罗尔斯(John Rawls)所指出的,“所谓‘自主的行为’,就是我们依据自己作为自由、平等的理性生命愿意接受的那些原则而从事的行为”。(4)Rawls J. A Theory of Justice [M]. Boston: Belknap Press of Harvard University Press, 1971: 516.根据罗尔斯的论述,道德意识是构成自主性的必要条件。

一般而言,自主性包含自我管理和自我立法两种含义。自我管理是指对自我行为的管理,自我立法是指行为主体“服从自己制定的道德法则”。(5)Kant I. Groundwork of the Metaphysic of Morals [M]. New York: Harper & Row, 1958: 57-58.康德(Immanuel Kant)和密尔(John Stuart Mill)认为,自我意识、自由意志和道德责任是构成自主性的三个基本要件。(6)陈化.论AI的自主性及其限度[J].中国医学伦理学,2020(7): 815-820.

自我意识(self-conscious)是指“以自我为思考对象的行为”。(7)埃利奥特·阿伦森.社会心理学[M].侯玉波,译.北京: 中国轻工业出版社,2007: 110.对自我意识通常采用“镜子测试”(mirror test)的科学方法。(8)1970年,心理学者戈登·盖洛普(Gordon Gallup)设计了“镜子测试”: 给动物脸上贴一个标签,如果动物能区分标签在哪一边,就意味着它能区分“我”和“非我”;如果它不能区分标签在哪一边,那么它就没有基本的自我意识。采用这一测试方法发现,只有黑猩猩和猕猴等少数几种动物以及人类具有自我意识。(9)高申春,董雪.时间、自我与意识: 现象学视域下人类意识的独特性[J].河南师范大学学报(哲学社会科学版),2015(2): 84-88.

一般认为,自我意识不仅存在“有没有”的问题,而且存在“强与弱”的问题。黑猩猩和猕猴等少数几种动物以及幼儿的自我意识较弱,正常的成年人的自我意识较强,并且正常的成年人的自我意识也存在个体的差别。自我意识的强弱表现在客观地评价自我、反思自我的能力的强弱。正如黑格尔(Friedrich Hegel)所指出的,相对于动物而言,人的自我意识较强,只有人可以意识到自由精神。(10)黑格尔.精神现象学: 上卷[M].贺麟,王玖兴,译.北京: 商务印书馆,1987: 11.

自由意志(free will)是指行为主体根据自身的意愿或需要做出选择的能力。通常采用两个标准来衡量自由意志: 一是选择性标准,即行为主体根据自身的意愿或需要进行行为选择的能力;二是内生性标准,即行为主体不受外部约束独立做出行为选择的能力。(11)骆正言.从自由意志谈人工智能的法律主体资格[J].湖南社会科学,2020(2): 43-50.

按照上述两个标准,研究表明,只有人类具有自由意志,而除人之外的动物不具有自由意志。(12)少数动物具有非常弱的自由意志,因此常常被人们忽略。参见保罗·R·埃力克.人类的天性: 基因、文化与人类前景[M].李向慈,洪佼宜,译.北京: 金城出版社,2014: 147.研究表明,虽然黑猩猩和猕猴等少数几种动物具有自我意识,但它们的自我意识通常表现为一种潜意识(subconscious),它们根据自己的生物本能对外界的刺激做出反应。虽然这些动物能够通过“镜子测试”,但它们无法摆脱自然束缚,更不可能改造自然,它们属于自在的、不自由的意识主体,它们没有自由意志。而人类不但能够在一定程度上摆脱自然束缚,而且能改造世界,为自己设计行为规范和目标,意识到自由精神,因此,人类是一种自为的、自由的意识主体,具有自由意志。自由意志蕴含了对现实的否定性和超越性,意味着人类思想的无限性和开放性,它是人类不竭创造力的源泉。(13)李丰.人工智能与艺术创作: 人工智能能够取代艺术家吗[J]. 现代哲学,2018(6): 95-100.同样,自由意志也存在强弱之分,由弱到强可以依次形成自由意志的光谱带。

自我意识是自由意志的基础或必要条件,没有自我意识就不可能发展出自由意志,但自由意志又反作用于自我意识。

所谓道德责任(moral responsibility),是指行为主体依据自由意志,对自己的行为造成的后果承担道义上的责任。(14)赫伯特·哈特(Herbert Hart)将责任划分为四种类型: 角色责任(role responsibility)、因果责任(causal responsibility)、义务责任(liability responsibility)和能力责任(capacity responsibility)。参见Hart H. Punishment and Responsibility: Essays in the Philosophy of Low(Second Edition)[M]. London: Oxford University Press, 2008: 210-237. 本文所谓的道德责任可归属于哈特所说的义务责任。所谓义务责任,是指责任人按照法律法规和道德规范等应当承担的代价。伦理学研究表明,自由意志是道德责任的前提,没有自由意志就没有道德责任,但道德责任对自由意志又有反作用。(15)宋尚玮的研究认为,某种特殊条件下被剥夺了或丧失了自由意志的人也要承担道德责任。参见宋尚玮.论自由意志并非道德责任的必要条件[J]. 哲学分析,2019(4): 161-168,199。但是这并没有否定自由意志对道德责任的作用,譬如没有自由意志的动物是不可能承担道德责任的。动物没有自由意志,因而没有道德责任;人类具有自由意志,因而具有道德责任。

综上所述,自我意识、自由意志和道德责任是构成自主性的三个基本要件,其中自由意志是核心要件,没有自由意志就不可能发展出道德责任,自由意志会反作用于自我意识,缺乏自由意志也会削弱自我意识的发展。具有自我意识才能发展出自由意志,具有自由意志才能发展出道德责任,道德责任会反作用于自由意志。自我意识、自由意志和道德责任三者之间的关系如图1所示。人类既具有自我意识,也具有自由意志和道德责任,因而人类具有自主性。而大多数动物不具有自主性,只有少数几种动物具有较弱的自我意识,但它们不具有自由意志和道德责任。因此,按照自主性标准衡量,动物不具有自主性。

二、 人工智能可以具有弱自主性

自主性的三个构成要件是判断人工智能是否具有自主性的标准。

第一,对照自我意识概念及其存在的基础,判断人工智能是否具有自我意识。当前“镜子测试”是衡量人或动物是否具有自我意识的常用科学方法。目前科学家已经开发出能够通过“镜子测试”的人工智能机器人。譬如,耶鲁大学开发的人工智能机器人尼科(Nico),通过了“镜子测试”;纽约伦斯勒人工智能和推理实验室开发的人工智能机器人纳欧(Nao),不但通过了“镜子测试”,还通过了“智者难题测试”(Wise Man Puzzle Test)。这意味着人工智能可以拥有自我意识。(16)骆正言.从自由意志谈人工智能的法律主体资格[J].湖南社会科学,2020(2): 43-50.

尽管人工智能通过了“镜子测试”,但是学术界仍然有许多学者并不承认人工智能真正具有自我意识。譬如,吴冠军认为,人工智能通过了“镜子测试”,只能表明人工智能看上去具有自我意识,但实际上它并不真正具有自我意识。(17)吴冠军.神圣人、机器人与“人类学机器”: 20世纪大屠杀与当代人工智能讨论的政治哲学反思[J].上海师范大学学报(哲学社会科学版),2018(6): 42-53.看上去具有自我意识,意味着如果人工智能机器人混杂在人群中,那么人们很难把它与人区别开来。“看上去具有自我意识”(后文简称“形式自我意识”)与“真实具有自我意识”(后文简称“实质自我意识”)是有本质区别的。本质区别在于,前者是被人类赋予的自我意识,属于技术性行为,它只拥有“语法”而删除了“语义”,后者既拥有“语法”又拥有“语义”,属于生物行为和社会行为,它是人类认知进化和社会化的结果,无法通过模拟获得。(18)塞尔(Searle J)指出:“计算机程序永不可能替代人心,其理由很简单: 计算机的程序只是语法的,而心不仅仅是语法的。心是语义的,就是说,人心不仅仅是一个形式结构,它是有内容的。”参见: 塞尔.心、脑与科学[M].杨音莱,译.上海: 上海译文出版社,2006: 23.

现代神经生理学认为,生命是自我意识的前提,自我意识是由巧妙组织起来的复杂神经元系统“涌现”的结果。认知和计算机科学专家玛格丽特·博登(Margaret Boden)指出,生命的本质特征是新陈代谢,由无机物构成的人工智能,无论发展到什么程度都不可能具有新陈代谢能力。(19)博登.AI: 人工智能的本质与未来[M].孙诗惠,译.北京: 中国人民大学出版社,2017: 168-169.根据同样的认识,心理学家和计算机专家苏珊·布莱克摩尔(Susan Blackmore)认为,“人工意识不可实现”。(20)Blackmore S.人的意识[M].耿海燕,李奇,等,译.北京: 中国轻工业出版社,2008: 183.这就是说,人工智能不可能拥有实质自我意识。根据自主性的发展逻辑,人工智能自我意识不足,就难以生成较强的自由意志。

第二,对照自由意志概念,判断人工智能是否具有自由意志。美国乔治城大学教授大卫·弗拉德克(David Vladeck)指出,为了完成人类交给的任务,人工智能可以自主地获取数据、分析数据,并根据环境变化自主采取行动。(21)Vladeck D C. Machines Without Principals: Liability Rules and Artificial Intelligence [J]. Washington Law Review, 2014, 89(1): 117-150.美国圣母大学教授弗雷德里克·克罗森(Frederick Crosson)指出,部分人工智能装有随机发生器(Randomiser),导致人工智能的行为具有一定的不确定性和不可预测性。(22)Masahiro Morioka. Artificial Intelligence and Contemporary Philosophy[J]. Philosophy, 2019(70): 51-68.计算机专家阿米尔·侯赛因(Amir Hussein)指出,有些人工智能机器人不但可以按照人类的指令完成任务,而且可以“为自己设定行为目标”。(23)侯赛因.终极智能: 感知机器与人工智能的未来[M].赛迪研究院专家组,译. 北京: 中信出版社,2018: 36.这就意味着人工智能既可以满足自由意志的选择性标准,也可以满足自由意志的内生性标准,从而判断它具有自由意志。

但是,如果我们比较人类的自由意志与所谓的人工智能自由意志,就会发现两者存在较大的差别。差别具体表现在,在相同的约束条件下,人工智能只会做出相同的行为选择,而人类可能会做出不同的选择,这是人类能动性的自由意志的表现,也是人类创造性(24)美国人工智能专家侯世达(Douglas Hofstadter)认为,对创造性有不同的理解,譬如人工智能发现游戏里面特别的玩法和技巧,或者找到以前一直没有找到的数学公式,这也可以认为具有一定的创造性,但这种创造性不是基于程序的创新想法、创新意愿或者创新热情驱动的。参见刘彦声.人工智能的表象与本质: 侯世达教授专访[J].清华管理评论,2018(4): 5-8.本文对创造性做这样的界定: 创造性是指能够无中生有,超越既有经验产生出了新思想或新事物。按照这一界定,那么人工智能发现游戏里面特别的玩法和技巧,或者找到以前一直没有找到的数学公式,就不能被认定为具有创造性。同样,微软智能机器人“小冰”写作诗集《阳光失了玻璃窗》,也不能被认定为具有创造性。的源泉。人工智能是由大数据驱动的,其行为是由其设计者事先通过植入的程序驱动的。(25)程承坪.人工智能的工作机理及其局限性[J].学术界,2021(1): 189-196.人工智能的行为功能不是其内在物理属性的表现,而是由人工智能专家从外部赋予它的。(26)Searle J. Mind, Language and Society [M]. New York: Basic Books, 1998: 121-122.因此,人工智能可视为决定论世界中的能动者。(27)Van I P. An Essay on Free Will [M]. Oxford: Clarendon Press, 1983: 3.玛丽亚·布朗克(Maria Brincker)指出,人类的自主性来源于人的具身性,它是从不同的自主体的互动中“涌现”的结果。(28)Brincker M. Dynamics of Perceptible Agency: The Case of Social Robots [J]. Mind and Machines, 2016, 26(4): 441-466.因此,人类的自由意志与人工智能的自由意志既有能动性上的区别,也有来源的差别。

由于人类具有能动性的自由意志,而人工智能只具有决定论条件下的自由意志,与人类相比较,人工智能只具有弱自由意志。(29)关于自由意志,有四种代表性的观点: 自由意志论、融贯论、理性回应论和推理回应论。自由意志论认为,如果一个决定可以被其他的决定替代的话,那么这个决定就是自主的。如果按照此定义,那么可以判断人工智能不具有自由意志。但理性回应论认为,如果一个有理性的人按照自己的理性做出决定,那么他就具有自由意志。如果按照此定义,那么可以判断人工智能具有自由意志。按照上述四种不同的观点,人工智能或具备或部分具备甚至于不具备自由意志。参见邬桑.人工智能的自主性与责任[J].哲学分析,2018(4): 125-134,198.本文主要根据理性回应论对人工智能是否具有自由意志做出判断。根据自主性的发展逻辑,人工智能自由意志不足,就难以反作用于自我意识生成较强的自我意识,也难以生成独立的道德责任。

第三,对照道德责任概念,判断人工智能是否具有道德责任。可以通过把法律法规和道德准则规范化、符号化、算法化,赋予人工智能道德行为。人工智能专家已经开发出一款人工智能手术机器人,它能够按照医疗法律规范和道德准则处理与患者的关系,自觉遵守法律法规和道德规范。(30)Wallach W, Allen C. Moral Machines: Teaching Robots Right from Wrong [M]. Oxford: Oxford University Press, 2009: 197-214.仿照“图灵测试”(The Turing Test),柯林·艾伦(Colin Allen)、加里·瓦尔纳(Gary Varner) 和杰森·辛瑟(Jason Zinser)构造了“道德图灵测试” (The Moral Turing Test)来判断人工智能是否具有道德能力。(31)Allen C, Varner G, Zinser J. Prolegomena to Any Future Artificial Moral Agent [J]. Journal of Experimental and Theoretical Artificial Intelligence, 2000, 12(3): 251-261.2014年,俄罗斯人工智能专家弗拉基米尔·维塞罗夫(Vladimir Veselov)等人研发的聊天机器人尤金·古斯特曼(Eugene Goostman)在历史上首次通过了“图灵测试”,这表明“图灵测试”并不是人工智能不可逾越的障碍。虽然目前我们还没有看到人工智能通过“道德图灵测试”的相关报道,但由于“道德图灵测试”的原理与“图灵测试”的原理是基本相同的,因此,可以推断人工智能是可以通过“道德图灵测试”的。这意味着人工智能可以具有道德能力。

但即使人工智能具有道德能力,也并不意味着人工智能能够独立承担道德责任,因为道德能力只是道德责任的必要而非充分的条件。承担道德责任必须具备理解道德行为与道德准则之间的关系的能力。人工智能并不具备理解自身的道德行为与道德准则之间的关系的能力。(32)由于人工智能缺乏能动性的自由意志,当存在多道德目标选择且道德目标之间存在冲突的时候,人工智能就会陷入道德选择的困境。这表明,赋予人工智能多道德目标的道德规则的做法是行不通的。参见瓦拉赫,艾伦. 道德机器: 如何让机器人明辨是非[M].王小红,译.北京: 北京大学出版社,2017: 78-84.事实上,只有精神健康的成年人才具备这种能力。(33)神经科学和遗传学家、哲学家帕特里夏·丘奇兰德(Partricia Churchland)指出,道德有其生物学基础,没有生物学基础就不可能有真正的道德认知。参见Churchland P S. Braintrust: What Neuroscience Tells Us about Morality [M]. Princeton, New Jersey: Princeton University Press, 2011: 191-192.当前,法学界和伦理学界普遍认为,人工智能不具备独立承担道德责任的能力。(34)邬桑.人工智能的自主性与责任[J].哲学分析,2018 (4): 125-134,198;成素梅,高诗宇.智能机器人应有法律主体资格吗[J].西安交通大学学报(社会科学版),2020(1): 115-122.根据自主性的发展逻辑,人工智能不能独立承担道德责任,就难以反作用于自由意志生成较强的自由意志。

综上所述,人工智能可以具有形式自我意识、弱自由意志和道德能力,不大可能具有实质自我意识,也不能独立承担道德责任。根据构成自主性的三个要件衡量,人工智能可以具有弱自主性。

三、 对人工智能可以具有弱自主性的思考

人工智能可以具有弱自主性至少可以带给人们以下四个方面的思考。

第一,具有弱自主性的人工智能能否充当劳动力。当前我国正面临人口老龄化加速,劳动年龄人口不断减少,劳动力成本持续上升的困境。(35)贺丹.人工智能对劳动就业的影响[J].上海交通大学学报(哲学社会科学版),2020,28(4): 23-26.面对这一困境,政府正在积极调研,着手修改和完善现行退休政策、生育政策和社会保障制度等政策措施,但这些政策措施涉及面较广、涉及问题较为复杂,政策措施实施的效果具有不确定性,因此政府出台这些政策措施时特别慎重。由于人工智能具有无限供给且制造成本可以不断降低的特点,如果人工智能能够充当劳动力,那么中国依靠大量的人工智能劳动力,就能有效地摆脱上述困境。从劳动关系角度而言,人工智能劳动力与人类劳动力存在竞争关系、互补关系和独立关系,特别是两者之间的竞争关系可能导致劳动就业问题,但依靠制度创新,人类有能力把劳动就业问题降低到人们可承受的程度。因此,大力发展人工智能技术,使更多的人工智能具备劳动能力,这既有助于摆脱劳动力供给不足的困境,也有助于防止中国产业链因劳动力供给不足而断裂。

第二,重新思考人的本质特征和人类的未来。以往人们认为只有人类才具有自主性,这也是人类自诩为自然界最高等动物的理据。但现在人工智能逐渐也具有了一定程度的自主性,并且其智力的许多方面超过了人类,人类还能不能依凭自主性强调人是世界的尺度、以人类为中心以及自主性是人的本质特征等主张,是否需要重新寻找人类不同于其他动物或物体的本质特征?(36)成素梅.智能社会的变革与展望[J].上海交通大学学报(哲学社会科学版),2020,28(4): 9-13.目前人工智能具有弱自主性,但不排除人工智能自主性可能会不断地增强,甚至于超过人类。此外,还有一种可能性,即人工智能发展出与人类不一样的自主性,这种差异,不是表现在自主性的内涵上,而是说两者的自主性具有不同的结构优势。因此,人类与同样具有自主性的人工智能将存在三种关系: 一是竞争关系,二是互补关系,三是独立关系。从竞争关系角度而言,存在两种结果: 一是人类控制人工智能,二是人类被人工智能控制。人类控制人工智能,让人工智能为人类谋福祉,这是最好的结局。但是,如果人类被人工智能控制,由于人类是一种欲望不断膨胀的动物,这意味着人类的欲望将被遏制,人类将失去自由,处于被奴役的状态,甚至于被消灭。从互补关系角度而言,人类与人工智能可以和平共处、相互包容、相互依存,相互赋智和赋能,共同发展。从相互独立关系而言,人类与人工智能可以相互独立地发展。但这种独立关系将是十分有限的,因为生存的空间是有限的,而且人类的欲望是无限的,人类与人工智能迟早将会发生竞争,其结果不是人类控制人工智能,就是人工智能控制人类,两者必居其一。(37)发生人工智能与人类进行生存竞争,必须同时具备两个条件: 一是人工智能拥有不同于人类的价值观,二是人工智能具有繁殖能力。参见夏永红,李建会.后奇点时代: 人工智能会超越并取代人类吗?[J].教学与研究,2018(8): 64-71. 我们认为,人工智能不可能同时满足这两个条件。因此,不会发生人工智能与人类进行生存竞争的问题。但是如果人机结合,那么人机结合体可以同时满足这两个条件,人机结合体有可能发生与现有人类的生存竞争问题。人类的未来可能因人工智能的发展而改变,需要人类早做谋划。

第三,重新思考自主性的含义、特点、构成、来源、衡量方法、实践价值等。过去人们往往是从人类与非人类动物的区别角度来界定、思考自主性的,而今不属于动物的人工智能具有了弱自主性,而且人工智能自主性的许多特点与人类不同,因此现在人们可能需要重新思考自主性的内涵、外延、构成、来源等问题。过去人们对自主性的讨论往往是基于形而上学的视角,人工智能具有弱自主性,这就提出了一系列的新问题,譬如人工智能的弱自主性究竟弱到怎样的程度,以及自主性需要强到怎样的程度才能具备像正常人一样的自主性,构成自主性的三个要件之间是如何相互转化、相互促进等问题,就需要发展科学方法来解决。进一步言之,还需要思考自主性的实践价值,思考实践价值不仅有助于提高人工智能的自主性,也有助于完善人类的自主性。譬如,自由意志是人类创造性的源泉,而且只有具备了相当程度的自由意志才能发展出道德责任,并且道德责任对自由意志具有反作用,这就要求不断地进行制度变革,创造出更多的促使人们对自己的行为负责的制度安排,从而使人们具有更多的道德责任感,这有助于提高自由意志能力和创造能力。

第四,人类与具有弱自主性的人工智能的关系。以往人类制造的劳动工具都不具有智力,更不具有自主性,因此人们把这些劳动工具仅仅视为一种无生命的工具,它不可能拥有与人类平等的地位。但现在人工智能不但具有了体力和智力,而且还具有了弱自主性,由于它与以往任何一种劳动工具都具有显著的区别,它的地位是不是也应该与以往的劳动工具有所不同?具有弱自主性能否成为与人类具有平等地位的依据,如果不能,那么要取得与人类平等的地位需要具备什么条件?2017年沙特授予人工智能机器人“索菲亚”以公民身份,这表明人类需要平等地对待新的公民成员。可以预言,将来会有越来越多的“索菲亚”,而且“索菲亚”不仅会成为人们的同事,还可能会成为家庭成员,甚至于当一个部门的领导人。人类与“索菲亚”们如何相处将是一个需要认真思考的大问题。最主要的问题在于,如何改革现行的制度以适应具有弱自主性的人工智能广泛地加入人类社会。譬如,现行的法律制度主要调整人与人之间的社会关系,但随着具有弱自主性的人工智能与人类一同生产、生活成为常态,那么改革现行的法律制度就势在必行。法律制度既要调整人与人之间的社会关系,也要扩展到调整人与具有弱自主性的人工智能之间的关系,还要调整具有弱自主性的人工智能之间的关系等。(38)本文的研究认为,人工智能具有弱自主性,这可为朱程斌和李龙等人的观点提供新的研究视角。参见朱程斌,李龙.人工智能作为法律拟制物无法拥有生物人的专属性[J].上海交通大学学报(哲学社会科学版),2018(6): 56-64.

四、 结 语

本文根据现有人工智能的技术特点,对照构成自主性的三个要件——自我意识、自由意志和道德责任,论证了人工智能可以具有弱自主性。具有弱自主性的人工智能至少可以带给人们四个方面的思考: 一是具有弱自主性的人工智能能否充当劳动力;二是人的本质特征究竟是什么、人类的未来前景如何;三是需要重新思考自主性的含义、特点、构成、来源、衡量方法、实践价值;四是人类与具有弱自主性的人工智能的关系。

本文的研究结果表明,人类已经能够创造出具有弱自主性的人工智能。由于技术演化的速度呈现出指数级增长的态势,我们没有理由认为人工智能自主性程度会就此停止发展,在不久的将来,人工智能很有可能会发展出像人类一样的自主性,或者发展出不同于人类的另一种形式的自主性。人类之所以能够主宰世界,是因为人类演化出了自主性。(39)朱晓农认为,人类主宰世界是因为人类进化出了语言能力,人工智能语言是一种新语言,它将加速人类社会的演化。他论证的理论基础是维特根斯坦(Ludwig Wittgenstein)的“语言决定思维论”。参见朱晓农.语言作为文化史分期标准: 人类语思认知的五次突破[J].华东师范大学学报(哲学社会科学版),2020(6): 76-90,180.但我们不完全同意语言决定思维论,我们认为语言与思维相互影响,更为根本性的问题是,我们认为人类主宰世界是因为人类进化出了自主性,特别是进化出了能动性的自由意志能力。目前人工智能已经表现出了弱自主性,如果人工智能进一步地发展出了像人类一样的自主性,或者发展出了不同于人类的另一种形式的自主性,那么人类能否继续主宰世界就是一个大问题。因为在人类没有演化出自主性之前,人类的演化也像其他生物一样遵循达尔文的自然进化规律,人类不能主宰世界。但是人类一旦演化出自主性以后,基于基因的自然进化就退居次要地位,让位于文化演化,而且文化演化的速度远远快于自然进化的速度。如果人工智能具有了自主性,那么人工智能就可能发展出“人工智能演化”。人类的文化演化速度会大大低于人工智能演化的速度,因为人工智能演化将遵循类似摩尔定律的演化规律,其演化的速度将会呈现出指数级的变化。人类文化演化的速度虽然快于自然进化,但文化演化的速度受人类心理学因素的制约。而人工智能演化则完全摆脱了心理学因素的制约,其演化的速度可能会像脱缰之马,难以控制。尽管后人文主义者反对人是“万物的尺度”和“中心”的观点,但是把人类降低到受奴役、受控制,甚至于被随意杀戮的地位,恐怕也不是大多数后人文主义者愿意看到的结局。

为了应对人工智能具有自主性带来的挑战,弗里德里希·尼采(Friedrich W. Nietzsche)提出了“大政治”的设想,(40)尼采.尼采著作全集: 第13卷 1887~1889年遗稿[M].孙周兴,译.北京: 商务印书馆,2010: 760.费利克斯·加塔利(Félix Guattari)提出了“游牧论策略”,当娜·哈拉维(Donna J. Harawa)提出了“赛博格策略”,(41)蓝江.走出人类世: 人文主义的终结和后人类的降临[J].内蒙古社会科学,2021(1): 35-43.陈世丹提出了“尊重策略”。(42)陈世丹认为,人类应当尊重和关爱包括人工智能在内的非人类,建构多元物种和谐共生的后人类社会。参见陈世丹.后人文主义: 反思人在世界中的地位[N].社会科学报,2021-01-07(5).我们认为,只要人工智能不具有能动性的自由意志能力,即使它的能力再强,它也在人类的掌控之中;但是一旦人工智能发展出能动性的自由意志,(43)赵汀阳说:“法力高超又杀不死的孙悟空造反了,众神一筹莫展,即使被压在五指山下也仍然是个隐患,最后还是通过让孙悟空自己‘觉悟成佛’,无欲无情,四大皆空,这才解决了问题。”参见赵汀阳.人工智能的自我意识何以可能[J].自然辩证法通讯,2019(1): 1-8.但人类很难让人工智能“觉悟成佛”,因此只能在技术上限制人工智能发展出能动性的自由意志,从技术上阻止人工智能祸害人类的可能性。那么它必然不会受制于人类,人类的任何应对策略都将显得无能为力。(44)一旦人工智能拥有了能动性的自由意志能力,那么就会出现孙周兴所担忧的局面。孙周兴说:“在今天,因为技术统治时代的到来,技术文明已经失控,也即失去了自然人类的控制,成为一种高风险文明,这也就意味着我们对现代技术的综观和掌控成为不可能的,但也正因为这样,对未来文明的思虑和预期已成当务之急。”参见孙周兴.人类世的哲学[M].北京: 商务印书馆,2020: 287.

因此,我们提倡大力发展人工智能的自主性,但是决不能让它拥有能动性的自由意志能力。为了阻止人工智能拥有能动性的自由意志能力,需要借鉴尼采的“大政治”思想资源,结合时代的要求,本着人类命运共同体的理念,构建世界“大政治”制度,树立世界“大道德”观念,对人工智能科技研发行为进行约束和规范。

猜你喜欢
意志自主性道德
自主性数学课堂中学生解题能力的培养
无人机自主性分级标准浅析
头上的星空与心中的道德律
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
About the bug of the theory of evolution
乐学善悟,让数学复习更有效
观点集萃
《西厢记》中的理性意志与自由意志
道德认同感提高≠道德包容度提高