人工智能与残疾人权益保障的风险防控研究

2020-12-28 02:09桑东辉
创新 2020年6期
关键词:风险防控人工智能

桑东辉

[摘 要] 作为人类科学发展的产物,人工智能在给人类特别是残疾人带来工作、生活、康复、文娱等方面便利的同时,也给残疾人权益保障带来一些潜在的风险和负面影响,如可能产生“算法暴力”下的残疾歧视、残疾人就业机会减少、残疾人对人工智能的依赖而导致脱离社会、残疾人被异化等一系列问题。面对人工智能给残疾人事业发展特别是残疾人权益保障带来的机遇和挑战,应从技术革新、行业自律、道德约束、政府引导、法律规制等几个方面加强对人工智能发展的管控,使之成为残疾人提升生活质量、融入社会整体、共奔小康社会的助推器和加速器,促进我国残疾人事业在新时代实现新发展。

[关键词] 人工智能;残疾人权益;风险;防控

[中图分类号] TP242.6;C913.69   [文献标识码] A   [文章编号] 1673-8616(2020)06-0089-11

一、问题的提出

作为计算机学科的一个分支,人工智能(Artificial Intelligence,AI)主要是指一种基于模擬、延伸和扩展人的智能而研发的理论、技术、方法以及应用系统,其研发的内容及产品主要包括机器人、语音识别、语言处理、图像识别以及各种专家分析处理系统等。近年来,随着阿尔法狗(Alphgo)在人机大战中战胜世界冠军后,人工智能越来越受到人们的关注。目前,人工智能的开发已经不仅仅满足于任务驱动型、知识型的研发路线,还开发出了一些富有情感的,能进行诗歌、绘画、音乐等艺术创作的机器人[1]。应该说,在科技高速发展的今天,人工智能将全面影响人类的生活,作为人类社会一分子的残疾人群体也概莫能外。毋庸置疑,人工智能将给残疾人事业和残疾人的工作生活带来前所未有的推动力,同时也不可避免地带来一些潜在的风险和负面影响。如何实现人工智能对残疾人事业正面推动力的最大化,同时规避其负面影响和风险,是摆在理论工作者面前的一个重要课题。

目前,学术界围绕人工智能、大数据的应用以及科技伦理等方面形成了研究热潮,使之成为一种“显学”。国外在这方面的相关研究起步较早,走在了前面。早在20世纪70年代初,美国社会哲学家刘易斯·芒福德就在《机器神话》(The Myth of the Machine)一书中针对机器技术的发展带给人类的诸如剥夺人的工作权利、磨灭人的个性、消弭个体差异、削弱人类幸福感等问题,提出人工智能与人类之间可能存在的竞争关系和直接(包括间接)伤害[2]。被比尔·盖茨誉为“预测人工智能未来最权威的人”的雷·库兹韦尔在《奇点临近》一书中也对人工智能的未来发展作出了研判,提出机器的智能在2045年将全面超越人类[3]。西方国家的政府和相关机构对机器人和人工智能的伦理问题也出台了制度约束,明确了行业规范。例如,美国航天局(National Aeronautics and Space Administration,NASA)与美国国家科学基金会联合设立专项资金,支持智能机器人的伦理问题研究;欧洲机器人学研究网络(European Robotics Research Network,EURON)制定了《机器人伦理学路线图》;韩国工商能源部则颁布了《机器人伦理宪章》。这些都为人类开展人工智能及其伦理问题研究提供了方向和约束。

我国围绕人工智能等方面的研究虽然起步较晚,但发展迅猛,截至2020年5月21日12时,在知网系统上仅按照“篇名——人工智能”的条件,且只检索2000年以来的期刊文献,即达39056条之多;按照“篇名——人工智能”并“包含——伦理(精确)”的条件缩小检索范围,搜索21世纪以来的期刊文章,也已达到353条。从近年来人工智能、大数据及相关科技伦理的研究情况来看,人工智能及其伦理问题研究已经呈现出一种井喷态势。

残疾人事业发展和残疾人保障等问题,长期以来是社会学、人口学研究的热点,其成果相当丰硕,但在人工智能研究异军突起的今天,围绕人工智能与残疾人之间关系的专题研究却显得相对冷清,存在很多理论盲点和技术盲区。一些相关研究者虽然对这一问题进行了关注,但是研究的侧重点往往集中在人工智能、大数据、互联网等新技术、新经济对残疾人事业发展特别是对残疾人康复、教育、就业等方面的有利影响1,而很少从科技伦理角度,深入探研人工智能、大数据特别是算法歧视对残疾群体的不利影响。即使是专门从事算法歧视的伦理问题研究者,也更多地关注于“算法在编码、收集、选择或使用数据训练时,会出现直接或间接基于种族、肤色、性别、宗教政治见解、民族、血统或社会出身等的区别、排斥或特惠的偏见现象”[4],而往往忽略算法歧视对残疾人群体存在的偏见和歧视。基于这种忽略,在纠正算法歧视的治理层面上,就会出现泛泛地强调保护个人信息、提高算法的透明度等综合治理手段[5],而缺乏专门针对残疾人权益保护的算法监督。

二、人工智能在残疾人事业发展中的应用价值

习近平总书记对残疾人事业发展高度重视,对残疾人群体非常关心,提出“残疾人是社会大家庭的平等成员,是人类文明发展的一支重要力量,是坚持和发展中国特色社会主义的一支重要力量”1,全面建成小康社会,“残疾人一个也不能少”2。同时,围绕发展人工智能,习近平总书记在2018年10月31日举行的中央政治局第九次集体学习时强调,人工智能是新一轮科技革命和产业变革重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题,并指示要促进人工智能与经济社会发展的深度融合。具体到人工智能对残疾人事业的推动上,主要表现在以下几个方面。

(一)在医疗康复方面,人工智能可极大提升残疾人医疗康复效果,有效促进预防残疾,改善残疾人健康状况

近年来,大数据和人工智能在应用领域已经广泛铺开,特别是医疗康复等领域,人工智能更是大展身手。人工智能在疾病筛查、辅助治疗、药物研发等方面都具有得天独厚的优势。一些研究机构致力从市场需求端倒逼人工智能在医疗康复领域的研究开发,积极研发诊疗机器人、手术机器人、虚拟医疗助手、可穿戴医疗设备、远程同步医疗设备等。随着海量数据的采集、流通、分析能力的提升,随着算力、算法的提高,“人工智能+医疗”康复技术已经日渐进入临床医疗和康复保健活动中。如针对肢体残障人士,国内外都在不断开发和改进肢体康复训练机器人,包括上肢痊愈训练机器人和下肢康复训练机器人。通过体感技术的人机交互,来刺激和恢复残障者的肢体运动功能。同时,通过人工智能精准定位残疾人的身体和心理需求,提升残疾人辅助器具的功能,提高技术的人性化程度,实现对残障人士的功能性补偿。这种“人工智能+医疗”康复技术的诊疗模式对残疾人事业发展尤为有利,可提高人工智能的技术支持,努力实现精准医疗,有效促进残疾人的医疗和康复,使一些残疾人在身心上减轻残疾,甚至恢复到正常水平。同时,还可以做到残疾预防,有效降低残疾人口数量。

(二)在教育培训方面,人工智能可针对性加强残疾人的教育培训,提高残疾人受教育水平,提升劳动技能

人工智能在教育培训领域也有很广阔的市场应用前景。通过大数据和人工智能技术,可实现在线教育、定制教育。根据受教者的情况,因人而异地进行个人导向性学习规划设计,实现因材施教,个性化教学。还可以通过机器人家教和答疑讲解机器人等,进行一对一辅导和线上线下辅导。人工智能对教育培训领域的革新对残疾人群尤其具有重要意义。特别对于行动不便的肢体残疾、视力残疾人员及听力残疾者,更具有不可估量的价值。残疾人可以通过模拟教学和虚拟教学助手,借助仿真实训操作环境等,实现线上实训,提高教育培训的效果,为残疾人未来就业奠定坚实的基础。同时,借助翻译软件、助视器、助听器等设备,残疾人可拓展学习范围和内容,更多地了解世界,甚至可创新学习模式,实现在国内外进行自助旅游和“旅游+学习”的游学模式。

(三)在就业脱贫方面,人工智能可改善残疾人就业状况,加速推动对残疾人的精准扶贫,帮助残疾人早日脱贫致富

以往由于心理障碍、物理障碍、结构障碍等,残障人士被当成“失能者”“残缺者”,在就业方面遇到严重的阻碍,进一步加剧了残疾人的贫困状况。譬如,在过去的几十年里,国家积极支持残疾人就业,也出台了很多鼓励残疾人就业的政策,为残疾人争取了很多就业岗位,但这些岗位大多是简单、重复、繁重的体力劳动。如肢残和聋哑人等多在福利工厂从事加工、制造、组装等简单重复劳动;盲人则主要是从事按摩、理疗等行业,少数盲人进入到调音律的调律师行业。现今,随着人工智能的发展,一些残疾人取长补短,通过拥抱新的科技成果实现了就业转型和自立自强。“互联网赋权残疾人是残疾人的自我赋权过程,残疾人通过互联网聚焦于能力建设和能力提升。”同时,“互联网使残疾人在一定程度上摆脱了他者建构的依赖者形象”,这不仅有利于残疾人主体性的恢复,而且有利于弥补残疾人因肢体缺陷而造成的功能损伤,也对增强残疾人的自尊心与自信心十分有利。简言之,“互联网为残疾人建立社会支持系统提供了全新的空间,提高了残疾人的社会参与感和融入感”[6]。事实上,一些残疾人利用互联网、大数据、云计算、多媒体,特别是人工智能等先进技术,克服自身障碍,进行创新创业。很多残疾人还因此自立自强,脱贫致富。可以说,人工智能等先进技术极大地拓宽了残疾人的就业范围,为残疾人脱贫致富创造了前所未有的优越条件。总之,通过人工智能技术可帮助残疾人就业创业,帮助贫困残疾人尽快脱贫致富,这为实现习近平总书记提出的奔向小康社会路上“残疾人一个也不能少”的目标提供了现代科技的强大助推力。

(四)在公共服务方面,人工智能可大大改善对残疾人的社会服务,全方位提升针对残疾人的公共服务水平

人工智能算法、大数据与高性能计算的结合不仅可广泛应用于产业经济和商业领域,还可有力提升公共服务能力,提高公共服务水平。如大数据和人工智能可有效改进政务服务水平,提高政府的行政决策能力,通过对行政决策效果的跟踪和数据分析,改进和完善行政决策。此外,人工智能在社区服务、金融服务、城市管理等方面也都具有改进和提升現有服务能力和水平的优势。在残疾人社会服务方面,人工智能也大有可为,如通过大数据采集残疾人出行数据,再进行数据信息的整理和分析,可进一步优化残疾人出行环境,在无障碍基础设施建设、交通信号系统对残疾人的个性化切换等方面,提供精准的数据和改进方案。又如,在图书馆建设上,可充分利用人工智能技术辟建功能齐备的残疾人阅览室,并根据视力残疾人群的阅读障碍,完善现代化的盲人阅览室设备,研发适合残疾人阅读的人工智能视听设备。再如,在智慧社区建设中,人工智能可有针对性地给残疾人群提供全方位、全天候的个性服务,解决残疾人遇到的问题,提供更适合残疾人生存发展的公共服务产品。

(五)在工作生活方面,人工智能可极大方便残疾人工作和生活,提高残疾人的生存质量

应该说,人工智能对人类社会影响是方方面面的,尤其对人的工作生活影响非常大。在这方面,人工智能对残疾人的工作和生活的意义尤为重大。如前所述,通过人工智能,残疾人可以获得更好的、更有针对性的教育培训,从而提高残疾人的工作技能。在工作中,残疾人也可以借助大数据和人工智能提高劳动生产率,提高工作效率和经济效益。在生活中,残疾人借助助视器、助听器、穿戴辅助设备、读屏设备、无人驾驶汽车、图像自动识别系统、文字与语言交互转换等人工智能技术,可极大地提高生存质量,使残疾人具有更好的获得感和幸福感、安全感。同时,人工智能在为残疾人进行心理辅导、心理疏导,帮助残疾人树立自信心,增强其在社会中的归属感和成就感方面也有很大帮助。正是由于人工智能对残疾人的诸多便利,很多人工智能研发机构日益致力针对改善残疾人工作生活的项目开发和应用。在2018年世界人工智能大会上,上海傅利叶智能科技有限公司就推出了专门针对肢体残疾人的上肢康复机器人Fourier M2和下肢外骨骼机器人Fourier X1参展“AI+健康”板块。2018年5月7日,微软在其年度开发者大会上宣布,从“帮助残疾人士应对来自工作,现代生活和人际关系的挑战”出发,计划5年内投入2500万美元专门用于无障碍人工智能项目研发。芬兰阿尔托大学和日本高知工科大学也在联合研究开发一种旨在为残疾人和老年人服务的优化用户界面的人工智能新算法。

三、人工智能对残疾人权益保障的潜在风险、主要特征及其成因

在看到人工智能给残疾人事业发展带来新的推动力,给残疾人学习、工作和生活带来极大便利的同时,也必须正视人工智能是一把“双刃剑”,其必然对残疾人权益保障产生一些负面影响和潜在风险。有研究者已经开始对“人工智能技术的突破,将支持还是伤害残障者保障的核心价值”这样问题进行自觉反思,并指出“不以理性为基础的科技运用,将导致新的不平等,使残障人远离心灵的交流,失去情感的支持”[7]。科技特别是人工智能对残障人群可能产生的危害远不止这些,这些潜在风险及其主要特征、具体成因主要表现在以下几个方面。

(一)功能设计和算法计算中的人为因素,易产生不同程度的商业暴力,从而造成残疾歧视及隐私泄露的风险

尽管大数据和人工智能的飞速发展给人类社会带来了方方面面的便利和进步,但毋庸置疑,作为计算机科学的核心部分,算法是一把双刃剑,“既会产生正向价值,也会产生负向价值。算法的负向价值表现为对人类的消极影响”[8]。而算法的负面价值一个突出的表现就是算法歧视。“算法本身存在缺陷或瑕疵也会引发歧视。算法决策总是需要设定某些变量或指标,而这些都是人为设定的,不排除掺入歧视的可能。”[9]导致这种算法歧视的原因是多方面的,既有客观上的技术层面的因素,也有主观上的人为因素。毕竟人工智能也好,算法也罢,都是人设计开发的。一切技术层面的问题反映的都是人的问题,人的私欲和商业目的促成了技术扭曲和变相侵权。

具体而言,算法歧视不仅表现在年龄歧视、性别歧视、地区歧视、种族歧视等方面,还会形成对残疾人的歧视。特别是在信息的输入层与输出层之间存在的“算法黑箱”将进一步加剧这种残疾歧视。在大数据分析系统中,残疾人群被数字化。一些掌握大数据、人工智能的机构存在为了商业利益侵犯残疾人的隐私权和知情权等商业暴力和技术暴力。一些违背商业伦理和职业道德的信息采集和分析系统,不仅侵犯了残疾人的隐私权,而且通过计算机算法来梳理出残疾人的生理和心理状况,以及生活和消费偏好,从而用于商业目的,使残疾人群被动地处于数字监控和诱导之下,成为被标签化的被动消费对象。他们利用残疾人的海量信息对残疾人的消费偏好、生活习惯、消费心理等进行商业分析,用于牟利活动,使得残疾人被动地被数字化,被消费,产生商业暴力和技术暴力,进而又进一步深化了对残疾人的歧视。

(二)人工智能对人类工作的替代性,易剥夺残疾人就业机会,存在加速社会阶层极化和固化的风险

人工智能给残疾人就业带来的是创新和损害的双重机制。一方面,人工智能使残疾人能够克服身体残障,扬长避短,胜任更多新兴职业岗位,从而在一定程度上突破了长期以来的残疾人就业障碍。另一方面,也必须看到,不同群体在接受和使用互联网方面的能力差异。也就是说,早期互联网接入带来的“物理鸿溝”正逐步被互联网技能差异的“技术鸿沟”所取代。人工智能、互联网经济直接导致的残疾人“数字鸿沟”正加速新职业体系下的残疾人就业的不平等[6]。此外,随着人工智能的发展,各种在人工智能技术主导下的机器人广泛应用于各行各业,如码垛机器人、运输机器人、擦地机器人、管道疏通机器人、手术机器人、无人机以及形形色色生产线上的机器人。机器人较之人类的劳动者而言,具有很多人类所无法比拟的优点,如可长时间不休息地工作,不需要支付工资,任劳任怨,并且稳定性和精准度都要高于人类。人工智能的未来发展趋势将大量取代一些从事非创造性脑力劳动的工作岗位,冲击人类的就业机会。

在人类的就业群体中,残疾人本来就是弱势群体,在就业方面受到诸多限制,较之健全人更多地面对就业的不利条件和形势。而人工智能的发展将进一步加剧残疾人就业的不利局面和巨大压力,使残疾人在人工智能面前成为“无用阶级”中的首要“无用人群”而率先被淘汰出工作岗位。这样的结果必然一方面增加了残疾人脱贫的难度,使得残疾人脱贫和参与社会受到严重阻碍,成为贫困的一极;而另一方面,少数掌握先进算法、垄断数字经济的技术精英、资本精英掌控着大量的数字信息,并借此垄断商业秘密和经济命脉,甚至主导国家的政治外交导向,同时在使大众沦为“无用阶级”的过程中,使本精英集团成为集聚社会财富的塔尖。由算法造成的新的“数字鸿沟”存在进一步加剧社会的两极分化以及社会的阶层固化的潜在风险。

(三)人类对智能机器的严重依赖性,易导致残疾人与社会隔绝,存在促使残疾人疏远社会和被边缘化的风险

人工智能的发展不仅给人类特别是残疾人带来极大的便利,而且随着人机(人—工具)关系的不断深化,人类特别是残疾人会不由自主产生对人工智能的强烈依赖性。譬如,对于残疾人来说,陪伴机器人可以代替人,甚至具有比亲人更贴心、更任劳任怨、更恒久的服务和陪伴,从而在残疾人与机器人之间超越人际伦理而形成一种身心的依赖。而对于一些单身的残障人士而言,伴侣机器人以其具有陪伴功能和关爱性而成为他们的身心寄托。久而久之,本来在身心方面存在障碍而陷入“拒绝敏感”心理1黑洞中不能自拔的残疾人,就会更加疏于和畏惧在现实生活中与人交往,而更加重了对人工智能机器人的功能依赖和心理依恋。一方面,是人工智能对残疾人无歧视、不排斥的抚慰和功能助益;另一方面,则是基于“拒绝敏感”心理下的残疾人的社交恐惧和消极回避。这种一推一拉的情况使得残疾人一方面加剧了对人工智能的依赖,另一方面则进一步导致与社会的疏离与隔绝。

按照现代残疾观念,作为人类大家庭的一分子,残疾人群体的目标已经不仅仅停留在“提高生活质量,回归健全人社会”上,还要创建无障碍环境,发挥潜能,为社会做贡献[10]。而人工智能的出现一方面为残疾人回归社会、参与社会创造了前所未有的便利条件,但同时也因其功能性优势而使得残疾人在心理上产生对人工智能机器人的深深依赖,甚至进一步与外界隔绝,脱离社会,被社会边缘化。

(四)人工智能的高度拟人化,模糊了残疾人的类属性,使残疾人存在被异化的风险

人工智能的发展,容易使人们迷失在科学昌明的迷梦中,丧失原有的工具理性,也模糊了人的自身类属性,从而进一步加剧人类被物化、被异化的进程。按照马克思主义经典作家的理论,费尔巴哈把人的“类本质”理解为一种抽象的存在,也就是说,费尔巴哈只是把“人的本质理解为‘类,理解为一种内在的、无声的、把许多个人纯粹自然地联系起来的共同性”[11]。而事实上,人“是一切社会关系的总和”[11]。而人工智能作为一种拟人的科技手段和技术,本质上并不是社会关系的总和,而只是一种替代性的、拟人化的工具和技术,即人工智能是“类人”而非“人类”。但这种特性和本质随着人工智能的技术突破和广泛应用所带来的高度拟人化,容易被忽视,也极易模糊人与人工智能之间的类属界限,特别是对功能欠缺的残疾人而言,这种类属性上的模糊和混淆显得更为明显。

有研究者指出:“19世纪,机器战胜了人类的肌肉;现在,机器正在与人类的大脑角力。机器人兼具大脑和肌肉。我们都正在面对‘被我们的造物完全取代的未来。”[12]研究者们预测未来的机器人甚至比人更像人,但随之而来的是人文精神的加速衰落,也带来了人类自身被异化的风险。按照马克思的观点,劳动创造了人本身,同时也使得人类发生异化。具体来说,不仅劳动者因劳动生产出的产品、剩余价值、资本而发生异化,而且劳动条件和生产资料也与劳动发生着异化。事实上,人工智能就是一种人类劳动,是一种复杂的人类劳动产品。就像马克思预言“机器能够完成同样的劳动”的那样,人工智能可以把人从枯燥、繁重和危险的工作中解放出来,但同时也会挤占人类的工作岗位[13],更会使创造它的人类发生物化和异化。同样不可避免的,作为人类社会一分子而且是功能欠缺的失能群体——残疾人,由于其自身的一些障碍和弱势,在人类被异化的过程中,可能率先成为被人工智能异化和物化的首选对象。造成人类与人工智能之间的自我与他者的角色困惑,使得人类特别是残疾人出现自我迷失。

四、基于残疾人权益保障的人工智能发展之风险防控

在进入科学高速发展的今天,在全面建设小康社会的路上,面对人工智能迅猛发展给残疾人事业带来的冲击和挑战,要实现全体人民(包括残疾人)的“中国梦”,必须在习近平新时代中国特色社会主义思想的指导下,不忘初心,牢记使命,从有利于残疾人事业健康发展的角度,有针对性地推动残疾人事业与人工智能的有机结合,加强对人工智能、大数据、互联网、算法等的技术管理和伦理审查,完善对人工智能等新技术的法律规制,扬长避短,实现人工智能对我国残疾人事业的持续正向推动。

(一)坚持人本原则,明确与残疾人相关的人工智能技术研发和算法定位

无论人工智能发展到如何先进和如何不可思议,归根结底,人工智能是人的智能,是人对机器的开发和创造,是人将人类所希望的智能和功能移植、注入智能化的机器之中。另一方面,人工智能是“为人”的智能,是以人为中心的。人工智能在技术研发阶段包括算法定位等,都要坚守人本主义和人道主义的原则。在进行人工智能产品开发时,要充分體现“为人”的人本原则和人道主义。特别是在开发与残疾人相关的人工智能产品时更要坚持人本主义原则,体现社会的公平正义,将对残疾人的关爱嵌入人工智能产品的开发中,耦合进算法的程序正义中,阻断人被机器异化特别是残疾人被人工智能异化的通道。正如罗尔斯所谓的正义的两个原则1,在人工智能的技术开发和算法计算中,残疾群体与其他健康人享有同样的平等权利,而且这种权利应具有开放性。通过这种开放性,残疾人借助人工智能可以全方位地融入社会生活中,实现残疾人在社会中真正的独立、自由和平等。这不仅仅是一种社会正义观念,更体现了人权理念。正如巴克尔所言,“残疾人问题是一个人权问题,所有的人都应该意识到残疾人是社会的一部分,必须尽一切努力使他们参与到整个社会中来”[14]。人工智能及其算法的技术伦理在涉及残疾人问题时,首先应将平等、自由、公正等体现人权和社会正义的精神考虑进去。

(二)强化行业自律,发挥相关行业组织保护残疾人群体权益的约束作用

应对人工智能可能带来的一系列问题,不仅要激发研发人员的科学精神和人道主义精神,从产品研发和算法设计的源头上注入公平正义理念,保障残疾人合法权益,而且更要充分发挥行业组织的行业自律作用,形成对人工智能发展的综合治理,引导人工智能沿着健康正确的轨道行进。结合残疾人权益保障,建立健全有关大数据和人工智能的行业组织,发挥相关行业协会、产业联盟在规范行业自律方面的作用,引导人工智能在针对残疾人群体进行产品开发和营销中,立足于保护残疾人的合法权益,加强对残疾人的信息数据采集的规范化、合法化管理,规范数据交易环节,保护好残疾人个人信息和隐私,从有利于残疾人身心康复医疗、有利于残疾人工作生活、有利于残疾人融入社会出发,开展人工智能产品研发。2015年9月5日国务院颁布了《促进大数据发展行动纲要》,2018年中共中央网络安全和信息化委员会办公室指导发布了《中国大数据行业自律公约》,通过明确行业规范,加大了治理大数据行业乱象的力度。相关行业组织应在此基础上制定更加细化的自律公约或行为守则等,指导行业内的机构加强内部的行业约束,坚持底线进行技术开发、技术交流和技术管控,完善相关监控体系,净化行业空气,营造有利于残疾人事业发展的人工智能技术发展氛围。

(三)守住伦理关口,规范涉残人工智能技术和产品的伦理审查

众所周知,人工智能的发展必然会给人类社会伦理体系提出新的问题和挑战。“从一个角度来看,我们创造的机器人貌似只是机器而已;而从另一个角度来看,它们似乎是复杂而具有适应性的实体,甚至可能对我们在道德关心的问题有着或多或少的敏感性。”[15]面对人工智能带给残疾人的算法歧视、隐私侵犯、商业诱导等一系列道德问题,应加强对人工智能的道德制约,明确人工智能的道德底线,纠正单纯的“技术中立”所带来的道德偏差。首先,围绕设计这个人工智能的逻辑起点,要从源头上树立起“合乎伦理设计”的人工智能设计理念。即在设计之初就将伦理规范和道德规则嵌入其中,从而在保障人类基本权利的前提下,规范人工智能机器与程序在合乎伦理的轨道上发展[16]。其次,伦理与技术的内在契合,在“是”与“应该”之间架起了一座桥梁。在技术开发和进步的同时,关注增进人类福祉和公共之善、突出共享理念、尊重差异价值、缩小数字鸿沟、防范数据失信、保护个人隐私、避免“自然主义谬误”等道德意义和伦理底线[17]。最后,我们必须认识到保障残疾人权益在人工智能技术发展中的伦理意义。大力提倡符合人类根本利益、保护残疾人合法权益的科技伦理、医学伦理、生命伦理,鼓励用于残疾预防、残疾人康复医疗目的的基因采集、基因测序、基因编辑等研究。完善技术伦理审查、医学伦理审查等现代技术的道德审查和约束机制,防止人工智能等现代技术在道德上“跑偏”,避免由此给残疾人带来的身心伤害和利益损害,最大限度地发挥人工智能改善残疾人工作生活质量的正向作用,推动人工智能在道德范畴内促进残疾人事业发展。

(四)加强政府引导,完善有利于残疾人的人工智能发展规划和政策

在人工智能发展方面,政府应充分发挥引导作用。特别是围绕残疾人事业,要将人工智能的发展作为促进残疾人事业进步的重要推动力量。应进一步做好中国残疾人事业“十四五”发展规划的编制工作,完善《新一代人工智能发展规划》。在将人工智能作为推动残疾人发展的科技力量写进“十四五”发展规划的同时,有效把控人工智能发展的方向、用途,实时监测人工智能的社会效果和社会影响,把握人工智能的技术路径。同时,充分利用互联网、大数据等信息技术,提升人工智能在社会综合治理方面的技术支撑作用。通过智慧城市、智慧社区的规划建设,实现对残疾人管理与服务的数据化、网络化建设。通过构建体现社会公平正义的大数据体系,发展有利于残疾人的人工智能技术环境,助推残疾人事业向智能化方向发展,助力残疾人群体全面脱贫攻坚,实现习近平总书记所说“全面建成小康社会,一个也不能少”的奋斗目标。

(五)强化外在他律,完善残疾人权益保障的人工智能相关法律规制

人工智能的高速发展塑造了智慧城市、智慧社区、智慧乡村等,深刻影响着整个经济和社会结构。在新的人工智能时代,“技术不再只是客体与工具,它也塑造和改变了法律所处的宏观环境”。这种财产形态的知识化、数据化、信息化与虚拟化,反过来,也给整个法律系统的代码化、算法化与学习化转型奠定了经济基础。这就要求传统的法律范式要积极适应全球化、私有化、数字化潮流的发展需要,重新设计法律战略,重构法律体系,平衡不同群体间的利益,控制人工智能带来的技术风险,调整人工智能对不同人群的影响和法律关系[18]。也就是说,“面对人工智能的各种社会风险,法律进行介入规制的时候,就应确立必要的风险社会理念,进行有效的风险控制”[19]。同时,必须看到,尽管行业自律在规范人工智能、大数据、互联网等产业加强自我管理、维护信息安全、保障残疾人权益等方面,发挥了重要的自律和约束作用,但一个社会不能仅仅靠行业自律,靠个人的道德操守,还要加强外在规制的他律,必须是自律与他律的紧密结合。以大数据时代个人信息保护为例,无论是政府监管还是法律规制,抑或是行业自律,“都存在固有的弊端,必须将两者的管理力量进行有机结合,才能使之在个人信息保护领域发挥最大效用”[20]。无疑,在对人工智能的风险控制方面,具有强制效力的法律规制也显得十分重要。从维护残疾人利益、发展残疾人事业角度出发,在法律规制方面应进一步加强对人工智能的技术立法。一方面,与当今科技飞速发展相适应,根据人工智能的发展状况,及时修订《中华人民共和国残疾人保障法》,将残疾人信息保护、禁止针对残疾人的算法歧视、规范有关残疾人康复、教育、辅助等方面的人工智能研发等法律规定写进《中华人民共和国残疾人保障法》。另一方面,加强人工智能有关技术立法,将算法审计等制约性法律条文写进有关法律文件中,加强对人工智能中可能影响到残疾人利益的项目开发、应用的法律规制。

综上所述,尽管有残疾群体存在的人类是不完美的,但残疾作为上帝给人类的“特殊礼物”,始终相伴人类社会的发展。同时,残疾不是残疾人的过错,残疾人需要全社会的关爱和环境友好型社会的承载。应该说,在当今社会,一个国家、一个地区残疾人的地位如何、生存质量好坏已经成为衡量当地文明程度的重要标志。同样,科技进步也代表了一个国家、一个地区的文明发展水平。将当今科技进步成果的代表——人工智能与残疾人事业紧密结合,充分发挥人工智能在改善残疾人工作生活、促进残疾人事业发展方面的正向推动作用,不仅是惠及我国8500万残疾人群的伟大惠民工程,同时也是促进社会文明进步的重要举措,更是实现中华民族伟大复兴的中国梦、迈入小康社会的现实需要和时代使命。

参考文献:

[1] 韩业庭.人工智能会取代人类的艺术创造力吗[N].光明日报,2019-06-12(13).

[2] 芒福德.机器神话[M].宋俊岭,译.上海:上海三联书店,2017:197-199.

[3] 库兹韦尔.奇点临近[M].董振华,李庆成,译.北京:机械工业出版社,2011:80.

[4] 杨学科.论智能互联网时代的算法歧视治理与算法公正[J].山东科技大学学报(社会科学版),2019,21(4):33-40,58.

[5] 杨成越,罗先觉.算法歧视的综合治理初探[J].科学与社会,2018,8(4):1-12,64.

[6] 焦若水,李国权.残疾人就业:互联网时代的机遇与挑战[J].残疾人研究,2019(4):45-53.

[7] 韩大元.中国残障人权益保障理念、体系与挑战[J].人权,2018(2):25-35.

[8] 郭林生.論算法伦理[J].华中科技大学学报(社会科学版),2018,32(2):40-45.

[9] 郑志峰.警惕算法潜藏歧视风险[N].光明日报,2019-06-23(7).

[10] 朱图陵,王保华.更新残疾观改变残疾状态[J].残疾人研究,2017(1):50-54.

[11] 马克思,恩格斯.马克思恩格斯选集:第1卷[M].北京:人民出版社,1972:18.

[12] 马尔科夫.人工智能简史[M].郭雪,译.杭州:浙江人民出版社,2017:86.

[13] 李晓华.人工智能的马克思主义解读[J].人民论坛,2019(S1):98-99.

[14] A.巴克尔,新馨.残疾——挑战与回应:人人机会平等[J].国外社会科学,2003(6):103-104.

[15] 瓦拉赫,艾伦.道德机器:如何让机器人明辨是非[M].王小红,译.北京:北京大学出版社,2017:188.

[16] 闫坤如.人工智能“合乎伦理设计”的实现路径探析[J].大连理工大学学报(社会科学版),2019,40(6):123-128.

[17] 岳瑨.大数据技术的道德意义与伦理挑战[J].马克思主义与现实,2016(5):91-96.

[18] 余成峰.人工智能时代的范式转移与法律变革[J].科学与社会,2019(4):93-112.

[19] 马长山.人工智能的社会风险及其法律规制[J].法律科学(西北政法大学学报),2018(6):47-55.

[20] 张继红.大数据时代个人信息保护行业自律的困境与出路[J].财经法学,2018(6):57-70.

[责任编辑:李 妍]

猜你喜欢
风险防控人工智能
配合防控 人人有责
精准防控 同心战“疫”
防控疫情 从我做起
争分夺秒的防控导弹车组
2019:人工智能
人工智能与就业
数读人工智能
中国经济转型的结构性特征、风险与效率提升路径
互联网金融的风险分析与管理
企业纳税筹划风险及防范措施