人工智能伦理准则与治理体系:发展现状和战略建议

2021-05-08 07:13王柏村黄思翰张吉豫鲁俊群
科技管理研究 2021年6期
关键词:伦理人工智能算法

陈 磊,王柏村,黄思翰,张吉豫,郭 锐,鲁俊群

(1.中国工程院战略咨询中心,北京 100088;2.浙江大学工业工程研究所,浙江杭州 310027;3.北京理工大学机械与车辆学院,北京 100081;4.中国人民大学法学院未来法治研究院,北京 100872;5.清华大学人工智能国际治理研究院,北京 100084)

1 研究背景

自1956 年诞生,人工智能(AI)发展经历了多次高潮和低谷[1]。2006 年以来,人工智能技术迎来了又一次发展高潮,以深度学习为代表的新一代人工智能技术在机器视觉和语音识别等领域取得了极大的成功,使人工智能再次受到广泛的关注[2-4]。人工智能技术不可逆转地重塑着人类生活、工作和交往的方式,但在发展的同时,也带来了公共安全风险、算法偏见问题、责任伦理问题、人类权利保障等一系列的伦理挑战[5]。不管是弱人工智能还是强人工智能,人工智能伦理是无法绕开的重要议题,并逐渐成为各国人工智能相关研究、人工智能政策与立法等方面关注的重要内容之一[6-8]。

国内学者对人工智能的伦理问题进行了大量的研究,人工智能正快速地在多个领域应用,比如自动驾驶、医疗健康、智能媒体等,在这个过程中涌现出了许多新的伦理问题。以智慧医疗为例,通过分析智能医疗伦理冲突案例,可以总结出“以人为本”“人机和谐”“强化伦理责任”等智能医疗发展过程中应遵循的原则,以促进智能医疗的和谐有序发展;另外,政府、专业团体、人工智能开发者等应协同合作,为公众参与提供渠道,完善智慧医疗的监管体系,使智慧医疗的发展符合法律规范和伦理规则。人工智能技术的发展对现行法律法规的挑战也愈发明显,特别是在民事主体、侵权责任、人格权等方面,亟需法律制度产品供给的补充[9]。总体来说,人工智能技术存在的主要伦理问题包括人权伦理、责任伦理、道德地位伦理等[10]。

当前正值我国人工智能技术飞速发展的关键时期,对人工智能伦理问题的深入研究有着重要的意义。一方面,需要平衡技术革新与风险防范,建立包容创新、审慎发展的政策和制度环境;另一方面,建立人工智能伦理准则过程中可以充分调动社会力量,共同解决人工智能伦理问题,推进人工智能技术和产业符合伦理、安全可信地创新发展。

2 人工智能伦理准则的概念

“伦理”可以从理想和规范两个层面进行阐述。在理想层面,伦理主要指代理想化的人与人之间的关系、人与社会之间的关系,可以作为对于法律、政策、风俗习惯等具体规范的评价依据,指导法律、政策等规范的制定。在规范层面,伦理被看作是与传统风俗、法律制度等并列的一类社会规范。与法律制度相比,伦理在实际运行中更多地依赖个体的自律,缺乏国家强制力的保障。

当前人工智能伦理问题主要从两个维度进行讨论:一是关于人工智能“拟主体”及相关伦理问题的讨论;二是关于人工智能在社会中日益广泛的应用本身引起的伦理问题的讨论。第一类讨论通常以人工智能的“自由意志”“自治性”或“主体性”为视角,例如机器人是否会具有自我意识、自由意志且不被人控制甚至毁灭整个人类?尽管一些领域应用的人工智能具有一定的进行决策、模仿人的行为的功能,但从法律等社会规范的层面来看,人工智能是否能够成为规范意义上的主体并不取决于其功能,而是以自由意志为核心来构建的,而当前像人一样具有自由意志并能作出伦理决策的智能体尚无发展路径,且自由意志本身还属于科学研究范畴的问题。因此,在自由意志这一层面的人工智能伦理问题当前仅存在于想象之中,目前并无客观技术基础和探讨的必要性。第二类讨论主要着眼于人工智能技术和应用的发展给人与人的关系、人与社会的关系带来的一系列现实的和潜在的问题及挑战。人工智能技术中关注的伦理问题,并非限于机器是否具有自由意志、是否应将其视为伦理关系中的主体来对待和建设伦理关系这样的问题,而是着眼于在社会结构发生变化的当下对人伦关系、社会秩序的理性思考。在当前及可预见的未来,人们的生产生活方式将逐渐受到人工智能等技术的影响,社会形态和结构将呈现出与工业时代不同的全新样貌,必然且正在进入伦理视域。基于此,人工智能的伦理问题,实际上只是飞速发展的信息技术的伦理问题的延伸和发展。因此,本研究所说的人工智能伦理,关注的是“人工智能技术和系统被用于辅助和执行人类决策”这一特征,从伦理作为理想秩序和社会规范这两个层面着眼,致力于寻求解决实际问题、求得社会共识。

基于上述分析,人工智能伦理准则主要是指当前在人工智能技术开发和应用中,依照理想中的人伦关系、社会秩序所确立的,相关主体应予以遵循的标准或原则。当然,任何伦理准则都必须借助于相关治理体系中的一系列互相配合的运作机制,并且应用于具体的场景才能得到充分落实,因此,本研究的主要内容不仅包括人工智能伦理准则相关发展现状和基本原则,还涉及到具体的典型应用场景,以及对治理框架和治理体系的探讨。

3 人工智能伦理准则及治理发展现状

对世界主要国家和地区以及相关国际组织在人工智能伦理准则相关领域的发展和举措进行梳理分析(见表1 至表3),可以看出各国或组织均非常重视人工智能伦理问题,分别从出台国家政策、发布伦理准则、倡导行业自律、立法和制定标准等不同路径开展了许多行动。从治理领域来看,在制定标准和立法方面,自动驾驶领域是当前各国开展的重点领域。在个人信息保护、算法规制、机器人相关法律方面,欧盟走在世界前列,特别是欧盟的《通用数据保护条例》引领了世界各国和地区的相关立法和研究,其中的复杂规定、高额罚金、“长臂管辖”等对世界各国的信息技术企业都产生了重要影响。从治理路径来看,美国最早关注人工智能的伦理问题,并着眼于对人工智能国际标准制定的主导;欧盟巧妙避免技术和产业的劣势,从人工智能价值观的角度进行研究,通过立法等活动将欧洲的人权传统转化为其在人工智能发展中的新优势,相关立法活动事实上增强了欧盟对全球信息技术产业的影响力;英国政府未将重点完全置于国家层面的强制性规定,而是强调加强行业自律。综上,各国和地区以及国际组织在人工智能伦理准则建议和立法方向的观点基本一致,初步达成了共识。基于此,人工智能伦理的发展开始进入新的阶段,也就是所谓的人工智能伦理应用场景快速扩张和讨论人工智能伦理治理体系建设阶段。

表1 主要国家和地区人工智能伦理治理主要进展

表2 相关国际组织人工智能伦理治理主要进展

表3 我国人工智能伦理治理主要进展

4 典型应用场景中的人工智能伦理问题

4.1 人工智能伦理问题的成因

探究人工智能伦理问题的成因,是梳理在不同应用场景下人工智能典型问题的前提性工作,也是建构应对人工智能伦理问题的价值取向和治理框架的理论支撑。根据人工智能伦理问题的特征和产生方式的不同,可从技术、数据和社会应用3 个层面来梳理其成因。

4.1.1 技术层面

技术层面引发的人工智能伦理问题,主要包括算法及系统的安全问题、可解释性问题、算法歧视问题和算法决策问题。算法及系统的安全问题,主要是指算法或系统的漏洞被攻击和恶意利用的情形;可解释性问题,则主要关注人类的知情利益和主体地位,潘云鹤院士[11]提到人工智能应用需关注算法的可解释性;算法歧视问题,来自算法研究人员的认知偏见或者训练数据集不完美导致的歧视性的决策结果;算法决策问题,则是人工智能自学习导致的不可预见性结果。

4.1.2 数据层面

人工智能技术在许多领域获得重大进展依赖于海量数据,随着人工智能技术日益广泛地应用在社会中,网络空间及物理空间中的数据采集、存储、流通和利用行为均大规模增加,数据导致的伦理问题逐渐显现。人工智能技术的快速发展以及大量应用案例实施,提供了丰富的个人信息收集场景、范围和数量,数据采集日益成为引发人工智能伦理问题的重要原因之一。

4.1.3 社会应用层面

社会应用层面引发的人工智能伦理问题,主要是人工智能算法的滥用和误用。由于算法滥用/误用,人们在社会活动时容易出现使用目的、方式、范围等偏差,从而导致不良的影响和后果。举例来说,利用人脸识别算法可以提高追查犯罪嫌疑人的效率,但是,如果把人脸识别算法用于判别某人是否有犯罪的可能性,则就属于算法的滥用。

4.2 典型应用场景

人工智能的各类典型应用场景是连接价值取向与社会实践的最佳桥梁,以下将从技术发展比较成熟、社会争议较大、解决相关伦理问题紧迫性强的几类场景出发,梳理相关的人工智能伦理问题。

4.2.1 自动驾驶

自动驾驶技术在解放驾驶员双手的同时,给自动驾驶汽车企业和政府带来了许多伦理难题。从自动驾驶汽车企业角度,车辆在面临突发情况时,是坚持乘客安全至上还是要保障整体损失最小?自动驾驶汽车在面临伦理选择时,能否简单地进行制动规避或将控制权交回个人?在发生不可避免的碰撞时,自动驾驶汽车企业应以何种标准进行抉择?总体来看,自动驾驶场景涉及的伦理问题可归结为两个方面:一是事故风险的预先分配方案缺乏必要的社会共识。不同于传统场景下乘客在事故发生时作出临场选择,自动驾驶系统需要对紧急情况下的决策预先作出安排,比如是优先保护乘客还是行人、是否优先保护妇女儿童等。二是自动驾驶与现行交通法律法规体系的关系有待协调。自动驾驶的一些特性对现行交通法律法规的适用形成了障碍,例如对政府而言,自动驾驶汽车是否可以在紧急情况下违反交通法规以避免碰撞,还是从程序上就应被禁止违规行驶。

4.2.2 智能媒体

较之于传统媒体,智能媒体基于用户画像进行内容推送,以用户的喜好为主要标准,能为用户精准地提供其感兴趣的内容。然而,这种推送方式尽管能够在最大程度上满足用户需求,但也可能引发相应的伦理风险。首先,推荐算法对用户数据的收集和使用缺乏明确的边界。为了精确刻画用户画像,算法需要对用户的历史行为、个人特征等数据进行深入细致的挖掘,这可能导致推荐系统过度收集用户的个人数据,甚至达到侵犯用户隐私的程度。其次,内容推送的信息内卷,往往会形成“信息茧房”[12],在无形中限制了用户探索新知的范围,也对公共议题的讨论形成障碍;此外,以讨好用户为初衷的智能媒体形式难以保证推送内容的质量。智能媒体以用户为导向、以流量为目标,在人工智能时代很容易放弃对于内容质量的必要坚守。最后,信息富有者与信息贫困者之间的“信息鸿沟”也是智能媒体场景下应当引起关注的伦理问题之一。

4.2.3 智能风控

传统的金融风控数据支持、覆盖人群范围都十分有限。在人工智能时代,庞大的个人数据库为金融风控提供了资源,金融机构可以借此给更广泛的人群提供个性化的金融服务,实现真正的普惠金融。然而智能风控在发展的同时,也容易发生许多伦理问题。首先,金融风控对数据的收集和使用存在潜在隐患。金融领域的数据可能会直接影响用户的个人信用,因此金融机构在收集用户的海量数据时,既要保证数据的安全性,也要保证数据的准确性。鉴于现有的金融数据收集处理体系尚不完备、过程尚不够透明,用户的个人信用数据可能在用户不知晓的情况下发生负面变化。其次,金融风控缺乏正当性的信用评级体系,容易引发大范围的歧视问题。当前金融机构尚未建构起合理、正当的信用评级体系,很可能由于算法歧视、算法不透明等原因而产生相应的伦理问题。

4.2.4 智慧医疗

人工智能在智慧医疗场景下主要被应用于建设智慧医院、探索治疗新模式,如开发智能诊疗助手、人机协同的手术机器人,研发柔性可穿戴设备,建立快速精准的智能医疗体系等[13]。虽然,人工智能在医疗领域的应用是为了增加人民的福祉,但也容易引发人工智能伦理风险问题。首先,人工智能算法的疾病诊断可能出现算法安全和准确性问题,对患者身体健康造成损害,例如IBM Watson 的智能问诊系统因推荐错误的诊疗建议而引起了广泛质疑[14];其次,人工智能算法的不可解释性可能与作为病人基本权利的知情权产生冲突;最后,药品定价、医药招标标准等涉及政府治理职能的人工智能,容易引发对公权力的滥用,损害公众利益。

4.2.5 智慧司法

智慧司法应当具备增强保障司法公信力的功能。目前,人工智能技术在司法领域的应用过程中主要产生了两方面的伦理问题:一是算法的设计者对于不同数据的理解不同于职业法律群体,人工智能可能会对案件得出错误的结论,损害案件当事人利益;二是算法本身的科学性、准确性尚没有得到业界的一致认可,容易引发更大范围的争论[15]。此外,智慧司法还存在着“技术黑箱”引起司法透明度缺失、数据的相关关系与法律中的因果关系联系不明、法官产生技术依赖等相关伦理问题。

4.2.6 智能服务机器人

消费者对于智能服务机器人产业给予了很大期望,从阿西莫夫的“机器人三大定律”开始所引发的相关伦理问题就已经在学界和社会公众中得到讨论。突出的问题包括如下方面:一是智能服务机器人应用场景下的人工智能技术缺乏应对利益冲突的社会共识,当服务对象利益与公共利益或他人利益发生冲突,或服务对象的意志与其自身利益发生冲突时,智能服务机器人应当如何进行决策问题;二是智能服务机器人可能会对服务对象的人身权益造成伤害,比如泄漏服务对象的私密信息、造成人与人之间的疏离等[16]。

上述人工智能应用典型场景下,人工智能技术在应用过程中可能存在的伦理问题是当前人工智能技术发展的痛点、难点,有待于从政策、法律、行业自治等途径进行解决。除了上述人工智能应用直接产生的伦理风险外,人工智能发展还存在着一些长期、间接的伦理风险,例如就业问题,当人工智能和机器人技术演化到一定程度并突破其应用阈值后,将会引发新一轮的产业革命,并有可能重新构筑产业生态。虽然人工智能技术和产业本身发展很快,但是其伦理治理应循序渐进,仍应聚焦于人工智能所直接引发的伦理风险。

5 人工智能伦理治理的基本原则和框架

目前,人工智能伦理治理经历了两个阶段,阶段一是对人工智能伦理必要性的讨论,在专业性与广泛性上引起了国际的普遍重视,阶段二进一步对人工智能伦理准则进行讨论,特别是关于人工智能伦理基本原则的讨论。综合国内外相关成果,通过对人工智能伦理所处理的人工智能系统相关主体的伦理角色和伦理关系进行分析,可以总结人工智能伦理治理的主要路径是人类主体权利的保护和负责任的创新,前者要求强调和明晰所要保护的人类利益,后者则强调对整体责任的认识和内部责任的划分。由此,我国人工智能的发展应遵循以下基本原则:人类根本利益原则、责任原则,而由这两个原则及其派生出来的要求构成了应对人工智能伦理问题的准则体系。

5.1 基本原则

5.1.1 人类根本利益原则

人工智能应以实现人类根本利益为最终目标,即人类根本利益原则[17],体现了对人权的尊重,降低技术风险和负面影响的价值选择。人类根本利益原则应以促进人类向善为目的,保障人的基本权利与自由,关注隐私保护等。

5.1.2 责任原则

人工智能的发展要建立明确的责任体系,也就是责任原则[17]。基于此,人工智能发展过程中遇到人类伦理或法律冲突问题时,可以从技术层面对人工智能技术应用部门进行问责。在责任原则下,人工智能技术的开发和应用应分别遵循透明度原则和权责一致原则。

5.2 治理框架

人工智能伦理的治理应以技术发展与规制为主题,形成涵盖技术、政策、道德、法律等多层次的伦理治理体系,具体如表4 所示。

表4 人工智能伦理基本原则与多层次治理体系

5.2.1 技术应对

人工智能当下的许多伦理风险可以通过技术的改进予以解决,例如,算法可解释性和透明性是人工智能伦理的重要命题之一,涉及人类的知情利益和主体地位,而算法可解释性和“算法黑箱”问题就可以在一定程度上通过技术手段逐渐得到部分解决,即借助技术使得机器理解层次降维到人类理解层次,也即人类在更大程度上能看懂、能理解有关算法。另外,也要逐步形成算法开发者和使用者信息披露的技术惯例,对算法进行监管,接受公众的审查和质询。

5.2.2 道德规范

我国《新一代人工智能发展规划》强调,未来要重点开展人工智能行为科学和伦理等问题研究,基于此探索伦理道德多层次判断结构及人机协作的伦理框架。在相关法律法规尚未成型或生效之前,需要通过教育和社会舆论进行适当地引导,倡导正确的价值观,推动人工智能伦理共识的形成,有效地避免一些违背伦理道德却未违反现行法律的恶性事件发生。另外,还要推动科研机构和企业对人工智能伦理风险的认知和实践,通过发布伦理风险分析报告等形式讨论人工智能伦理风险的应对措施,为推动科研机构和企业对人工智能伦理风险的认知和实践提供参考。

5.2.3 政策指引

由于人工智能技术的前景和潜力尚有不确定性,通过国家政策指引相比立法有更大的灵活性,也更体现差异化和顺应创新趋势。根据技术发展程度,在某些领域尝试确立一些应用模式作为典型,逐步推进人工智能标准化进程,进而推动人工智能应用领域的不断拓展。另外,还要推动人工智能企业建立伦理委员会,明确扮演人工智能技术落地执行者角色的企业的伦理意识和社会责任,并将对伦理的考量贯穿始终。目前,Google、微软等科技公司纷纷设立了人工智能伦理审查委员会。

5.2.4 法律规则

在人工智能这一新兴领域的法律规制中,需要在促进发展与风险控制之间探求最佳平衡点,尤其需要把握公权力干预和产业自治之间的平衡。一个可行的路径是:在实践相对成熟、已有一定普遍共识的部分,可尝试进行立法规制;而在实践不足以证成立法规制的领域,则通过行业自律、政策引导等方式进行伦理风险控制。具体建议如下:一是根据行业发展进行立法规划,在成熟的领域推动立法,如针对各领域人工智能技术应用中均较为普遍的对于个人隐私等人格利益侵犯的风险问题,通过立法的方式进行保障。二是在行业发展需要明确责任的领域启动立法研究,如对自动驾驶等发展相对成熟、迫切需要明确责任的领域,建议在现行法律之下尝试地方性、试验性的立法,为推进人工智能立法进程提供有效经验。

6 加强人工智能伦理治理的措施建议

人工智能伦理准则在社会治理中的切实落地需要一个发展过程,因此建议采取分层次、多维度的治理体系,在实践相对成熟、已有一定普遍共识的领域可尝试进行立法规制,而在实践不足以证成立法规制的领域则通过政策引导、行业自律、技术应对等方式进行伦理风险控制。在伦理治理中,应始终注意到人工智能产业当前仍在高速发展和变化,需要审慎考量伦理治理与技术创新、产业发展的平衡,科学地选取适当的治理路径,以避免阻碍人工智能产业的发展。根据我国《新一代人工智能发展规划》中的“三步走”战略,我国人工智能伦理治理采取的具体措施及战略建议如下(见表5):

第一步,到2020 年,初步建立国家层面的人工智能伦理准则体系;针对个人信息保护方面和自动驾驶领域的人工智能伦理问题制定法律予以规范。

(1)加强教育和社会宣传,推动人工智能伦理共识的形成。在学校思想政治课程中加入科技伦理内容、高等教育院校开设专门的科技伦理课程,重点对人工智能伦理问题和道德规范进行普及教育,培养广大公民、特别是信息科学专业学生的人工智能伦理意识。

(2)着手制定国家层面的人工智能伦理准则体系。研究我国当前在全国和地方政府、研究机构、行业协会和产业联盟等层面出台的有关伦理准则,以《人工智能创新发展道德伦理宣言》《人工智能北京共识》《人工智能行业自律公约(征求意见稿)》《新一代人工智能治理原则——发展负责任的人工智能》等重点文件为基础,尽快制定并发布国家层面的人工智能伦理准则草案,并广泛征集社会各界意见。

(3)推动个人隐私和个人信息保护领域的立法。2020 年5 月全国人大已通过了《民法典·人格权编》征求意见,其中重点对个人信息保护和个人隐私进行了规定。此外,应着力推进《个人信息保护法》和《数据安全法》的立法工作。在立法中考虑人工智能伦理问题的同时,需要考量数据分析对产业发展的意义及其可以为社会带来的价值。

(4)制定自动驾驶领域的法律规范。自动驾驶技术发展已经相对成熟,亟待进入市场应用领域。当前应开始制定全国性的自动驾驶伦理准则和法律规范,包括在《侵权责任法》中增加人工智能致人损害时的责任分配规则;并尽快制定安全管理方面的法规,为法律的制定奠定基础。

(5)开展典型场景人工智能伦理及治理路径调研。对立法条件尚不成熟的智能媒体、智能风控、智慧医疗、智慧司法、智慧电商等人工智能应用领域,在对创新持包容审慎态度的同时,深入开展对人工智能带来的伦理、法律及社会问题的研究,保持持续观察,作为未来人工智能立法活动的前置性步骤。

(6)在相关企业中设立人工智能伦理委员会。第一,人工智能相关企业应设置伦理委员会,领导人工智能伦理风险控制流程的实施及监督、参与人工智能的伦理风险评估、审查伦理评价结果、定期审查决策执行情况;第二,国家科技伦理委员会可每年评选若干最佳实践,以促进先进风险评估控制经验的推广;第三,为保障市场竞争,可为小型、初创型企业设置一定的优惠条件,行业协会应提供必要的协助和指导,以避免给小型、初创型企业带来过重的负担。

第二步,到2025 年,初步建立人工智能伦理规范和重点领域的法律规范。

(1)发布国家层面的人工智能伦理准则体系。在充分考虑前一阶段对人工智能伦理准则草案征求意见的基础上,进一步论证并正式发布国家层面的人工智能伦理准则体系,引领人工智能伦理治理。

(2)促进支撑人工智能伦理准则实现的科技发展。第一,通过设置相应科研项目、国家奖励来激励科研人员研究人工智能系统的隐私保护、安全性、可追溯性、评估和监管等方面的技术;第二,通过专利制度切实促进关于人工智能系统的隐私保护、安全性、可追溯性等方面技术的创新发展;第三,在适当的场景下,可通过将相关先进技术吸纳入标准来促进相关技术的推广应用,为创新者获得收益提供更多机会。

(3)在人工智能的标准制定中,着重考虑人工智能伦理准则。第一,在政策上要求人工智能国家标准、行业标准、地方标准、团体标准、企业标准等标准在制定过程中,强化对人工智能伦理准则的贯彻和支撑;第二,在制定国家强制性标准时应持非常审慎的态度,需充分论证才宜纳入强制性标准,以避免不恰当地阻碍人工智能相关技术的应用;第三,鼓励企业提出和公布自己的标准,突出企业在标准制定中的主体作用;第四,鼓励企业参与相关国际标准的制定,促进我国相关专利技术被纳入国际标准,提升我国人工智能技术在国际上的话语权和竞争优势。

(4)开展智能媒体、智能风控、智慧医疗、智慧司法、智慧电商等领域的立法筹备。在前一阶段调研和论证的基础上,开展针对人工智能重要场景中有关伦理问题的立法筹备工作,成立项目组进行研究,制定立法草案,并广泛征求社会意见。

第三步,到2030 年,建成更加完善的人工智能伦理治理体系。

(1)建立完善的人工智能伦理治理体系和行业规范。建立起层次化、多元化的人工智能伦理教育体系,形成不同层次、面向不同群体的系列教材;对于人工智能领域专业人士,建立起从源头到下游的道德规范约束和引导体系,制定相关道德规范和行为守则。

(2)形成一批人工智能伦理支撑技术和支撑人工智能伦理的标准体系。在鼓励企业制定国内标准体系的同时,引导其更多地参与到国际标准制定工作中,为国际标准制定提供中国方案。

(3)形成国家层面和企业层面伦理委员会完整的工作流程和顺畅的信息交互机制。建立起我国国家科技伦理委员会与各科技企业内部伦理委员会之间良好对接、协同工作的完整工作流程,建立实时、顺畅的人工智能伦理风险和问题、企业实践等信息的传递机制,形成良好的人工智能伦理社会共治机制。

(4)完善人工智能法律体系。从自动驾驶、智能媒体、智能医疗、智慧风控等各领域立法中进行体系化梳理和理论抽象,建立完整的人工智能法律体系。

表5 人工智能伦理治理措施和战略建议

7 结论

当前正值我国人工智能技术飞速发展的关键时期,对人工智能伦理问题的探讨有着极为重要的意义。本研究首先界定了人工智能伦理准则的基本概念,分析人工智能发展现状;然后探讨导致人工智能伦理问题的主要原因,总结人工智能典型应用场景下的伦理问题,并围绕应对人工智能伦理问题的基本原则探索了治理框架体系,包括技术应对、道德规范、政策引导、法律规则等方面;最后结合我国人工智能发展规划战略部署,指出在社会治理的落地过程中宜采取分层次、多维度的治理体系,并提出在人工智能伦理准则和治理方面的具体措施建议,包括社会宣传、标准体系、法律法规等方面。我国需要以促进人工智能发展为总体原则,平衡技术革新与风险防范,建立包容创新、审慎发展的政策和制度环境,并充分调动社会力量共同解决人工智能伦理问题,推进人工智能技术和产业符合伦理、安全可信地创新发展,进一步提升我国人工智能产业在国际竞争中的优势地位。

猜你喜欢
伦理人工智能算法
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
哪种算法简便
护生眼中的伦理修养
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
根据问题 确定算法
人工智能与就业
伦理批评与文学伦理学