伦理结构化:算法风险治理的逻辑与路径

2021-03-30 05:45张旺
湖湘论坛 2021年2期
关键词:人工智能

张旺

摘要:算法风险触及、引发、衍生了诸多社会问题,日益成为社会各界广泛关注的热点。算法风险治理的伦理结构化进路,主要是指通过建构算法设计、开发和使用的伦理原则制度,确定相对稳定的伦理框架和逻辑体系,形成合理可靠的伦理关系结构,从而确保算法符合道德伦理要求。伦理结构化的表达与呈现方式对提升算法治理能力十分重要,是推进算法风险治理的重要范式,有助于从理论层面到实践层面全面实施和执行算法的道德规范,推动算法的伦理建设进程。算法风险伦理治理结构化的实施路径包括:建构算法风险伦理评估模型与审查体系;提升算法的伦理信任阈值与制定评估指标;设立算法风险伦理问责机制。

关键词:人工智能;算法风险;伦理结构化;伦理评估

中图分类号:B82    文献标志码:A    文章编号:1004-3160(2021)02-0121-08

伦理结构化进程是指规范化、制度化、体系化的逻辑构成,有着科学化与认同感的评价标准与评价方法,并逐步推进形成伦理规范的制度化和标准化趋向。相较于政治学与经济学领域中提出的新结构经济学、新结构政治学等理论,算法风险治理的伦理进路中,同样需要建构相对合理稳定的伦理框架结构。本文通过分析算法风险伦理治理的逻辑理路,探讨在算法风险治理领域推进伦理结构化的必要性和可行性,阐释算法风险伦理治理的邏辑与路径,旨在塑造具有可解释性和可接受性的伦理关系结构体系,适度、合理推进算法风险的伦理制度体系建构,形成较为科学的认知与评估体制机制,健全规范制度并为防范化解算法风险提供伦理支撑。

一、问题的提出:算法风险治理伦理结构化的必要性

随着人工智能技术的深度发展和广泛应用,算法作为人工智能技术的重要基石之一,算法偏见、算法歧视等引发的风险辐射影响了政治、经济、科技等诸多领域,其引发的现代风险典型特征较之传统技术风险发生了质的变化,不确定性和不可控性极大增强,触发了公众对算法风险问题的恐慌焦虑。如何推进人工智能算法风险的科学化治理,学界从政治、法律、伦理等相关视角都进行了相关分析探讨,其中伦理治理的呼声日益高涨,算法风险治理的伦理结构化可能成为重要的治理路径。从伦理视角审视人工智能算法风险,可以从“风险”“算法”和“伦理结构化”三个关键词出发,这也是本文中最为基本的前提概念。

“风险”的核心概念作为算法风险的切入点,学界已经有了较为完善的研究成果,包括风险社会、风险治理等内容的分析论证。根据考证,风险作为与其他各种不安全感相区别的一个概念出现在中世纪的末期,亦即14世纪早期的意大利商业城市和城市国家里。[1]对“风险”的界定,特别是技术风险的解读,贝克、吉登斯、道格拉斯、威尔德韦斯、拉什、卢曼、福柯、里夫金、霍华德、斯洛维克、卡斯帕森等众多风险理论学家从风险认知、风险传播、风险治理等诸多主题进行了广泛的研究。[2]风险问题已日益成为全球性的“热门话题”,人们日益感受到风险社会给人类带来的是“全球的、无法挽救的、不再被限制的损害”。[3]

“算法”作为人工智能领域研究的重要概念,针对指向更为聚焦,更能凸显信息技术的时代特征。智能时代算法悄然介入甚至主导人类事务,算法从计算机领域的一个专业术语转变为智能时代文化与社会的关键概念,对此概念的理解和界定也日益多元化。[4]算法的定义从塔尔顿·吉莱斯佩(Tarleton Gillespie) 的假设开始,即“算法不需要是软件:在最广泛的意义上,它们是基于指定计算将输入数据转换为期望输出的编码过程。这个过程既指出了一个问题,也指出了解决这个问题的步骤”。[5]也正如希尔(Hill)所解释的,“我们看到的证据表明,任何程序或决策过程,无论其定义如何,都可以在新闻界和公共话语中被称为‘算法”。[6]本文的研究将不局限于作为数学结构的算法,而是更具有普遍意义的人工智能算法。

“伦理结构化”则为分析解决算法风险问题提供了不同于一般意义上的特殊视角,更具有专业特色意蕴。技术不仅是科技进步的成果,而且是社会、市场和政治力量的共同产物。它们已经深深地嵌入到了有赖于人工判断的社会实践中。[7]在人工智能技术背景下审视道德伦理这一复杂又有深度的问题,具有重要现实意义。算法应用风险的主要特殊之处有三:一是范围宽广、形态繁多;二是评估难;三是影响深远。[8]算法风险治理的伦理结构化维度侧重从制度和结构视角进行探讨,分析道德的制度化趋向、条理化脉络和纲领化主张,从伦理层面对算法风险实现必要的标准化逻辑化呈现,提升伦理治理的影响效能,实现工具属性与价值属性的高度统一,为推进算法风险治理提供较大的弹性空间。

二、算法风险的伦理表现要素

伦理因素是算法风险治理需要着重考虑的关键要素,算法、风险、伦理三者间具有鲜明的结构性关联,算法作为一种技术媒介,本应处于一种中介的地位,但其产生的风险,或者称之为“技术的冲突”,需要从伦理评估的视角去设定价值理性的标准尺度。

(一)主体性因素产生的伦理预设:设计者的价值偏差

算法不可避免的充满了价值。在进行算法风险生成的道德伦理溯源时,算法设计者的主观价值偏差通常被认为是关键所在。算法作为人工智能技术的重要基石之一,本应处于一种相对中立客观的地位,但由于算法风险的产生与设计者的价值理念有着密不可分的关联,其人为的价值观偏差在很大程度上会左右算法风险。奥马雷(OMalley,2004)曾指出,风险技术并非道德中立,考察风险技术建构和使用背后的道德观念非常重要。[9]算法风险是如何产生的,归根溯源是受到算法设计开发人员的主观价值影响制约,这种制约不仅体现在算法的工具价值属性上,也代表着算法的终极价值,甚至左右着算法可能产生的风险类别和破坏影响力。

算法会做出有偏见的决定。算法不仅会继承人类的偏见,这种偏见还有可能随着数据的积累和算法的迭代而被强化和放大。这些都是由于算法背后的价值预设所导致的新的社会伦理问题。[10]一个算法的设计和功能反映了它的设计者和预期用途的价值,只要某种特定的设计被认为是最好或最有效的选择。“算法作者的价值观,无论是否有意,都被冻结在代码中,有效地制度化了这些价值观”(Macnish,2012)。从算法设计者的主观意愿出发考量,算法风险中折射的歧视、偏见、误导等问题,既有无意为之的潜移默化行为,更多则是在利益权衡下的特定设计,社会偏见可以由个人设计师有目的地嵌入到系统设计中。正如吉登斯所言,“人造风险”体现了科技发展的副作用,它源于人们的重大决策,并且是由现代社会整个专家组织、经济集团或政治派别权衡利弊得失后所作出的理性的决策。[11]如何识别评估算法中渗透的设计者的主观性价值,可能需要一个较为长期、多用户或大数据基础上分析判断。因此,清晰准确认知算法中体现的伦理价值观念,是推进算法风险治理的先决条件和首要举措。

(二)客观性因素表现的伦理特征:算法自身的黑箱属性

算法偏见产生的误导性证据。从技术发展的本身来看,算法由于自身的复杂性如算法黑箱等属性,从而带来了算法风险的不确定性和不可控性。算法作为一种程序式的代码,绝大部分人很难理解其运行方式和作用机理,众多学者认为算法特有的黑箱属性是造成其风险问题的关键所在。如算法的不透明性,一种更具怀疑性的分析认为,“如果金融机构故意保持不透明,就是为了避免或混淆监管,那会怎么样?”这可能是一种更为隐蔽的规避法规方式,或者操纵使用者认知的途径。如运营参数由开发人员制定,由用户指定并考虑到某些价值观和利益优先于其他价值观和利益。算法正在通过它所触发的一系列行为从社会的底层架构重塑我们的世界观,甚至修改我们的社会规则。[12]

知识极易扩散,科技伦理失灵严重。[13]算法的透明度是造成算法黑箱属性的核心要素,与算法自身的开源性密切关联。从通俗意义上理解,算法透明度主要是指信息的可访问性和可理解性。但有些算法的设计通常由于各种利益冲突,如商业竞争、保密等原因,故意设置为不易访问,人为降低算法的透明度,这也产生了与伦理操守相背驰的“不道德”行为。另外一方面,机器学习算法中的不透明度是数据高维性、复杂代码和可变决策逻辑的产物。机器学习擅长创建和修改规则,以便对大型数据集进行分类或群集。该算法在运行期间修改其行为结构,算法的基本原理被模糊了,这使得机器学习算法被描绘成“黑匣子”。在由算法处理的数据集中,错误也可能同样出现。数据中的缺陷被算法无意中采用,并隐藏在输出和生成的模型中。

(三)算法风险的伦理衍生:外在的环境与认知失衡

人类自主行动的能力与复杂的机器逻辑之间出现了一种潜在的冲突,这种复杂的逻辑有时是模糊的,但也被认为是无可辩驳的。[14]技术不管如何中立,但终究是人设计运用的,受到人的认知背景与偏见限制。我们对人工智能算法的设计与使用,更多的是从功利主义角度出发,重视技术的利益价值,而忽视了其道德伦理的意蕴内涵。这种认知的扭曲造成了行为表现上的偏离,致使技术的发展脱离了最初设定的轨道,并造成更剧烈的社会不平等和风险危机。人类的道德认知与情感显示着其与机器不同的一面,双方如何在平等的条件下进行道德沟通,取决于我们对于人工智能算法的信任阈值有多高,但这仍然是从我们自身出发去认知判断的,而并不取决于机器的道德水平有多高。

算法的设计和操作与我们对其伦理含义的理解之间的差距可能会对个人、群体和整个社会阶层产生严重影响,算法的不透明性则很容易带来公众的主观认知偏差和误解,导致其可信赖度的下降,为算法风险的形成埋下了伏笔。从环境因素来看,使用者的利益驱使和环境的错综复杂等,都为算法风险提供了生成沃土。算法风险伦理评估的客观难度较大。从伦理治理视角来看,由于内在程序模型设计的复杂性和外在评价标准的共识度,算法风险的客观表征难以准确衡量评估,因此也难以准确预测算法风险可能带来的潜在或实际道德影响。然而,对算法的伦理评估也可以只关注操作本身。由算法驱动的行为可以根据许多道德标准和原则进行评估,一般称之为依赖观察者的行为及其影响的“公平性”。另外,仍然存在一些社会秩序层面的不良影响,如目前仍然在一定程度上存在对伦理规范的无视,伦理制约的力度与效能都相对弱化。

三、算法风险伦理治理的结构化范式:伦理框架、伦理解释话语、伦理制度化

人类和算法如何更融洽地相互适应,需要从伦理层面加以审视并给出合理答案。然而在推进算法风险伦理治理的结构化进程中,仍然有很长的距离要走,需要达成深刻的治理体系和治理能力变革。从伦理道德层面强化算法风险伦理治理的结构化范式,是推动算法风险伦理治理的重要途径。

首先,建构合理的伦理框架是解决算法风险伦理问题的基本前提。伦理框架为研究解决算法风险问题提供了基本的出发点和语境,并在一定的伦理规范原则和具体制度下约束算法风险。由此建构的伦理框架,作为算法风险治理的优先级路径,在解决算法风险问题中起到显而易见的“润滑调节”作用,将更为柔性地处置算法可能带来的不透明或不公正结果,限制调节算法可能产生的偏见或歧视。客观上看,算法是冷冰冰的程序代码,不具有感情与意识,但算法的设计与使用是人的主观能动性与技术智能属性的高效结合,其中嵌入了设计者的价值观念,这也在一定程度上推动了人在社会中的角色转变,使得人类更多地借助算法解决纷繁复杂的难题,但也可能因为算法的滥用造成隐私泄露和歧视偏见现象的发生。伦理规范是更高层次的戒律与自觉行为,而算法风险的伦理治理框架,本质目的是为了在避免法律强制性要求的基准下,提供必要的约束力。目前,对算法风险建构伦理框架已经成为全球共识,并达成了高度一致性,即在算法设计伊始便要优先考虑其价值反映,强调符合道德规范的设计,这也是解决算法伦理困境的重要前提。算法风险的伦理治理需要一定的规则和标准以及惩戒机制加以实施,从而确保规范守则在伦理框架下的遵守。

其次,算法的伦理解释话语,即其内蕴的伦理表达,包括公平、平等、民主、责任等,是审视算法风险的重要伦理依据。伦理解释话语是指我们如何用伦理的眼光去考量反思算法风险,进而从伦理范围提供解决问题的思考与方案。算法本身负荷一定的伦理价值,甚至折射出其背后蕴含的文化理念。不同民族和文化的伦理传统存在显著差异,被包含在一个较大的解释性多元論框架中,这些差异构成了对共有价值观和规范的不同解释和应用,从而这种共同的价值观和规范接近于一个更普遍有效的规范和价值观。[15]算法作为一种程序代码,其不确定性和复杂度在一定程度上造成了算法的可解释性不足。因此,必须在算法的开源透明与隐私保密之间寻找到一个可接受的平衡点,在充分衡量算法道德标准的共性与个性条件下,确保算法的“公平性”。例如,欧盟 《通用数据保护条例》(General Data Protection Regulation,GDPR) 要求算法具备可解释性(The Right to Explanation of Automated Decision),数据主体对于自动决策不满意时,可以采取人工干预,要求对相关数据进行解释。[16]随着公共和私营部门组织越来越多地使用大量的个人信息和复杂的数据分析系统进行决策,人们对算法可解释性的要求越来越强烈,个性化算法需要人为的干预,将伦理原则和平衡纳入其中。

再次,算法伦理规范的制度化,是约束算法风险、防止偏见进入算法的重要手段。个性化的算法需要道德衡量与伦理制约,这种伦理层面的规范实质上是一种契约。伦理道德制度化对技术治理的行动具有两方面的要求:一是将道德要求转化为制度,二是将道德要求实现于制度过程中,即技术治理的技术性和过程性要求。[17]人类需求与算法表达之间存在需要弥合的鸿沟,随着技术的不断进步,算法的发展已经超出了人类可控的范畴,向未知多元的方向发展,需要伦理制度来确保算法的可靠性,框设算法的发展空间与运行轨迹。算法的制度化趋势越来越明显,各种伦理规范守则为算法健康发展提供了保障支撑。“不道德的算法与算法的不道德”制造的风险,日益成为需要人们加以审视的重要问题。根据合理的道德标准和原则对算法风险进行前瞻性评估,能够实现“算法过滤”的效能,避免“伦理失衡”可能带来的系统性伤害。算法的制度化能够建立责任标准,从道德上诠释人们的意识、隐私、信任和安全感,推动算法工具属性与价值属性的完美融合。

四、算法风险伦理治理结构化的实施路径

数字或算法时代的伦理审视,将会颠覆传统的技术伦理观念,推动伦理范式转变,形成负责任的研究框架与创新路径。人工智能伦理框架是一个实用工具,越来越多的人工智能伦理框架试图填补目前存在的伦理漏洞。人工智能伦理也涵盖体现了价值观和原则,在人工智能技术的开发和使用过程中,采用了广泛接受的对错标准来指导道德行为。[18]建构伦理框架下的算法风险评估模型与问责机制,动态描述人工智能算法风险的伦理指标体系,能够更好地理解其所产生的伦理风险及破坏影响力。

(一)建构算法风险伦理评估模型与审查体系

人工智能应该是道德的、向善的,但对算法的道德要求、技术标准、评估体系等方面,仍然存在很大的提升空间。算法的关键属性特征能够影响风险的形成效果,而算法风险的准确评估则需要经历一个较为复杂的认知与实现过程。算法由编程代码组成,而编程代码本身是无法监管的。相反,只有相应的规范管理实体或规范的实际结果才能被规范。[19]从技术层面而言,只有专业技术人员检查系统代码漏洞才能发现问题隐患。而从道德伦理层面而言,设计者的价值观念如何渗透体现在算法之中,才是对算法风险科学认知的根本所在。康德的道德理论已经成为把“伦理”引入机器的先行者。康德道德作为一种基于责任的伦理范式,承诺为机器人提供一个可实现的道德框架,使其得以成功遵守。[20]算法的道德伦理考量如何转化为实际研究并应用到实践中,进而为社会发展提供可靠方案?这里需要正确设计能够支撑算法风险态势检测的动态表征框架,建构可解释的基于认知框架之中的算法风险评估模型,科学准确评估风险指征,并对可能造成的社会伦理影响作出前瞻性的判断预测,这也是设计算法风险伦理评估模型的初衷所在。通过强化算法风险的伦理审查,进一步凸显伦理治理的制度性和规范性,建构形成由有效规则和标准构成的审查体系,以确保算法安全和负责任的系统设计。

(二)提升算法的伦理信任阈值与制定评估指标

为防止算法欺骗或者操纵人类,在人与算法互动的过程中维护人的能动性,提升算法伦理信任阈值是防范算法风险的重要路径。伦理信任阈值包括算法风险与伦理相关的主题要素,如透明度、可解释性、价值观、公众道德期望等。这些伦理维度的量化特征属性,将与算法风险有关的各种度量指标纳入伦理设计过程之中,涵盖了大部分已经达成的伦理共识原则。不正当偏见的损害性主张容易造成算法的可信度下降,因此算法在设计之初便要符合道德规范的设计,嵌入相对公平的伦理价值,以避免造成算法的越界应用和不当后果。如何从道德伦理维度衡量人工智能算法风险?对算法风险进行准确评估,设置一定的度量指标是必要的,通过伦理层面的量化特征来表达算法风险的大小,进而对风险的可能性做出准确预判。算法风险评估提供了实用的问责框架,将机构审查和公共参与影响评估结合起来。[21]分析评估人工智能算法的社会影响及道德风险,是我们建构算法伦理信任阈值的客观依据和重要指标。因此,设置算法风险评估指标,形成基于量化特征分析的风险认知与评价体系,是一种较为科学恰当的风险评估方法。

(三)设立算法风险伦理问责机制

当前公众信息隐私面临着重要挑战,算法在一定程度上推动着隐私概念的转变,主体对算法的透明度要求越来越高,在某种程度上强化了算法风险的责任追溯机制。哲学家Tony Beavers说:“设计道德机器的项目很复杂,因为即使经过两千多年的道德调查,仍然没有就如何确定道德权利和道德责任达成共识。”[22]算法以及源代码获取的渠道日益开源,其安全可靠性成为衡量算法风险的重要因素,这就要求我们不仅要对技术的精准使用负责,还要对其可能造成的社会伦理影响负责。从认知科学视角探讨算法风险的社会影响,从伦理嵌入、风险评估、公众参与等方面,探讨基于社会影响和公众接受度的算法风险认知,是消除算法偏见、实现公平正义的重要途径。不恰当的伦理框架可能会扭曲和加剧算法风险,不利于算法的适度修改与调整。越来越多的机构与组织开始推动人工智能算法风险评估机制的运行,包括设立多样化与包容性的伦理框架,如基于过程的治理框架(PBG);算法问责机制、算法影响评估机制、算法审计机制等治理途径开始推行,全面推进了伦理原则和价值观的落实与执行。人工智能算法负责任的研究与创新,源于并植根于伦理立场,需要设立算法風险的道德责任溯源机制,当算法造成风险后果时,责任和制裁必须明确地分摊到算法的设计者、制造商或者使用者。

五、结语

乔治·戴森曾在《图灵大教堂》一书中这样说道:“Facebook 决定了我们是谁,亚马逊决定了我们想要什么,Google决定了我们怎么想。”算法风险危机已经给人们的行为意识造成了潜移默化影响,甚至这种影响还在不断地加深扩大。完善基于角色、基于职责和基于结果的伦理结构化制度,探索建立基于责任的道德缓冲保障体系,不断夯实算法风险治理的伦理根基,相信人类有足够智慧能够驾驭技术风险带来的严峻挑战,真正将风险危机框设在结构与制度中,借助伦理推动更为光明的技术前景和更为美好的发展未来。在这场人类与算法的“道德游戏”中,算法风险带来的伦理性障碍正在消除破解,人机交互的认知正在逐步推进实现,多样性与包容性的伦理结构提升扩展了信任空间,也为解决算法风险治理难题提供了可行的伦理方案。

参考文献

[1] [德]阿明·格倫瓦尔德. 技术伦理学手册[M]. 吴宁,译. 北京:社会科学文献出版社,2017:31.

[2]张广利.当代西方风险社会理论研究[M].上海:华东理工大学出版社,2019:2-4.

[3] UlrickBeck,World Risk Society,Cambrige:blackwell,1999:53.

[4]刘培,池忠军.算法的伦理问题及其解决进路[J].东北大学学报:社会科学版,2019(2):119.

[5]张凌寒.风险防范下算法的监管路径研究[J].交大法学,2018(4):50.

[6]Robin K.Hill.What an Algorithm Is[J].Philosophy&Technology,2016,29(1):35-59. https://doi.org/10.1007/s13347-014-0184-5.

[7] [美]弗兰克·帕斯奎尔.黑箱社会——控制金钱和信息的数据法则[M].赵亚男,译.北京:中信出版集团,2015:267.

[8]苏宇.论算法规制的价值目标与机制设计[J].自然辩证法通讯,2019(10):10.

[9]OMalley,P.The Uncertain Promise of Risk.The Australian and New Zealand[J].Journal of Criminology,2004,37(3):323-343.

[10]张卫.算法中的道德物化及问题反思[J].大连理工大学学报:社会科学版,2020(1):118.

[11]胡丽.科技风险的现代性反思[J].人民论坛,2011(17):224.

[12]孙保学.人工智能算法伦理及其风险[J].哲学动态,2019(10):97.

[13]刘益东.致毁知识与科技伦理失灵:科技危机及其引发的智业革命[J].山东科技大学学报:社会科学版,2018(6):6.

[14] Artificial intelligence and medical imaging 2018: French Radiology Community white paper[DB/OL](2018-11-22)[2020-11-10]. https://doi.org/10.1016/j.diii.2018.10.003.

[15][荷兰]尤瑞恩·范登·霍文,[澳大利亚]约翰·维克特.信息技术与道德哲学[M].赵迎欢等.译.北京:科学出版集团,2017:171.

[16]于雪,段伟文.人工智能的伦理建构[J].理论探索,2019(6):47.

[17]王长征,彭小兵.技术治理与制度道德[J].自然辨证法研究,2020(6):36.

[18]Leslie, D. Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector[R]. The Alan Turing Institute,2019:3. https://doi.org/10.5281/zenodo.3240529.

[19]Ethics in AI: Are algorithms suppressing us?[DB/OL].(2018-11-21)[2020-11-20].https://www.elsevier.com/connect/ethics-in-ai-are-algorithms-suppressing-us.

[20]Ryan Tonkens. A Challenge for Machine Ethics[J]. Minds & Machines,2009,19(3):422. https://doi.org/10.1007/s11023-009-9159-1.

[21]Reisman, D.,Schultz, J.,Crawford, K.,Whittaker, M. .Algorithmic impact assessments: A practical framework for public agency accountability[R]. AI Now Institute,2018:5.

[22]Mark R.Waser. Designing, Implementing and Enforcing a Coherent System of Laws, Ethics and Morals for Intelligent Machines (Including Humans) [J]. Procedia Computer Science,2015,71:106-111.https://doi.org/10.1016/j.procs.2015.12.213.

责任编辑:叶民英

猜你喜欢
人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能与就业
China’s Artificial Intelligence Revolution
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!