立法性算法及其法律规制

2022-02-15 16:03刘佳明
湖北社会科学 2022年11期
关键词:程序决策法律

刘佳明

在公共决策领域,人们对算法的认识主要从制度性规范角度展开,或是认为算法是在以互联网、大数据和人工智能为代表的数字技术驱动下,促进行政方式发生数字化变革的一种新范式,[1](p114)或是认为算法治理机制具备面向全社会的控制能力,从而产生了一种新的数字治理形式。[2](p37-40)算法以其强大的数据分析与信息整合能力,在具备替代甚至超越政府做出决策选择能力的同时,也会面临一些新的问题。例如在智慧城市建设过程中,大数据“黑名单”的建立虽然在一定程度上能够降低政府的社会监管成本,但它同样有可能使那些被归类为“黑名单”的人由于数字所产生的可能怀疑而遭受不公平对待。在算法治理过程中,所有被标记可疑的数字数据以及经数据库筛选的结果都由算法主体控制产生,而那些因被列入数字黑名单导致其权利遭受侵犯的人通常会丧失必要的申诉或救济途径。因此,本文将有权机关所制定的、能够对公民的利益甚至是权利义务产生实质性影响的公共决策算法视为立法性算法。作为算法与法律的结合体,它既内含了传统法律的一般特性,同时也兼具算法的独特魅力,但由于算法具有非中立性和封闭性,使其应用于公共决策时遭遇一系列问题,从而降低了传统立法的民主性、科学性等要求。对此,应当首先明确立法性算法的合法性地位,通过算法审查和风险评估使立法性算法在法律规范的范围内运行,与此同时,保障公众对算法程序的参与和监督,以及强化行政机关对算法应用的监管和问责也至关重要。

一、何为立法性算法

一般认为,立法主要包括“形式立法”与“实质立法”。从形式上来看,立法是权力机关创制法律的专门活动。立法的功能在于向社会主体提供“一般性行为规范”。[3](p285)从实质上来看,立法不是在创制法律,而是在发现法律和陈述法律,它假定存在一种至高无上的原则,体现的是一种实质的、永恒不变的正义,而人法只不过是这些原则的记录和摹本,制定人法的行为只是发现和宣布这些原则的行为。[4]{pV}“形式立法”与“实质立法”之间的区别主要在于,“形式理论聚焦于合法律性(legality)的恰当渊源和形式,而实质理论则进一步包含关于法律内容方面的要求(通常要求法律必须符合正义或道德原则)”。[5](p1)二者基于不同角度对立法做出不同定义,从某种程度上来讲都是合理的。但是,立法既不是一种唯理主义式的机械化创造存在,也不是一种虚无缥缈式的乌托邦理想。而是以现实人的日常生活世界为前提和疆域,必须依赖于现实的人的具体生活场景。[6](p1)现实人的日常生活需要通过一定的社会交往或行为活动来获取必要的物质资源基础,并满足一定的利益需求,其中包括物质利益和非物质利益。利益最终通过转换形成法益乃至上升为权利,从而反映主体诉求的社会承认。[7](p82)所以,本文所要讨论的立法,实质上就是对不同群体之间利益矛盾和权利冲突进行化解和协调的行为秩序安排。如果用以表示此行为秩序安排的是规则化的法律语言,那么此立法就是成文法。如果是裁判,则是判例法。如果是算法程序,那么就是立法性算法。

如果不拘泥于“立法”的概念,而是着眼于内容,只要将某一行为是为了一般性地确定抽象的行为规则,而不管采取该行动的是立法机关还是行政机关、司法机关或其他的组织,都可以视为立法范畴的话,[8](p4)那么,从广义上理解,立法性算法则指的是,有权机关所制定的、能够对公民的利益甚至是权利义务产生实质性影响的决策算法。①根据算法主体的不同,可以将其划分为公权力算法和私权力算法。前者是指公权力机关所运用的算法,后者一般是指平台企业、数据服务公司等私人主体所运用的算法。而“公权力算法”根据程序性标准又可以划分为“立法性算法”和“非立法性算法”。参见刘佳明:《公共决策算法的程序规范——以立法性算法为例》,载《财经法学》2022年第5期,第18页。例如,在行政管理领域,立法性算法无处不在。在经济调控层面,人工神经网络算法能够对经济发展态势进行检测和评估,并对经济发展形势进行精确性、预测性分析,从而为政府的宏观经济形势分析决策提供技术支撑;在政府规划层面,行政管理部门能够利用机器学习算法编制财政预决算规划以及决定重大投资事项等等。这些算法的运用既会影响到社会资源的分配格局和公民的行为活动空间,甚至还会对公民的权利义务产生实质性影响。因此,基于算法在不断自我学习和重复训练中与整个社会、尤其是与国家权力融合过程中,逐渐发展成为一种管理、判断、调节、影响或者以其他方式约束公民行动的强大实体,从而使算法具备相应的权力属性。与此同时,在算法普遍应用空间范围内,总会包含一些有规律性或统一性的行为,人们会反复遵守和执行这些算法,并将其视为社会生活和行动的指南。算法因而也就具有了明确的法律倾向,在这里,所谓的法律倾向不仅指算法这种行为规则与传统法律具有相同的属性,而且还指算法作为一种特殊之法,它的产生并不是由任意机关单方面主观臆造的,也不是依照特定机关的主观接受为依据而存在的,它是由有权机关依照一定程序所制定的,必须符合立法的一般标准。

但是,本文所要讨论的“立法性算法”与纯粹的“立法算法”仍然存在较大的不同。对此有必要进行区分:一方面,真正的“立法算法”应当是算法造法,这主要出现在判例法制度国家。例如,在英美法系国家,司法先例具有造法功能,即通过形成司法先例创制普通法与衡平法规则。[9](p51)而一旦司法先例是由法官依据自动化算法裁判系统所作出,并且该判例对以后遇到的相同案件法律问题的解决具有拘束力或说服力,能成为相同或同类案件的判决依据,那么这一判决就构成了立法算法。例如,在美国法院,法官在案件的量刑裁判中使用了COMPAS 风险评估算法的评估结果,并基于此项评估结果对案件当事人作出判决,一旦该判决对以后的案件具有拘束力,那么该算法就将成为真正的立法算法。另一方面,本文的“立法性算法”与国内立法机关的立法也有所不同。后者特指全国人大及其常委会在法定职权和程序范围内所专门创造的法律。立法机关的职权法定和程序法定决定了其立法行为具有天然的正当性和合法性,人们因而也会主动遵守并执行立法机关所制定的法律。但是,立法性算法的主体是算法程序设计者,作为普通主体,如果没有法律授权作为依据,由他们来“立法”,其合法性值得人们质疑。因此,具有立法性的算法既不能像英美法系国家一样通过适用自动化算法作出的司法裁判直接成为判决依据,也不能像国内立法机关一样通过正式的立法程序直接形成法律。所以,这就决定了立法性算法需要在改变人们对传统法律和算法认知的差异,以及在遵循法定程序和实体要求的基础之上,积极主动地参与国家治理和公共治理,从而达到“立法”的目的,并获得“合法性”地位。

事实上,人们如何看待立法性算法取决于怎么看待法律。正如前文所言,立法应当是一种实在的,能够体现为对现实人的生活关怀的行为秩序安排。而利益是实在的,它同人们的现实生活直接融合在一起,并与人们的生活密切相关,是人们可以直接感知的事物,其中包括获取某种满足生活需要的资源,而这种资源满足的程度以客观规律、社会环境和社会制度所认可的范围为限度。[10](p24-25)所以,法律应当以社会为基础,是社会共同的、以一定物质生产方式所产生的利益和需求的具体表现。法律秩序也就代表了调和彼此利益对立的重要制度安排。[11](p66)但是,主体的行为难免会与法律规范不一致,从而对法律所确定的利益关系造成障碍或破坏,继而引发社会矛盾和冲突,因而必须建立相应的社会冲突解决机制来保障利益主体所实际享有的利益。[12](p76)国家行政和司法机构就充当了社会冲突法律解决机制的两种基本运作形态,成为具体执行和适用法律的保障者。当然,此处的法律不仅包括形式意义上的由全国人大及其常委会所专门制定的法律,同时还包括由行政、司法和其他社会组织所制定的具有实质性内容的法律,这些都构成了广义上的“法”。

另外,人们如何看待立法性算法还取决于怎么看待算法。从技术角度分析,“算法是任何良定义的计算过程,该过程取某个值或值的集合作为输入并产生某个值或值的集合作为输出”。[13](p30)人类经验的逐步数字化,加上计算机引擎的设计,使算法的科学性得以无限扩展。算法在促进人类实践理性的同时,也在无形之中拓宽了人类的生存和思维空间。随着人工神经网络技术的研发和改进,基于大数据集的自我学习过程能够形成规则集并应用于不同场景需求之下的感知和决策任务,从而使算法与社会关系不断融合,并逐渐发展成为影响社会资源配置格局和公民行为活动空间,甚至能够对公民的权利和义务关系造成实质性影响的重要行为规范。例如在公共领域,包括风险评估算法、行为识别算法以及排序算法等诸多算法规则的运用已经成为全体社会成员共同的行为规范标准,并实际影响了公民的权利和利益。随着算法与国家权力的进一步融合,算法还能对社会主体施加不亚于国家权力的影响力和控制力,从而实现对社会进行无孔不入的构建、干预、引导和改造。[14](p66)在此基础上,有关算法的认识不只是一种特殊程序、指令和逻辑,还是一种新的技术规范或行为秩序,算法也就成为一种能够对传统法律体系和法律秩序造成深刻冲击的重要力量。[15](p13-15)

事实上,对立法性算法的确认,我们不一定非得追溯至该算法是否由国家权力机关通过明确的立法活动所产生。相反,我们只需要证明那些能够影响公民权利义务的关系本应由法律来调整,却受到算法的调整,并且在算法调整过程中,不存在影响该算法有效性的任何因素。当人们越来越服从公共领域中的算法决策,并且对逃离算法控制所感受的压力愈加强大之时,此时算法可以被认为是具有立法性的。在哈特看来,“凡存在法律的地方,人们的行为在某种意义上已成为非任意性和必为的。”[16](p84)事实上,在许多重要问题上,社会关系是受算法所调整的,而且这些关系还具有非任意性和必为性,那么此种算法实际上就是一种立法性算法。但是,算法不等于抽象的数学,任何算法都包含着特定群体的价值判断,这种价值判断必然受到诸多现实利益的影响。[17](p17)因此,立法性算法的实现仍然需要通过法律对其加以规范和引导,需要借助现代立法中的程序正义和实体正义来促成立法性算法的理性发展。

二、立法性算法与传统法律的差异

立法性算法作为算法与法律的结合体,既内含传统法律的一般特性,同时也兼具算法的独特魅力。作为影响社会主体利益需求表达的另一种方式,算法主要通过海量数据运算来配置社会资源,或形成特殊规范来影响或控制人的行为,但是,与传统法律相比,算法又具有自身独特的价值。对此,可以将其归纳为以下三个方面:

其一,在信息传递上,算法由程序构成,传统法律由文本构成。法律必须通过一定的中间媒介(物理媒介),方能予以记录、固定、公布和保存。从古至今,法律文本经历了从石碑、泥板、铜鼎再到纸张等一系列媒介的记载过程。在近代社会,纸张已经成为最主要的法律文本载体,几乎所有社会制度的重要变革都需借助明确的立法形式并记载于纸张之上,它是公民接触和了解法律信息的主要渠道。随着互联网技术的发展,法律文本“无纸化”倾向愈加明显,程序员通过建模方法将人类语言转变为一系列机器可以识别的数字并存放于计算机系统。在物质空间和网络物理空间的融合中,数字世界的物体因此获得了物质价值,而物质对象则转化为数字代码。[18](p148)

其二,在推理模式上,算法采用的是形式符号逻辑主义,传统法律是论证推理主义。长期以来,法律推理主要包括两种模式——形式符号逻辑和论证理论。[19](p177)前者是机器逻辑(又称“形式逻辑”),后者是人脑逻辑(又称“非形式逻辑”)。算法采用的推理模式是形式逻辑主义,专家系统(Expert Systems)就是算法在形式推理上深度发展的具体表现。①专家系统通常包含三个特征:透明性、启发性和灵活性。参见Richard E.Susskind,Expert Systems in Law:A Jurisprudential Approach to Artificial Intelligence and Legal Reasoning,ModernLaw Review,1986,(49),p172-178.美国兰德公司民事司法研究中心唐纳德·沃特曼和马克·彼得森早期通过实证方法研究了专家系统作为一种实用工具方法在法律推理应用中的具体表现,并对其建模进行了详细论证。他们建立了名为“法律判决辅助系统”的程序来评估产品责任案件中机器解决问题的实际价值。该程序使用基于规则的严格责任、比较过失和损害赔偿等计算模型计算出支持过失结论背后所应用的推理,并能够模拟和解与谈判。虽然实验证明了形式推理在法律领域的适用性,但也发现了一些不足,如它掩盖了用不精确的术语进行推理所固有的困难,并且低估了法律推理模式中的对抗性。[20](p1966)与此同时,基于形式符号逻辑的法律推理模式在涉及一些“常识性”知识或感知任务之时也存在诸多困难。

其三,在表现形式上,算法具有动态性和不确定性。通过对海量数据进行深度挖掘、分析和整理,算法能够自动对社会主体生成量身定制的指令。在算法世界里,这些指令被认为是算法主体依据治理目标以及个体行为来进行校准的。[21](p1424)例如,行政机关可能越来越依赖于由算法支持的方法定制微观指令,或通过算法进行自动化监管,而不是依据法律或一般规则。这种算法有两个特点:第一,算法根据一个预测模型所产生,它是高度适合个人和环境的定律;第二,通过将法律风险或行为预测联系起来,算法可以及时、有效地实现对公民行为的预测和预判,从而对其进行个性化、动态化的监管。[22](p1010)与传统法律治理方式相比,算法能够帮助政府对纷繁复杂且多变的社会现象进行持续、准确的预测和监控,有利于提升公共治理的灵活性和有效性。

随着算法不断嵌入公共治理领域,基于人类传统认知的治理模式正受到算法技术前所未有的科学化审视。在民主化进程中,作为工具理性的算法在实现既定公共治理目标的实践手段和行为方式上与传统法律相比具有更多的优越性,但民主进程的推进以及合法性政治地位的获取还必须依靠特定社会所固有的价值原则,例如正义、公平与秩序,这些都必须建立在工具理性和价值理性协同作用的基础之上。但是,针对立法性算法而言,一个过度依赖数据统计的治理模式会偏离传统法律所遵循的固有价值体系。而现代立法理念的价值理性在于,立法能够以其公开和透明的程序让普通民众参与其中,并通过合理的利益整合机制有效化解矛盾和冲突。

一方面,立法公开能够保障公众参与从而实现程序正义。程序正义既是法律制度的基本价值,也是实现立法公正的先决条件。罗尔斯将程序视为构建正义理论的基础,他认为正义是保障法治公正的首要条件,而法治的形成则取决于一定的正当程序过程。程序正义一直以来被用于研究人们关于法律制度的公平感受。社会心理学研究揭示,当法律权威无法让人们得到所期望的结果时,通过一个公平的程序来做出决定,更有可能获得人们的认可和接受,并保证人们自愿执行决定、遵守法律和树立法律权威。[23](p63)

另一方面,“法律对社会的控制是通过调整利益来实现,利益规律是法律的基础”。[24](p31)但是,法律本身并不创造、发明利益,而是对利益关系的社会选择。立法作为调整利益关系的一种有效方式,在面对形形色色的利益需求时,如何将不同社会成员的、不同利益主体的利益要求反映在立法过程中,不仅仅是不同社会成员的利益所在,也是制定出“良法”的前提条件。[25](p26)在传统立法模式下,立法者不仅需要根据既定标准对不同主体的利益诉求进行权衡和判断,还需要全面、客观、真实地揭示社会利益结构,避免立法者个人目的、情感、偏好等主观因素,力求客观反映社会的真实利益表达构成,从而实现利益的有效整合。

三、立法性算法产生的问题

算法与传统法律之间的差异远非仅限于形式,算法所做的立法选择可能比人类的选择更具有自我延续性和路径依赖性。当算法决策代替人类传统立法选择时,我们应当认真思考算法对现行法律制度的价值、内容将产生什么样的实质性影响。由于算法系统具有封闭性,这意味着算法程序是不透明的,人们不能从系统外部去理解算法决策是如何产生的,也不能用传统的应用于统计的直观和因果语言对其进行逻辑解释。另外,算法“黑箱”的存在还为行政机关强化对算法应用的控制提供了便利,行政机关可以在缺乏公众参与的情况下对算法程序的设计产生实质性影响,从而影响或控制利益分配目标的实现。相反,传统立法受到程序的约束和控制,在立法过程中能够接受公众参与和监督,因而与现代法治文明相符。也正是在这一层面上,立法性算法的产生和运用存在诸多问题。

首先,立法性算法会面临合宪/合法性问题。在我国《宪法》《立法法》等相关规定中,授权立法的主体主要包括全国人大及其常委会,以及地方各级人大及其常委会等,这从客观上排除了行政机关授权其他主体从事立法行为的可能。因此,立法性算法的存在使我们当下面临两种可能:第一,行政机关是否有权授权其他主体来从事立法性算法的程序设计。第二,若非授权,行政机关能否借助其他主体设计的立法性算法程序来行使立法性权力。第二种情况提出了不同的法定解释问题,即授予某一行政机关某些立法权力的法规是否排除了该机关将其权力再次授权或委托给其他主体的可能。这些都会导致立法权力在违背法定的情形下发生转移。

其次,算法程序设计的非中立性会影响科学立法目标的实现。由于算法的运行逻辑是经验的,所有判断都从数据中产生,并通过应用程序转化为决策结果。虽然算法主体所设计的每一个算法程序可能都遵循相同的程序规则,但它同样能够强化系统中业已存在的偏见和误差。例如社会上的某些群体因其身份而受到不公平对待,那么通过数据化分析作为立法考量因素的决策算法则会进一步加剧原有的不平等现象,这可能是数据收集过程中的一些无意识偏见,也可能是算法程序设计中固有的偏见,或者,这可能是由算法程序中某个地方的随机技术故障所引起的。因此,那种将算法视为客观中立的想法实质上掩盖了算法内部运行的复杂情况,它忽视了算法所产生的系统性和结构性不公平等因素。此外,作为一组接受输入并输出的特殊机制,算法主体对输入数据所做的假设并非总是正确的,而算法程序也并非总是按照设计者的预期运行。无论这些因素是故意还是偶然所致,算法总是会或多或少受到特定群体价值偏见的影响,这种影响既可能是程序员分配某些因素不恰当权重的结果,也可能是数据挖掘本身出错的产物。[26](p96)

再次,算法程序的设计因缺乏公众参与和监督而降低了立法的民主性要求。在算法程序的设计过程中,公民对算法程序设计的参与过程往往具有被动性与间接性,他们无法充分控制自己的价值需求和偏好,也无法将其转化为立法选择。即使公民能够通过指定平台直接参与算法程序设计的全过程,也无法就算法程序所涉问题发表自己的意见,并就这些问题与之进行合理的辩论。而且社会弱势群体成员所获得数字设备、技术和网络的机会相对更少,加之许多受教育程度不高的人并不拥有能够创建与算法程序相关数字内容的权力资源,因此,算法程序的设计可能会带有专断性。此外,算法决策的产生还取决于所输入数据的全面性和多样性,一旦数据缺失或错误,基于数据输入所做出的立法选择将使社会不平等的现象长期存在,从而导致反馈循环,并最终引发“二阶性偏见”①如果输入的数据本身是不平等或有偏见的,那么输出的结果有可能会强化这一特点,由此导致的结果是强者越强,弱者越弱。现象。

最后,算法“黑箱”的特性还会给治理带来不可预测性。一方面,算法运行通常包含随机过程,当一个给定的变量因子进入分类时,不同变量之间往往存在复杂的、不可预测的交互作用效应,这意味着相关变量的加入会导致算法结果差异的增加,也可能会减少。[27](p1224)另一方面,由于人类自然语言系统与其所表示内容之间的联系是固定的,而构成算法程序的人工语言系统则过于简单,在面对社会关系背后种种复杂和不确定性因素时,算法程序难以及时、有效地改进和应对。程序员将人类语言翻译成计算机代码时通常会改变原有语言的实质内容,由此产生的缺陷治理规则可能会构成新的行为规范,从而影响到广泛的社会群体。

四、立法性算法的规制路径

在公共治理领域,算法以其强大的数据分析与信息整合能力在不断自我设定目标并进行优化的同时,难以避免本身存在的内在缺陷以及人类对其的不当运用。因此,面对立法性算法带来的问题,必须寻求从算法运行的内在逻辑和外部规制策略着手,通过程序和实体双重规范路径推动算法设计与立法制度的有效衔接,从而使其成为一种配置社会资源、调整行为空间的有效方式。

(一)明确立法性算法的合法性地位

立法性算法与传统法律在形式上存在差别,但仍有许多相同的本质特征,即算法能够配置社会资源格局以及调整人们的行为活动空间,甚至还能对公民的权利义务产生实质性影响。与此同时,在算法决策运用的范围内,它还具有普遍性和强制性。因此,针对立法性算法而言,应当先将算法程序设计过程视为一项正式立法过程,从而明确公共决策算法产生的立法属性,并将其纳入立法程序的规范范围。

我国《立法法》第9 条规定全国人大及其常委会可以授权国务院制定行政法规。第12 条规定:“授权决定应当明确授权的目的、范围。被授权机关应当严格按照授权目的和范围行使该项权力。被授权机关不得将该项权力转授给其他机关。”美国《联邦宪法》第1 条第1 项指出,宪法所授予的立法权均属于参议院与众议院所组成的美国国会。②参见U.S.CONST.ART.1&1:all legislative Powers herein granted shall be vested in a Congress of the United States,which shall consist of a Senate and House of Representatives.美国传统的禁止授权原则经历了长时间的发展,并根据现代社会的需要调整原则的内涵,形成了所谓的“新禁止授权原则”,即要求行政机关在行使授权时提供明确说明的原则。[28](p61)如此既可以力求国会科学授权,也可以限制行政机关的裁量权。而在人工智能与立法学研究中,美国有学者将非人类决策工具与禁止授权原则以及关于正当程序、反歧视和政府透明度的规则相结合来研究算法与立法的关系,认为对于行政机关来说,机器学习是一种人类判断的进化,它融合了基本上相似的决策过程,依靠算法决策不仅准确,而且通常更实用。[27](p1150)通过立法明确立法性算法的授权主体及其功能定位,并对算法程序设计的目的和使用权限范围进行划定,对规范立法性算法的产生及其应用具有重要作用。

因此,从制度层面来看,明确立法性算法的合法性地位,还需要立法机关制定一部统一的公共算法决策法。为保障算法程序设计的合法性和正当性,以及保证算法程序设计过程中的公开透明,亟须在立法中明确确认立法性算法的合法地位。对于涉及社会公共福利和公民权利等重要核心领域的公共决策事项应当严格规定由有权机关进行。算法在公共决策中仍然是辅助性的地位,不能代替或超越有权机关直接作出立法性决策。对于其他一般性决策或治理事项,为了提升决策效率和减少成本,有权机关可以适当借鉴算法技术进行,但前提是这种算法模型的设计经过了事前的审查和风险评估,否则,对算法所作出的公共决策仍需要持谨慎态度。

(二)强化对立法性算法的审查和风险评估

我国《行政诉讼法》第53 条、第64 条专门规定了司法机关对行政立法性文件进行的附带审查装置,从而弥补了传统行政诉讼框架只审查行政行为合法性的缺陷,并扩展了司法裁判的触及疆域。2018 年2 月施行的《最高院关于适用〈中华人民共和国行政诉讼法〉的解释》第148 条更是直接对立法性文件附带审查的程序与标准进行了更为细致的规定,主要从“超越职权”“上位法抵触”“权益受损”以及“制定程序违法”这几个角度设定了具体的司法审查标准,这些同样可以用于审查公共领域中的立法性算法。具体而言,可以从算法程序的设计和使用主体、算法的使用程序、算法的程序和决策内容等方面对被诉请对象的可审查性、与争讼决策算法的关联性和合法性进行详细调查。但是,由于立法性算法与立法性文件的形式具有相似性,所以立法性文件附带审查的标准、方法及其相关研究对立法性算法的审查研究皆有帮助。不过,受制于算法与传统法律在信息传递、推理模式以及表现形式上的差异性,也不能简单地将二者类比套用。

对此,应当通过算法审查和风险评估的方式来保障立法性算法的合法性。从方法上来讲,算法审查主要包括非侵入用户式审查(Noninvasive User Audit)、借助傀儡审查(SockPuppet Audit)、层层打开式审查(Scraping Audit)与联合审查(Collaborative Audit)等三种手段。[29](p1-18)目前,国外已经采用相关技术手段来审查算法的应用,例如静态测试和动态测试,前者通过审查程序公开的源代码,以便监管人员能够确定算法程序的运行行为;后者能够帮助系统开发和操作人员确定如何监控其操作,甚至对软件系统进行结构化审查,以便可以及时地发现和纠正偏离预期的行为。[30](p648)而在算法审查过程中,为了保证算法是依照一套特定的程序标准和自动决策过程所产生的,算法控制者还必须对实现决策的软件进行加密处理,并承诺已确定并记录了所拥有源代码、输入数据或计算结果,这将有助于证明软件和决策策略都不受后期信息或事件的影响。但是,加密承诺本身并不能防止提交者撒谎并生成一个它根本无法打开的虚假承诺,也不能破坏(或拒绝披露)允许打开有效承诺的信息。由于审查机构并不知道错误行为的性质,因此,待正式披露承诺内容时,无论是提交人没有正确地打开密钥,或是隐瞒原始文件中的内容,都可以视为承诺人存在不端行为。[30](p648)

而在风险评估上,评估算法对个人造成的潜在不利后果,需要确立以风险为中心的算法规制框架。[31](p186)例如欧盟《通用数据保护条例》第35 条的数据影响评估就规定了当数据能对自然人的权利带来高风险时,就必须要求数据控制者对个人数据的影响进行评估,其中包括对自然人产生法律影响或具有类似重大影响、定罪或违法相关数据以及可能会对私人空间进行监控等三种具体情形作出了强制性的风险评估规定。为了保证监管机构对风险的管控,该条例第36 条还规定了当评估表明数据控制者如果不采取有效措施或无法识别和减轻风险时,应事先向监管机构进行咨询,从而使监管机构能做出客观的风险决策。通过建立健全相应的算法审查和风险评估制度的配套机制,使其能与数据保护影响评估进行有效衔接。此外,还可以广泛吸取不同利益相关方以及其他社会力量的意见,来对算法决策存在的可能风险进行协商,从而实现管理和控制有争议的风险,推动立法性算法的产生及其良好运行。

事实上,大多数人没有能力审查算法是如何产生的,即使这些算法是以透明的方式产生的。通过设立专业的司法审查部门或委托其他专业性评估机构来审查算法,也不失为一条有效之策。对此,算法审查和风险评估义务的主体应当由第三方机构代理执行,该机构至少包含以下特征:专业性,即该机构的人员应当由具有不同学科知识背景的专家组成,以保证算法审查和评估的专业化;独立性,即该机构应当与公共部门和私营主体分离,不受其他部门的干涉,确保审查和评估结果的公正可靠;合法性,即该机构的设立必须由法律授权产生,其职责范围由法律明确规定;公平性,即该机构应当依照法定的要求和程序来审查算法,确保审查和评估结果的公平。[32](p93)

(三)保障公众对算法程序的参与和监督权

一方面,通过公开算法程序来保障公众的全过程参与和监督。根据《立法法》第5 条关于立法公开原则规定之要求,有权机关需要披露设计的相关算法规则,其中包括正在优化的目标函数、用于优化的方法、算法的输入变量以及开放源代码,这样公众就可以据此参与立法性算法程序设计的全过程。[33](p25)算法公开是一套精密化的流程,它不仅包含着告知、向主管部门报备参数、向社会公开参数、存档数据和公开源代码等不同形式,同时还需结合场景和目标选择适当的透明化义务,通过多重维度的算法透明机制的构建来实现算法问责目标。[34](p163)

另一方面,通过专家辅助和重大事项听证、论证的形式来保障公众对算法程序的实质参与和监督。鉴于算法技术的专业性和算法语言的特殊性,缺乏必要专业知识基础的普通公众很难参与算法程序设计,导致公众参与算法决策的实质性效果大大降低。为此,可以通过引入“交流型专家”来协助技术内核部分,“在专家和公众之间实现知识传递和共识达成,并在决策过程中细化和具化公众参与的能力,从而保障公众的实质参与”。[35](p220)对于一些涉及重大事项的算法程序设计还需要广泛征求各方意见,可通过采取专家座谈会、听证会、论证会以及向社会公布算法程序、公开征求意见等多种形式和要求,最终该算法程序才能正式投入使用。[33](p25)

(四)算法程序的行政监管和问责

行政机关对算法的监管主要包括算法程序的设计、部署以及事后评估等三个阶段。一方面,在算法程序的设计阶段,程序员需要对嵌入其中的价值类型进行规范和道德反思,使算法可以通过遵循、实施和提升某些主流价值来符合特定场景的社会需求,而监管人员则需要审查程序员是否遵循了相应的技术规范和法律规范,保障算法的应用能够符合基本的合法性和公共性要求。在算法程序正式被应用到公共治理领域之前,行政监管人员还必须围绕算法程序应用的社会效果和风险进行事前评估,对算法程序可能产生的道德风险、伦理风险、政治风险和文化风险进行全面、客观的评价。另一方面,建立有效的可预测性和可解释性度量标准,并为开发符合这些标准的算法程序制定行动指南。该指南可以基于对算法程序的预期用途、可能产生的关键错误、可接受错误的类型以及可能产生的预期法律后果和解释原则等方面,为算法程序的应用提供可行的指导规划,使立法性算法程序的设计和应用有章可循。此外,还应当合理限制算法在公共决策领域的运用范围。即使算法决策运用效果明显,也要对其持一定的谨慎态度,不能将整个公共决策过程完全交由算法程序去执行,行政监管机构要对算法技术的嵌入程度、程序操作标准以及民主性内容进行相应的程序化规定,并将立法性算法程序的应用和操作控制在一定合宪/法性、程序性和公共性范围内。

在算法问责问题上,国内有研究者主张将算法责任视为一种严格责任,即只要算法在应用过程中产生了风险或给相对人造成了实际损害,算法的研发者和应用者都应当被要求承担相应的算法责任,即便他们事先已经取得了利益相关者的同意,或者即便是由于纯粹的技术缺陷所引起的伤害,也不能成为算法主体推责和逃脱惩罚的阻却理由。[36](p66)此外,算法问责的实现还需通过完善相应的问责程序,从而保障问责能够有效执行,其中包括设立专门的算法问责受理机关来统一接受投诉、检举、控告,明确算法责任的处理期限,规定算法问责的启动程序等等。鉴于算法技术高度复杂的运算方式和特殊的语言表达形式,以及算法决策社会影响的广泛性和严重性,有必要成立由专家、技术工作者和特定管理人员共同组成的大数据算法决策问责委员会,来对算法决策造成的伤害进行评估和认定,并为相对人出具相关证据和书面报告。[37](p126)

猜你喜欢
程序决策法律
为可持续决策提供依据
法律解释与自然法
决策为什么失误了
试论我国未决羁押程序的立法完善
“程序猿”的生活什么样
英国与欧盟正式启动“离婚”程序程序
让人死亡的法律
创卫暗访程序有待改进
“互助献血”质疑声背后的法律困惑
让法律做主