人工智能:就业歧视法律规制的新挑战及其应对

2021-03-11 08:47侯玲玲王超
关键词:举证责任比较法算法

侯玲玲 王超

[摘要] 人工智能参与就业市场可以防止用人单位对劳动者的就业歧视,但也有可能加剧既有的歧视现象。美国、英国、欧盟等法域在传统反歧视成文法的基础上已经形成了成熟的司法裁判经验和规则体系。本文从用人单位依赖人工智能招聘时所可能产生的歧视风险出发,分析了算法招聘对我国现有劳动法律中反歧视规则的挑战以及我国法院在就业歧视司法裁判中存在的各种问题,在借鉴域外经验的基础上,提出了针对我国反就业歧视法律制度构建的建议。

[关键词] 人工智能  就业歧视  算法  大数据  比较法  举证责任

一、 问题的提出

国务院于2017年7月印发了《新一代人工智能发展规划》,对我国人工智能(artificial intelligence,AI)的发展规划和风险防控进行了战略性指引。2019年,《国务院关于进一步做好稳就业工作的意见》提出,要加强人工智能、工业互联网等领域基础设施投资和产业布局。为了应对人工智能高速发展可能带来的负面影响,2019年中共中央办公厅、国务院办公厅印发了《关于促进劳动力和人才社会性流动体制机制改革的意见》,提出要研究机器人、人工智能等技术对就业影响的应对办法。人工智能发展的不确定性所带来的新挑战和就业结构改变等问题,将对经济安全和社会稳定产生深远影响。①在人工智能时代,计算机算法深度参与了就业市场的各个环节,包括劳动者招聘、晋升等。②以算法为核心的招聘网站和社交平台——智联招聘网、前程无忧网、领英等——成为企业人才招聘的主要渠道之一。将数据系统和自动化决策作为监测、分配、评估与管理劳动力的方式日益成为当代就业市场的特点。自动化招聘系统(automated hiring systems)通过使用数据驱动技术转变了人力资源管理和员工招聘的方式。③用人单位在人事决策中对大数据和人工智能的依赖程度越来越高,而这种技术的应用可能产生就业歧视的后果。人工智能技术应用引发的就业歧视相对于传统就业歧视而言更为隐蔽,实践中可能将妇女、残疾人、老年人等弱势群体置于更加不利的就业地位。

虽然目前还没收集到算法和大数据技术应用导致的国内就业歧视案例,但随着大数据、人工智能技术的研发和应用,我们不难预测,技术会改变我国传统的雇用模式,人力资源部门将会依赖大数据招聘并留住最优员工。本文从用人单位依赖人工智能解决招聘等难题时可能产生的歧视性风险出发,分析这些风险产生的原因、特殊性以及对现有反歧视法律构成的挑战。在此基础上,本文对人工智能技术应用造成的就业歧视法律规制需求进行深入分析,借鉴域外立法和司法经验,反思我国现有反歧视法律之不足,并提出有关立法建议。

二、 我国就业歧视法律规制实施效果及凸显的问题

(一) 我国就业歧视法律规制实施效果分析

我国劳动者工作平等权的主要法律依据是《中华人民共和国劳动法》(简称《劳动法》)和《中华人民共和国就业促进法》(简称《就业促进法》),规定了受保护的劳动者属性包括民族、种族、性别、宗教信仰、残疾人、传染病病原携带者和农村劳动者,且强调了在反就业歧视和企业用工自由两个法律目标之间必须取得平衡。《就业促进法》对《劳动法》反就业歧视法律规定的完善,标志着我国对于工作平等权保护的重视力度逐步加大。《就业促进法》在《劳动法》列举的法定歧视类型中增加了残疾歧视、传染病歧视、农村歧视,通过“等”字确立了兜底式的立法体例,扩展了法院裁定就业歧视范围的自由裁量权,可以囊括法律条文未规定但实践中常见的歧视类型(例如对乙肝病毒携带者的健康歧视)。

本文以“就业促进法”“招聘”“歧视”等关键词搜索北大法宝等权威数据库,将焦点放在招聘阶段的就业歧视现象上。收集整理的案例集排除了用人單位签订劳动合同之后违规解除劳动合同的案例,只关注应聘人员和用人单位之间尚未形成劳动关系的案例,并且排除了尚未生效的一审裁决等案例。经过筛选,本文共收集了42个与招聘歧视相关的案例。我国的就业市场规模庞大,受到歧视的求职者往往不愿意提起就业歧视诉讼,这是因为诉讼的时间成本高、就业歧视缺乏明确定义标准、举证困难、获得赔偿金额不高。由于历史的原因,我国长期以来的立案审核制度使得一些具有敏感性的招聘歧视案件未能进入审判程序。2015年,我国法院从立案审查制变为立案登记制,此后招聘歧视案件数量呈现迅速上升趋势。①

从招聘歧视案件所涉及的纠纷类型来看,数量占据多数的是侵权纠纷类案件(共23个案例,包括人格权纠纷、缔约过失纠纷、平等就业权纠纷和其他侵权纠纷)。由于应聘人员和用人单位在招聘阶段未签订劳动合同,因此应聘人只能追究用人单位的侵权责任,这印证了学者的观点,即我国已确立了反就业歧视法的侵权法模式。②其次是行政纠纷类案件(共16个案例)。这主要包括应聘者在应聘政府机构、事业单位等设置的工作岗位时发生的纠纷。劳动纠纷类案件的数量最少(共3个案例),这是由大多数招聘歧视案件中双方当事人未签订劳动合同而造成的。③

从作为被告的用人单位的类型来看,最多的是企业被告,涉及20个案例;其次是政府部门,涉及17个案例;最后是事业单位,涉及5个案例。值得注意的是,政府部门和事业单位等作为被告的案例总数超过了企业被告案例数。这一现象引发了学者对我国就业歧视现象的担忧,即发生在政府部门的就业歧视往往会对整个就业市场产生不利的辐射影响。④

现实中,我国的招聘歧视类型复杂多样,包含了健康歧视、性别歧视、学历歧视等11种类型,超出了法定歧视种类范围。⑤健康歧视是我国最严重的招聘歧视类型,包含了18个案例。尽管《就业促进法》等法律法规明确保护乙肝等病毒携带者的就业权利,法院系统也出过指导案例,但现实中大多数地方法院并没有判决原告胜诉。⑥这是因为用人单位的体检制度符合政府有关部门制定的体检规定,使得健康歧视有了制度合法性基础。性别歧视只有4个案例,说明我国对女性劳动者的保护水平有所提升,然而隐藏的性别歧视仍然是不可忽视的严重社会问题。学历歧视同样具有深刻的社会基础。我国教育资源的人均稀缺性加剧了用人单位对于学历的追求,就业市场的激烈竞争促使用人单位普遍提高了学历要求。

从胜诉率来看,原告劳动者在17个案例中获得了胜诉,胜诉率低于50%。不同地区和层级的法院在实践中的裁判尺度明显不一且适用法律并不一致。部分法院援引了《就业促进法》进行裁判,而其他法院则采用了传统裁判思路(例如援引《侵权责任法》)。裁判尺度的不一致违反了法律平等原则,使当事人的行为抉择具有不确定性风险。①在胜诉的案件中,法院给予被歧视应聘人员的救济方式整体上包括确认被告行为违法、赔偿应聘人员经济损失、精神损害赔偿、赔礼道歉。对受到招聘单位歧视的应聘人员的司法救济极为有限,其局限性具体体现为:救济方式不包括录用应聘人员和建立劳动关系,经济损失赔偿数额极为有限(最高经济损失赔偿金额案例是17572.75元)。应聘人员败诉的原因主要是证据不足(10个案例),另一个重要原因是,法院认为招聘单位的做法符合现行法律法规。面向社会公开招聘的事业单位在应聘人员体检之后以其携带病毒为由拒绝录用的,声称自己的根据是政府部门制定的入职体检标准,而法院也往往因为被告的行为有政府文件的背书而支持被告的抗辩。

(二) 我国就业歧视法律规制凸显的问题

《就业促进法》第三条规定的劳动者平等就业权和第八条规定的用人单位自主用人权理论上应该互相补充和平衡,然而在实践中,由于劳资力量严重不平衡和举证困难等原因,立法和司法实践都倾向于维护用人单位的自主用人权利,而往往忽视了对劳动者平等就业权利的保护。②

首先,法院对案由归类的不确定性极大地影响着当事人的举证责任、法律责任承担方式等。当事人选择提起侵权诉讼还是提起劳动诉讼存在许多重大差别。例如,侵权赔偿范围包括承担精神损害赔偿费、误工费、体检费,赔礼道歉等,而劳动法律责任包括恢复劳动关系,支付经济补偿金、赔偿金、工资差额等。③

其次,反就业歧视类型过于狭窄。不仅禁止传统就业歧视的法律法规没有得到有效执行,年龄歧视等侵犯一般人格权的就业歧视现象也没有得到立法层面的重视。究其原因,一方面,在于禁止年龄歧视等法律列举外歧视类型的法律规制缺位。我国劳动法律法规中所列举的禁止歧视的事由只包括有限的几项,没有包括年龄歧视等具有较大社会危害性的其他重要歧视类型。另一方面,我国劳动力市场还存在过度饱和、行业内卷等现象。一些产业部门劳动力供大于求的现状助长了用人单位滥用用工自主权和纵容各种歧视的不良风气。

再次,现行的举证责任制度不利于保护劳动者。目前法院处理的招聘歧视案件主要是侵权纠纷。按照传统的“谁主张谁举证”证明规则,被侵权人一旦无法举证则需承担败诉风险。《最高人民法院关于民事诉讼证据的若干规定》第六条仅包含对于劳动关系存续期间劳动争议案件证明责任的特殊规定,但没有明确就业歧视案件适用该特殊证明规定。除非应聘人员有明显证据证明用人单位在招聘过程中有歧视行为,否则不可能胜诉。现有证明责任制度无法满足就业歧视纠纷处理的需求。

最后,政府部门规章制度中隐含的就业歧视难以救济。政府部门发布具有一般约束力的规章制度的行为属于抽象行政行为。根据《中华人民共和国行政诉讼法》第十三条,抽象行政行为是不可诉的。应聘人员即使证明了用人单位存在歧视行为,只要用人单位的做法符合政府部门规章制度的规定,法院也很难追究用人单位的法律责任。我国法院系统早些年发布的典型指导案例也采取了支持政府颁布的有关用人规章制度的立场。2008年,北京市朝阳区人民法院在审理高轶明案时认为,除国家法律、行政法规和卫计委规定禁止从事的易使乙肝病毒扩散的工作外,用人单位不得以劳动者携带乙肝表面抗原为理由拒绝招录或者辞退乙肝表面抗原携带者。这说明了法院系统行使自由裁量权时采取了尊重政府标准的裁判思路,国家法律、行政法规和卫计委等部委的规定似乎成了健康歧视的豁免事由。①政府部门颁布的一些有关人员招录的规章制度对整个就业市场将会产生效果不同的辐射影响。

三、 人工智能技术在就业招聘中的应用及其歧视性风险

(一) 人工智能技术在就业招聘中的应用

人工智能被定义为“计算机科学的一个分支,用于模拟计算机中的智能行为”。②人工智能是一个很大的类别,包括机器学习、模式识别、问题解决和适应不断变化的环境。③依赖大数据和算法做出最优人事决策会成为越来越多的用人单位的选择。人工智能主要通过定向推送招聘广告、审查匹配求职者等方式对就业市场进行重塑。

首先,招聘广告的定向推送。随着我国互联网的快速发展,互联网购物平台、社交媒体软件的用户数量增长迅猛。每个用户的浏览、使用数据痕迹都被存储起来,企业通过计算机进行大数据统计就可以预测用户的消费偏好等信息。根据这些数据,企业就可能推断出用户“属性”,确定特定受众人群并定向精准推送广告。例如,天猫购物针对用户信息浏览的大数据来预测用户的消费偏好,定向推送相关商品广告。④人工智能技术越来越多地被运用在招聘领域中,用人单位可以向平台提供现有员工信息,通过分析这些员工数据来确定招聘市场的“酷似受众群体”,极大地提高招聘广告送达人群的准确性和有效性。

其次,审查和匹配求职者。相对于人工審查和筛选求职申请简历来说,人工智能技术应用具有绝对优势。人工智能技术的应用有助于用人单位对简历进行扫描,通过关键词搜索对不合适的简历进行筛除,从而有效缩小选择范围,大大提高招聘审查的效率。此外,人工智能技术也可以通过算法对求职者未来工作表现进行一定程度的预测。利用人工智能技术,商家还可以根据某位女性在购物平台上购买过叶酸补充剂等孕产期特殊商品的行为,预测出该女性怀孕的可能性很大,从而为她定向推送母婴商品的广告。这种预测行为一旦被用在招聘上,人工智能系统会通过大数据预测求职者可能“怀孕”。还有学者开发了深度学习算法,通过人脸来评估预测测试对象罹患心脏病的风险。①根据预测,企业能够判断该求职者目前和未来健康状况是否适合现有岗位需求。

最后,面试和评估求职者。大数据和人工智能技术应用能够改变传统的求职评估方式。受限于信息获取、面试经验及个人偏见,专员面试可能缺乏对求职者准确、客观公正的评价。人工智能技术可以通过数据分析,对求职者作出客观评价,消除自然人常有的个人偏见。人工智能软件系统通过分析求职者录像视频中的面试表现(包括面部表情、语速等)来评估求职者的工作风格、勤勉忠诚度等,以确定其与岗位是否匹配。

(二) 人工智能技术在就业招聘中的歧视风险

招聘算法对就业歧视现象的影响具有两面性。一方面,招聘算法通过消除人力资源经理的主观偏见和个人偏好来达到减少就业歧视的目标,可以用中立无偏见的数据代替人类的错误判断从而提高决策能力。另一方面,招聘算法不会抵消工作场所偏见的结构性形式。这种就业歧视不仅是由自然人的认知过程造成的,也是由为不同类型的人创造不同机会的社会结构性力量造成的。②

招聘算法可能包含着直接歧视,也可能包含着隐性歧视,即偏见代理的算法歧视。③用人单位采用的算法依赖某种受保护的个人属性(protected characteristics),从而将某些群体排除在招聘广告的接收对象之外。例如,算法设定的招聘广告投放对象很可能只包括招聘平台的女性用户(涉嫌性别歧视),或者某个年龄段的人(涉嫌年龄歧视)。在这种直接歧视中,投放招聘广告的用人单位往往具有主观故意,而招聘平台的算法规则愈发强化了用人单位的歧视行为。用人单位设计的算法依赖看似中立的个人属性信息来投放广告,而这些所謂中立信息实际上与受保护的个人属性有着紧密联系。例如,人们用Google搜索非洲裔美国人名称时往往显示犯罪信息,从而构成种族歧视。①

招聘算法还可能根据深度学习获得的数据进行“大数据杀熟”。线上交易过程往往形成浏览记录,交易平台对这些记录进行积累,形成交易大数据。算法对这些大数据的不当应用可能会给就业市场带来不利影响,例如通过购物平台交易记录来预测用户的性格、身体状况等。对于购买与孕产有关的保健品和用品的女性消费者来说,算法可以预测该女性已怀孕或正在积极备孕。当这位女性消费者求职时,用人单位如果通过算法分析获取了这些信息,预测到该求职者可能已经怀孕或近期有怀孕计划,那么该求职者很有可能不会被用人单位录用,从而产生事实上的性别歧视。

招聘算法也会带来圈子歧视,即可能只在某种特定同质性人群中进行招聘活动。通过Facebook等平台的相似群体工具,算法只在某个社会人群或阶层圈子内投放招聘广告。这个具有同质性的人群圈子可能是企业的现有员工圈,也可能是名校校友圈等具有相似种族、年龄背景的人群。圈子人群属性往往隐藏了地点、性别、年龄等个人敏感信息,而算法的相似群体标签本身已经对这些个人特征进行了筛选。招聘算法反映了现有的招聘实践的情况,然而这些做法却最终导致了性别歧视等就业歧视现象。②

(三) 人工智能技术对就业歧视法律规制的挑战

以算法为核心建立的人力资源招聘决策体系必然会产生新的算法歧视风险,在我国现有就业歧视法律规制缺陷的基础上进一步扩大了工作平等权保护的不足,从而挑战我国现有的反就业歧视法。虽然我国现阶段尚未出现大规模的人工智能算法歧视案件,但随着科技进步和社会发展,我国法院将面临越来越多的算法歧视规制方面的问题和挑战。

人工智能技术增加了就业歧视司法认定的难度。首先,招聘广告的定向推送很难被认定为就业歧视。在线定向招聘广告并没有出现对任何群体偏好或歧视的字眼,但在定向推送的背后,是深度算法对大数据分析后的自动决策,只推送给特定人群从而产生歧视性后果(例如仅向男性适龄人群推送招聘广告)。未被推送到的群体实际上被剥夺了知悉就业信息的机会。其次,通过以算法为核心的人力资源自动决策系统对求职者简历的审核,似乎是依赖于这种中立性软件工具运用大数据的深度算法对求职者工作能力等做出的客观评估。从表面上看,最终做出是否录取的决策并不是用人单位主观偏好的结果,因此用人单位很容易以“工作相关性”和“与岗位职责一致性”为理由予以抗辩。最后,人工智能是算法“黑箱”(Black box)。人工智能通过对大数据的深度学习,通过算法产生预测和决策,可能连算法设计者都不知道算法会如何决策。在招聘过程中,通过对大量简历、人体特征等数据进行深度学习,算法最终可能自动做出歧视性招聘决策。这并非自动化系统开发商和使用方的故意行为,因此很难清晰地追究责任。

人工智能技术的应用使得劳动者证明企业存在就业歧视行为的难度大大增加。人工智能自动化决策系统是基于对大数据的深度学习通过算法做出的决策,是一个“输入数据、输出决策”的过程。算法设计者通常会让计算机在学习用人单位或招聘岗位历史数据的基础上,运用算法对大数据进行分析而输出决策。原有的雇用数据对输出的决策有着重要影响,从而导致分类差别的事实。例如,计算机软件开发岗位以男性劳动者为主,在此数据基础上算法通过分析会得出男性劳动者比女性劳动者更适合计算机软件开发岗位的结论,从而在筛选在线简历时更偏向男性。

综上所述,我们可以得出如下结论:一方面,由于技术壁垒和信息不对称,求职者难以证明人工智能自动化决策系统做出的差别化招聘决策是用人单位的就业歧视行为。 求职者并非计算机专业技术人员,无法证明这种基于大数据算法分析出的决策是嵌入偏见的代码所致。在算法“黑箱”下,求职者更没有办法证明用人单位有就业歧视的主观故意。另一方面,对于用人单位提出的工作相关性和商业必要性,人工智能可以通过大数据分析予以证明,而求职者很难对人工智能这种算法决策提出反证。

四、 人工智能技术应用中就业歧视法律规制域外经验

(一) 美国

美国平等就业的宪法依据是第十四修正案的平等保护条款。1964年《民权法》第七章(Title VII of the Civil Rights Act of 1964)和《防止就业年龄歧视法》(Age Discrimination in Employment Act)构建了美国的反歧视成文法律制度框架。①这些既有法规在人工智能技术造成的算法歧视问题上依然具有可适用性。为了更有效地消除就业歧视现象,美国建立了完善的诉讼发起机制。平等就业机会委员会(Equal Employment Opportunity Commission)以及某些州的公平就业实践机构(Fair Employment Practices Agencies)负责执行《民权法》第七章,有权调查、调解并可代表雇员提起歧视诉讼。除阿肯色州和密西西比州外,其余各州都有一个州公平就业实践机构。平等就业机会委员会制定的《员工选拔程序统一指南》(Uniform Guidelines on Employee Selection Procedures)规定了五分之四规则,即如果任何种族、性别或民族群体的选拔率低于选择率最高群体的五分之四,就可以被认定为群体的选拔率具有实质性差异,该种族、性别或民族群体受到了歧视。这条实用经验法则可以让执法机构注意到招聘率、晋升率和其他选拔决定的严重差异,可以作为重要的执法参考。②

美国法律规制的就业歧视可以分为“差别对待歧视”和“差别影响歧视”,并且分别发展出了各自的监管理论体系。一方面,基于差别对待(disparate treatment)理论,《民权法》第七章等联邦法律主要通过成文法的明文禁止来规制“差别对待歧视”。另一方面,联邦法院则通过判例确立了以差别影响(disparate impact)理论来界定就业歧视的具体认定标准,规制“差别影响歧视”。①差别对待歧视和差别影响歧视分别对应了英国反歧视法中的直接歧视和间接歧视。在司法裁决过程中,美国联邦法院确立了以差别影响理论来规制成文法难以认定的各种间接就业歧视类型,从而确立了就业歧视的具体认定标准。在美国就业歧视案件中使用统计证据在很大程度上源于1971年的格里格斯诉杜克电力公司(Griggs v. Duke Power Company)一案②,最高法院在该案中确立了将差别影响理论作为起诉就业歧视行为的依据。自此之后,差别影响理论成为美国反歧视法律制度的重要基石。類似于传统歧视类型,对人工智能算法造成的就业歧视的认定需要运用差别影响理论进行分析。

关于算法就业歧视行为的客观构成要件,法院会对三个核心问题进行审查:(1)差别影响。假如一项算法对原告产生的不利影响大于对其他社会公众的影响时,这项算法决策就存在着歧视的可能性。在美国联邦最高法院1982年裁决的康涅狄格州诉迪尔(Connecticut v. Teal)案中③,法院认为雇主使用的就业与晋升测试算法导致黑人雇员遭受了禁止晋升的结果。该算法应当受到差别影响理论的审查,以保护算法决策对象的利益。(2)商业必要性。在1971年的格里格斯诉杜克电力公司案中,雇主使用的招聘考试方式使得黑人应聘者的通过率大大低于白人应聘者。法院判定该招聘考试方式违法,除非雇主能证明使用该考试方式具有商业上的必要性。④ (3)可替代的算法决策。在1975年的阿尔伯马尔纸业公司诉穆迪(Albemarle Paper Co. v. Moody)案中⑤,联邦最高法院认为雇主虽然证明了就业能力测试算法与工作有关,但是还存在使用不会导致种族歧视的其他测试程序替代的可能性。关于算法就业歧视行为的主观构成要件,美国法律对直接歧视行为实行过错责任,而对间接歧视行为实行严格责任。法院要求劳动者举证证明实施差别对待歧视的雇主具有歧视的故意(intent),而无须证明实施差别影响歧视的雇主具有主观故意。⑥

关于就业歧视的证明责任,格里格斯案的判决表明美国法院实行了举证责任倒置,雇主对其未实行招聘歧视行为负有举证责任。1973年,在麦克唐纳-道格拉斯公司诉格林案(McDonnell Douglas Corp. v. Green)中,联邦最高法院确立了举证责任倒置的一般规则。在一个就业歧视案件中,原告雇员必须首先提供歧视的初步证据,被告雇主必须为其行为提供合法的非歧视性理由的证据以推翻歧视的假设,原告必须有公平的机会陈述事实以证明存在歧视。①

关于就业歧视因果关系的证明标准,法院根据不同成文法采取了不同严格程度的裁判标准。首先,《民权法》第七章中的一般就业歧视证明标准是证明受保护的个人特征是就业歧视行为中的“激励因素”(motivating factor)。②在1989年普赖斯·沃特豪斯诉霍普金斯(Price Waterhouse v. Hopkins)案的判决中,联邦最高法院法官认为,当原告证明性别(或其他受保护的个人特征)是就业决定中的“激励因素”时,就已经达到了《民权法》第七章的证明标准。③其次,《防止就业年龄歧视法》的诉讼采取了更严格的标准——“如果不是”(but for)因果关系规则。在2014年的克拉姆布莱特诉麦克休案(Cramblett v. McHugh)中,美国第九巡回法庭遵循了格罗斯诉FBL金融服务公司(Gross v. FBL Financial Services)案的“如果不是”因果关系规则。④法院认为,原告虽然证明了自己的年龄是算法招聘考虑的一个重要因素(substantial factor),但这不足以达到年龄歧视的证明标准。原告被要求证明,如果不是因为他的年龄,他早就被录用了。⑤就业歧视中的差别影响必须产生统计学上的显著性才能被认定为歧视行为。联邦最高法院从1977年哈泽尔伍德学区诉美国(Hazelwood School Dist. v. United States)案⑥以来,越来越多地将统计显著性检验(test of statistical significance)用于审理就业歧视案件。

为了促进平台经济的发展,美国法律规定了平台就业歧视责任的豁免制度。算法平台帮助第三方招聘公司发布的招聘广告经常会造成就业歧视后果。Facebook平台使得非裔、拉丁裔和亚裔美国人无法接收各种经济类广告,包括住房和就业广告。⑦针对Facebook的行为,一些集体诉讼揭示了就业歧视与招聘平台广告投放方式间的因果关系。⑧ 2017年,美国加州北区地方法院审判了美国通信工作者协会(Communications Workers of America)针对T-Mobile等公司提起的集团诉讼。⑨原告指控被告公司通过Facebook的广告平台专门针对年轻人发布招聘广告,屏蔽了年老人士,使之无法收到招聘广告。T-Mobile通过Facebook发布了招聘广告,将收到广告的人群限制在18岁至38岁之间。①不仅是第三方招聘广告,Facebook也经常使用同样的歧视性年龄过滤器,将年纪较大的员工排除在自己的职位招聘广告之外。②然而,根据《通信规范法》(Communications Decency Act)的规定,Facebook等服务提供商对用户生成的内容不承担责任,因为服务提供商没有创建或开发有争议的内容。③2017年的科恩诉Facebook案(Cohen v. Facebook)探讨了服务提供商的《通信规范法》潜在豁免情形④,学者也认为Facebook的机器学习算法有能力选择显示个性化内容,因而属于内容的共同开发者。⑤算法平台是否豁免法律责任这一领域将是未来诉讼中互联网企业与劳动者之间攻防的重要阵地,决定了算法平台是否应对用户生成的内容承担连带责任。

(二) 英国

为了提高效率和节约成本,英国公司在招聘过程中越来越多地使用某种类型的求职者跟踪系统或自动化招聘系统。⑥尽管不如美国发展迅速,但是英国算法招聘也有了很大进步,发展出了Applied和Thrivemap等自动化招聘系统。⑦英国反歧视立法框架主要是2006年《平等法》(Equality Act),类似的法律还包括《同酬法》(Equal Pay Act)、《性别歧视法》(Sex Discrimination Act)等。《平等法》的立法目的之一是用涵盖性别、种族和残疾等所有主流歧视类型的统一法律来取代零散的既有法规。该法律不仅保护劳动者免受由人类主观意识造成的就业歧视,也保护劳动者免受自动决策系统产生的就业歧视。2006年《平等法》定义了免受歧视的九个“受保护特征”,包括年龄、残疾、变性、婚姻和民事合伙、怀孕分娩、种族、宗教信仰、性别、性取向。在某些情况下,歧视存在例外豁免情况。例如,如果工作岗位要求某人具有特定的信仰(例如拉比或牧师),那么可以考虑列明宗教信仰的招聘条件。⑧

《性别歧视法》设立了平等机会委员会(Equal Opportunities Commission),后来被根据《平等法》设立的平等和人权委员会(Equality and Human Rights Commission)所取代,由平等和人权委员会处理种族、宗教、性别等各种歧视 。作为非政府部门公共机构,平等和人权委员会是独立运作的专业权威机构,已经成为决策者、公共机构和企业的重要联络点。①平等和人权委员会重申了《平等法》定义的九个“受保护特征”,并提供了防止歧视的具体指引。②

与美国的法律一样,英国法律规制的就业歧视可以被分为直接歧视和间接歧视。英国劳动力市场的直接就业歧视相对于间接就业歧视来说较为罕见,这与美国的案例情况正好相反,美国差别对待歧视(直接歧视)案件远远多于差别影响歧视(间接歧视)案件。③类似于美国的差别影响理论,《平等法》第十九条将间接歧视定义为“对受保护特征具有歧视性的规定、标准或做法”。当一项劳动政策以同样的方式适用于所有人,其效果使具有受保护特征的人处于尤其不利地位时,就可以被认定为构成了间接就业歧视。伴随《平等法》出台的《实践守则》(Code of Practice)进一步细化了就业歧视的认定标准。《实践守则》规定了必须对具备受保护特征的劳动者和不具备受保护特征的劳动者进行比较。两组的情况必须足够相似以便进行比较,并且在情况上不得有任何实质性差别。④

在证明标准上,英国法院运用了“如果不是”(but for)方法来认定歧视行为。在1990年的詹姆斯诉伊斯特利区议会(James v. Eastleigh Borough Council)案件中,市议会推出一项优惠活动,允许享受养老金者免费进入游泳池,而无须交35便士入浴费。詹姆斯夫妇都是61岁,但詹姆斯女士可以免费进入游泳池,而詹姆斯先生则不能免费入浴。这是因为女性从60岁起可以领取养老金,而男性只有到65岁以后才可以领取。法院认为如果不是因为詹姆斯先生是男性,他不会受到不利的待遇,因此认定直接歧视行为存在。⑤

英国法律只关注被告是否实施了歧视的客观行为,而不管其是否具有歧视的主观动机,因此是否具有歧视的意图或动机不是承担法律责任的必要条件。在1989年的R诉伯明翰(R v. Birmingham City Council ex parte Equal Opportunities Commission)案中, 伯明翰市議会为八所男女分校里的11岁学生提供了600个去自愿资助的文法学校就读的机会,在12岁时男、女生可获得同等数量的名额。然而,甄选程序为11岁的男孩和女孩分别分配了390个、210个名额。平等机会委员会要求法院宣布伯明翰市议会的政策违反了1975年《性别歧视法》第二十三条第一款,因为这些政策歧视女生。法院裁定平等机会委员会胜诉,并认定了伯明翰市议会违反1975年《性别歧视法》第二十三条第一款。法院实施了严格责任,只关注被告是否实施了歧视的客观行为,而不管其是否具有歧视的主观动机。因此,被告是否具有歧视意图或动机不是其承担法律责任的必要条件。①

(三) 欧盟

《欧盟基本权利宪章》(Charter of Fundamental Rights)第二十一条禁止基于以下几种理由的歧视:性别、种族、肤色、族裔或社会出身、遗传特征、语言、宗教或信仰、政治或任何其他见解、少数民族成员身份、财产、残疾、年龄、性取向和国籍。这些特征种类比英国的九种特征更为全面。与这些属性相关的信息一旦被作为数据处理后,就会受到数据保护法律框架的保护。《通用数据保护条例》(General Data Protection Regulation)不仅引入了隐私限制以减轻算法歧视现象,对于算法招聘歧视具有一定的适用性,还引入了专门保护数据主体在处理个人数据时的“基本权利和自由”的条款(包括不受歧视的权利)。《通用数据保护条例》中规定了获得解释权(right to an explanation)等权利,使算法更负责、更可解释、更以人为中心。数据处理应向数据主体提供具体信息,使主体具有对所做决定解释的权利和质疑决定的权利。②

为了确保能够公正、透明地处理数据主体,控制者应使用适当的数学或统计程序进行分析,以识别涉及数据主体利益和权利的潜在风险,进而保护个人数据,并防止对自然人产生歧视性影响。③为了更好地执行反歧视规则,欧盟建立了欧洲数据保护委员会 (European Data Protection Board) ④,对所有处理和使用可能会对自然人的权利和自由带来高风险的新技术,都必须进行数据保护影响评估。⑤

五、 人工智能技术应用下我国就业歧视法律规制重构

如果人工智能参与就业市场的活动被合理规制,那么计算机算法将有助于发现现实社会中存在的就业歧视现象。⑥算法的使用提高了决策构成和动机的清晰度与透明度,从而大大增加了发现歧视现象的可能性。当涉及算法歧视时,法律可以通过规范算法设计过程、编写构建机器学习分类算法和设立详细的记录保存制度,使劳动者的举证过程变得更容易。①我国在人工智能发展规划中明确了建立人工智能安全监管和评估体系的计划,重点关注对就业的影响,确保人工智能的发展安全可控。②在借鉴美国、英国等发达国家和地区的算法歧视规制经验时,我国政策制定者需要考虑国内就业市场的自身情况,避免法律移植可能带来的规则水土不服问题。③美国的算法规制模式不可避免地带有本国对就业歧视的社会认知,如果法律移植、经验借鉴不考虑国情差异和社会文化观念差异,就可能导致劳动者的权利得不到有效保障。④

(一) 扩展歧视类型、明确歧视认定和豁免标准

在我国,学历歧视、健康歧视、身高歧视、前科歧视等社会中广泛存在的歧视现象并没有被全国人大及其常委会列入基本劳动法律之中,仅被抽象地涵盖在“等”字中,作为歧视类型的兜底条款。这些主流歧视形态只出现在政府部门的规章和地方性法规等较低层级的文件中,难以达到保护劳动者和威慑歧视行为的功效。美国和英国的就业歧视类型非常广泛,法院系统随时受理诉讼并灵活认定潜在的歧视类型。本文建议我国立法机关应通过修改劳动法律,扩展就业歧视的类型范围,全面规定国内和国际社会普遍存在的歧视类型,例如年龄歧视、身高歧视等。在人工智能技术应用造成的歧视方面,我国法律应明确地将算法歧视作为法定歧视类型之一。为了消除各种“合法”就业歧视,我国应清理涉嫌带有就业歧视色彩的政府规章制度和规范性文件,建立中央层面的规范性文件定期审查机制。

美国通过法院的经典判例形成了招聘歧视行为认定的一般原则和认定标准。其联邦最高法院在该案中确立了将差别对待理论和差别影响理论分别作为认定直接和间接就业歧视行为的依据。法院会对差别影响、商业必要性和可替代算法决策等三个核心问题进行审查或认定。英国《平等法》和《实践守则》也明确细化了就业歧视的认定标准。虽然我国反歧视法律条文使用“等”字作为歧视类型的兜底条款,但难以为保护劳动者免受歧视提供具有确定性的法律标准。为平衡劳动者平等就业权利和用人单位的用人自主权利,《劳动法》和《就业促进法》等法律法规和最高法院的司法解释应在借鉴域外法律经验的基础上,明确和细化就业歧视的构成要件与认定标准,引进差别对待理论和差别影响理论。为了鼓励平台经济的发展,我国应借鉴美国《通信规范法》增加法定的歧视豁免情形。

美国、英国司法实践中的“激励因素”和“如果不是”证明标准对我国法院具有重要启示作用。①“如果不是”证明标准对于劳动者的证明责任要求过高,且人工智能存在技术壁垒和黑箱操作,因而“激励因素”应是我国立法者和法院优先采取的证明标准。由于劳动者很难证明算法平台具有就业歧视的故意或意图,且算法本身属于人工智能运行机制,因此我国应规定算法平台的无过错责任。

(二) 明确算法开发主体和运营主体的法律义务

我国法律应明确规定算法平台开发和运营人员对于算法招聘决策的法律义务与责任。一方面,在算法开发主体和算法运营主体是同一主体的情况下,该主体应对受歧视的劳动者承担注意义务。违反法定义务的,侵权人应承担人格权侵权法律责任。在对《劳动法》和《就业促进法》进行修订时,有关方面也可以考虑规定额外的法律责任,例如惩罚性赔偿。另一方面,在算法开发主体和算法运营主体不一致的情况下(例如用人单位作为运营主体从开发主体那里购买了算法软件),雇主作为算法运营主体,有义务对算法造成的就业歧视现象进行调查追踪,对算法的运营负有注意义务。我国法律应类推适用产品质量侵权责任规则,明确规定开发主体和运营主体承担连带责任:算法运营主体没有过错的,受歧视的劳动者可以向算法开发主体进行事后追偿。

算法开发主体的义务包括对算法的跟踪、记录和评估。国家人工智能规划明确了建立人工智能评估体系的计划②,算法开发人员也应该在微观层面上对算法招聘过程和结果进行跟踪记录和风险评估。可能造成“设计歧视”的算法程序的开发人员必须关注算法如何造成了劳动者的差别待遇,有法律义务对其进行科学记录、风险评估和善后处理。鉴于人工智能的评分(scoring)系统与歧视之间的联系,法律应严格限制用人单位采取人工智能技术对劳动者进行评分的方式。③Pymetrics公司执行了严格的统计测试,对不同年龄、性别、种族的劳动者的得分进行比较和评估,以保证数据决策的公平性。④算法开发主体应承担对算法运行程序的解释义务。法律应引入第三方数据监督机制,以提高算法招聘决策的透明性,建立责任追究机制。⑤

(三) 确立举证责任倒置规则

美国和英国存在举证责任倒置的规定,在应聘人员提供初步证据的情况下,雇主需要举证,证明自己沒有就业歧视行为。这对于保护应聘人员具有极大的正面作用。我国劳动者面对人工智能技术应用下的就业歧视不可能比美国等国家和地区的劳动者更具有信息与技术知识优势,因此我国法律的“谁主张谁举证”的传统举证责任规则具有很大的局限性,不能有效地保护被歧视的劳动者。①在由算法引发的就业歧视纠纷中,我国反就业歧视法律应建立举证责任倒置的分配规则,即受歧视的劳动者完成初步证据提供义务即可,所列举的事实足够使法院相信发生了歧视和有证据表明可能发生了歧视,就业歧视假设就确立了。一旦劳动者提供了初步证据,举证责任就应该转移到用人单位方,用人单位必须提供合法的非歧视性理由的证据以推翻歧视的假设,即必须提供证据,以证明本单位所做出的是否聘用的决定并非因为歧视原因,而是有合理的市场性理由。

(四) 设立诉讼专门机构、便利集体诉讼

美国除了受歧视的劳动者个人可以提起诉讼之外,平等就业委员会和州公平就业实践机构也有权针对实施就业歧视的雇主向法院提起诉讼。英国有平等和人权委员会负责执行《平等法》的反歧视规定,欧盟则有欧洲数据保护委员会。这些组织发挥着类似于金融纠纷领域的投资者服务机构的功能。投资者服务机构代表广大投资者提起集体诉讼,具有节约集体诉讼成本和提高就业市场监督水平的作用。

为了保障劳动者的诉讼权利,我国应借鉴美国平等就业委员会的经验,设立代表劳动者进行集体诉讼的专门机构。这一机构将类似于代表投资者提起欺诈诉讼的投资者服务中心,具有收集证据的专业优势和技术支持,同时能够节约劳动者的诉讼成本,减轻其心理负担。我国证监会设立的中小投资者服务中心通过持有上市公司股票,自行或者联合上市公司其他股东共同行使股东权利,解决了中小投资者的集体行动难题,提升了投资者保护水平。②受到就业歧视的劳动者的地位与被上市公司管理层欺压的中小投资者非常相似,两者都面临着信息不对称、举证困难、集体行动难、诉讼成本过高、胜诉率过低等问题。专门委员会的设立将有助于促进劳动者对实施就业歧视的用人单位提起诉讼,并提高劳动者的胜诉率和获得赔偿的概率。

六、 结论

随着人工智能技术的应用,算法技术正在逐渐改变我国传统的雇用模式。人工智能对劳动力就业市场的影响是一把双刃剑,既可以防止也可能加剧企业和政府部门等用人单位对(下转第33页)(上接第16页)劳动者的就业歧视。本文以此为议题,从用人单位依赖人工智能招聘时可能产生的歧视风险出发,分析了算法招聘对我国现有反歧视法律构成的挑战。在算法革命方兴未艾而反歧视法律又过于抽象笼统的背景下,我国法院尚未审理过关于算法招聘造成的就业歧视案例,而在传统就业歧视司法裁判中存在案由归类不确定、就业歧视类型狭窄、举证责任制度不利于劳动者、政府部门规章无法有效禁止就业歧视等问题。人工智能技术的应用增加了就业歧视法律责任的司法认定难度和证明难度,向我国反就业歧视和劳动者保护法律体系建设提出了更大的挑战。

美国、英国、欧盟等法域在传统成文法的基础上,形成了较为成熟稳健的算法就业歧视司法判例体系。美国联邦法院在《民权法》第七章的抽象条文基础上形成了完善的就业歧视认定标准和举证责任倒置规则。英国《平等法》和《实践守则》明确细化了就业歧视的认定标准。欧盟《通用数据保护条例》规定了获得解释权等权利。为了保障劳动者权益,美国和英国设立了起诉就业歧视行为的专门机构。在借鉴域外成熟经验的基础上,本文提出了人工智能时代下我国就业歧视法律制度的构建建议:扩展歧视类型、明确歧视认定和豁免标准;明确算法开发主体和运营主体的法律义务;确立举证责任倒置规则;设立诉讼专门机构、便利集体诉讼。

(责任编辑:亚立)

猜你喜欢
举证责任比较法算法
应用比较法 培养物理知识迁移能力
怎样引导学生证明不等式
Travellng thg World Full—time for Rree
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点
建立我国环境公益诉讼制度的几点思考
论我国《侵权责任法》中的医疗损害责任归责原则
地理比较法在高中地理教学中的应用探析
运用综合比较法复习浓硫酸性质等