对个性化算法推荐技术的伦理反思

2021-10-19 05:34匡文波
关键词:信息茧房

匡文波

摘   要: 算法推荐技术的出现,使得传统以编辑为中心的把关权力部分迁移到算法创设主体身上,以算法为核心的“技术丛”在一定程度上被赋予信息采集、记录、筛选、分类、推送、存储等权力,而这些权力背后的动机及其执行结果并不都是符合伦理的,信息茧房、数据滥用、算法黑箱等问题对个人隐私权、知情权、平等权、被遗忘权造成了不同程度的威胁。算法推荐技术在新闻传播领域中的运用带来了技术逻辑与新闻逻辑的碰撞,商业和资本价值輸出给数字人权和公共价值带来新困境。基于此,从法伦理的视角出发,以权利为逻辑起点,从数字人权中的自由、正义、隐私、自主性、人性尊严等先行价值切入,重新解读算法黑箱和信息茧房等问题中受冲击的伦理内核,厘清智能传播环境下算法推荐技术对个人、行业和社会造成的权利威胁,反思造成这种现状的原因,并试图提出可行的解决对策和建议,提倡以人权价值规制算法技术,在算法推荐技术的发展中重视人的价值,尊重人的主体地位。

关键词: 数字人权;法伦理;算法歧视;信息茧房;被遗忘权;隐私侵犯;数字素养

中图分类号:TP18  文献标识码:A  文章编号:1004-8634(2021)05-0014-(10)

DOI:10.13852/J.CNKI.JSHNU.2021.05.002

一、引言

人工智能的核心在于算法,算法的社会本质是一种权力,作为数据与人工智能的节点,它在新闻内容生产和制作环节中起着关键的逻辑组织作用,在信息的准入、准出方面发挥着重要的过滤作用,在检索、分类方面发挥着匹配和判定作用。1 “个性化新闻推荐”(Personalized News Recommender)是一种基于计算机技术、统计学知识,通过将数据、算法、人机交互有机结合,建立用户和资源个性化关联,从而为用户提供信息决策支持的技术。2 目前,用于新闻分发的算法主要包括:协同过滤(Collaborative Filtering Recommendation)、基于内容的推荐(Content-based Recommendation)和关联规则推荐。其中协同过滤系统又包含基于记忆的(Memory-based)和基于模型的(Model-based)协同过滤。3 其基本思路是通过对内容、个人、场景特征的判断,进行信息匹配。从数据采集的角度看,算法推荐技术需要至少采集以上三个方面的信息,具体包括个人的年龄、兴趣、职业等详细的人口统计学信息,浏览记录、互动记录等行为信息,地理位置、网络情况等场景信息,基于此描绘个体的“数字画像”。在内容判断上,针对具体信息内容的关键词、热度等做出判断,1 算法基于这两端的信息,通过过滤逻辑进行匹配,推送个人化的内容。

算法技术的运用,不仅对原有的传播主体进行了重新赋能与赋权,也影响和解构了传统传播生态。不少学者从技术角度或者个案视角对智能分发机制进行考察,探讨了算法推荐在新闻传播领域中运用的影响,如,蔡磊平从协同过滤算法出发,探讨了个性化推荐算法下个人信息的窄化和信息茧房风险;张志安和汤敏指出以偏好为导向的算法推荐挤压了主流媒体的生存空间,给主流意识形态的传播带来挑战;2 任莎莎与田娇等选取算法推荐技术较为成熟的平台作为个案,分析这项技术带来的伦理问题。3学者们普遍认为,算法推荐在新闻传播领域的运用,除了提高信息生产效率、稿件质量外,还缓解了信息过载、实现了信息精准分发,但同时也加剧或引发信息茧房、泛娱乐化、公共性减弱、算法黑箱等问题。总体来说,一些学者从技术视角出发,揭示算法推荐或某一平台媒体的技术逻辑,进而反思其引发的问题;还有一些研究从新闻伦理角度分析算法推荐对专业主义和新闻场域的解构与重塑;也有一些研究从现象出发,聚焦“后真相”“算法黑箱”“信息茧房”等问题。

本文认为,现象中包含的伦理问题有重叠性,基于单个案例或现象的分析较为深入,但不利于从全局把握这一问题;技术视角下的剖析有利于建构“以技术约束技术”的路径,但与从伦理建构和法律规制上约束算法推荐之间缺少桥梁。算法推荐技术的伦理问题从属于技术伦理范畴,这一问题不仅可以从技术角度切入,还可以从伦理视域分析,如有学者认为功利主义、义务论、契约论和美德伦理学等道德理论可以为算法带来的伦理问题提供框架,并从算法新闻的“输入—处理—生产”和“组织—专业—社会”两个层面出发,构建算法新闻的多层伦理分析框架。4 本文试图从法伦理的视角出发对算法推荐技术引发的伦理问题进行解读,从透明、平等、隐私、自主等核心视点出发去理解算法黑箱、信息茧房等问题。这种以伦理价值先行的分析方式,有助于我们剥离纷繁复杂的现象表层去审视被算法推荐侵蚀的伦理内核。我们以数字人权理论中的公民隐私权、数据权、公平权等为起点,分析算法推荐技术对个人权利的滥用与侵犯,以期加深对算法推荐技术伦理问题的实然性与应然性解读,为进一步建立从伦理上约束、从法律上规制的算法推荐开发与运用管理系统提供新的思考起点。

二、算法推荐技术引发的伦理困境

1.个体层面:权利让渡与滥用

数据权利被纳入第四代人权即数字人权框架,数字人权理论是在信息技术、人工智能技术高速发展,算法全方位融入社会生活的背景下提出的。信息的存在方式赋予了人权数字属性,5 它主张数字科技要以人为本,把人的权利及尊严作为最高目的,以人权作为根本的划界尺度和评价标准,包括数据信息知情权、数据信息表达权、数据信息公平利用权、数据信息隐私权、数据信息财产权等。6 它提倡以公民隐私权、数据权、知识利益公平共享权等人权基本价值制约数字科技的开发与运用,确保其在公平、自由、正义、安全底线之内运行。7 在算法推荐技术已经广泛应用于搜索、社交、资讯定制平台的当下,个体出于信息获取的便利性,或主动、或被动地向服务提供者让渡自身部分数字权利。算法推荐引发的伦理困境普遍产生于这种权利让渡与滥用的情境中。

第一,隐私让渡与全景监控。

从权利功能来看,隐私权主要是为了保护个人私生活的安宁与私密性。隐私权的内容包括维护个人的私生活安宁、个人私密不被公开、个人私生活自主决定等。对隐私权的侵害主要是非法的披露和骚扰。1 个人信息在内容上是隐私的内在组成部分,保护个人信息是为了捍卫隐私权。隐私权主体有权不被干扰,而且对自身信息有自我决定权。2

如前文所述,算法推荐技术运行的基石是海量数据的采集,对个人信息的采集、使用行为的记录、兴趣偏好的判断是信息定向推送的基础。这意味着大量形象特征和行为数据的采集变得不可避免,这其中包含大量个体不想曝光的基本的人口统计信息、兴趣偏好、地理位置行动轨迹、社交范围、亲属关系群体、消费水平等。算法创设主体在收集个体基本数据的前提下,根据用户行为、社交关系、地理位置等信息推断其兴趣偏好与需求,描绘用户画像,贴上数据标签,在此基础上推送与用户属性相匹配的新闻内容,更重要的是广告内容——这仍然是目前应用最广泛的变现模式。这些被算法创设主体采集,用以判别和定义用户的“元数据”,是信息时代商业机构竞争的重要战略资源。数据采集是信息定制的前提,这意味着受众个人必须“让渡”一部分隐私数据使用权才能让算法了解和定义个体,才能实现“千人千面”的专属定制和精准推送。就如进行衣服定制时,需提供个人的尺寸,进行信息定制,也需提供自己的“数据尺寸”。信息定制意味着信息暴露,个人让渡的隐私数据尺度及其使用权不完全由个体所知、所掌控。个人数据的采集和使用范围往往是秘而不宣的,中国的《网络安全法》第41条规定,搜集个人的信息应符合合法、正当和必要三元素,3在实际情况中,数据的采集、采集范围、使用范畴不被个人所知,即使在知情信息被采集的情况下,也会面临“不同意即停用”的局面。网页、应用软件、设备对信息收集的范围往往远超它们提供正常服务所调用的必需权限。之所以要超过使用所必需的范围采集信息数据,在于更多的“元数据”意味着更为精准的个体画像,意味着更高的变现价值。而“元数据”的商品化,泄露、二次售卖现象早已不是个案,银行、购物平台都有泄露数据的先例。2019年9月20日中国青年网报道了网络求职者“简历”被1元售卖的现象,被人民网官方微博转载。全球最大社交平台Facebook也多次卷入数据泄露的风波,2018年更是因为5000万用户数据泄露的“剑桥分析事件”而接受调查。数量众多、良莠不齐的设备对用户数据进行普遍抓取,却不一定有足够的保护措施防止这些数据被盗,这意味着个人信息被获取后其用途和是否会泄露成为不确定事件,隐私侵犯隐患成为常态。

隐私侵犯问题不仅在于个人私有信息的“公共暴露”,更在于无声监控和暗中利用,4 在于算法背后的技术与资本对个人的监视、规训与剥削。5 这些无处不在、秘而不宣的数据掌控者对全景透明、無知无觉的个体造成了一种数字全景监控,在这种不对等的身份条件下歧视和信息操纵变得有机可乘。

物联网、云存储等技术的发展使个人在互联网上所有的踪迹都变得有迹可循,绝对意义的私人领域不存在,理论上如果打通所有的数据渠道,是可以还原一个人在数据世界的生活图景的。真正的个人空间和私域消失,某种程度上人在数据世界里变成了透明人,一种数字意义上的“全景监控”成为可能,海量信息采集意味着海量的监控。但是我们必须看到,个人隐私的存在和不被侵犯是对人性自由和尊严的尊重,是对自主权的捍卫,也是互联网技术进一步发展的必然要求。在大数据时代,用隐私通货(Privacy Currency)交换便利6似乎已经变成不可避免的事情,但是隐私的边界在何处,信息采集和调用如何规范,如何在尊重隐私的基础上提供更便利的生活方式,在公共领域和私域之间找到平衡点,是我们进一步探索的重点。

第二,自主让渡与规训操纵。

自主,或称自治,是指建构自己目标和价值的能力,以及有自由做出自己的决定并根据这些决定采取行动的能力。1 接受算法推荐还意味着对个体自主性、获取和处理信息的自我决策权进行部分让渡,代表着接受算法替个人决策“看什么和不看什么”“多看什么少看什么”。麦克卢汉认为,媒介是人的延伸,延伸意味着截除。算法被喻为人脑的延伸,我们赋予技术以“决策权”,在某种程度上是人的自主性被“截除”。而这种决策导向的单一性,压缩了我们生活的自主性、偶然性、延展性。这种个性导向的逻辑容易加剧个体与真实、多元、多样世界脱节的风险。而信息的多元化、多样性是个人进行认知世界、自由交流、发表政治意见、按照自己的意志做出决策的基础,与受众兴趣和观点匹配度高的信息会以更符合他们阅读习惯的方式出现。通过算法过滤,屏蔽了真实世界的一部分。这种自主性的让渡让受众变成被动接受信息投喂的单向度“信宿”,被动地接受自动化决策方案,压缩了个体与多样内容的交互空间。

智能算法延伸了我们的智能判断能力,也让我们在技术中被驯化,逐渐丧失了思辨能力。在这种情况下,算法通过对个人数据的分析进行信息干预,改变受众态度和行为的风险增大。此时,商业或其他力量的介入,会加剧对自我决策的侵蚀,如在线商业营销、关键词竞价排名、基于搜索行为和内容的广告等。有研究者指出,基于兴趣导向的算法推送,受众所接触信息的同质性增加,接触到的知识的多样性减少,人类的自主性在认知和行为层面都有了减退的风险。2 以“今日头条”为代表的多个资讯APP也因此备受诟病。此外,作为普通公民,“喜欢看到的信息”不等同于“需要知道的信息”。媒体建构的拟态环境是人们认知世界的重要来源,如果这一拟态环境的构建只依据单一的兴趣偏好原则,会更加限制受众对真实世界的认知,束缚在算法构建的同质化的信息茧房中。“信息茧房”(Information Cocoons)是凯斯·桑斯坦在《信息乌托邦》一书中提出的概念,他指出,公众的信息需求并非全方位的,人们倾向于将自己包裹在自己感兴趣的内容中,从而将自己桎梏在一个“信息茧房”中。信息茧房提供了一个更自我的思想空间,将个人限制在有限的领域内,加剧认知偏差,提高刻板印象和群体极化的风险,加深了不同群体之间的交流鸿沟。更为重要的是,这些“茧房”边界的设定中掺杂着算法开发者的意志,其筛选和推送机制裹挟着其他利益相关者的商业目的,其输出结果执行开发者利益最大化的原则,优先推送那些最符合自身诉求的信息;通过有偏向的算法影响个体认知、议程设置,这些经过精心筛选后的信息加深了对个体的规训、操纵和剥削。

第三,知情侵犯与信息茧房。

知情权指知悉、获取信息的自由与权利,包括对所征集的个人信息及基于这些信息加工的征信产品享有知情权。3 算法对知情权的威胁一方面体现在算法推荐逻辑单一带来的“信息世界窄化”上;另一方面是个人信息在用户“不知晓”的状态下被采集和使用,还有“技术黑箱”的部分不可知。个体在接受算法的信息过滤机制的同时,也意味着在某种程度上同意“算法推送一个由算法逻辑为主导的不完整的世界”,而这个“算法逻辑”的加工和选择机制并不完全被普通新闻用户所熟知,算法在其中如何过滤和排序信息对绝大部分用户而言是一个“技术黑箱”,4这造成传播地位的严重不对等,普通用户甚至对“算法推荐”的存在也浑然不知。用户对算法和算法逻辑的不知情,影响他们对真实世界的认知与判断,进而影响了他们的社会公共参与。传统的非算法推荐逻辑下的拟态环境虽然也窄化了信息世界,其筛选机制融入了专业机构和把关人的社会公共价值考量,但是其过程是公开和可被审视的,而算法的过滤逻辑和价值导向并非如此。此外,技术和资本垄断也构成数字时代算法推荐对个体知情权的威胁,占据垄断地位的行业巨头变成了新闻信息流通道路上重要的“守门人”,其利益相关者的“有偿新闻”和“有偿不闻”也变得更加隐蔽,资本和技术对“热搜榜”“头条”竞价排名等的过度介入威胁了普通公众知悉事实真相的权利。

第四,平等侵犯与算法歧视。

平等的界定经过了从形式平等到实质平等的发展,实质平等考虑个体之间的差别,给予不同对待,以在事实上达到平等。而人工智能算法个性化的推荐逻辑,会产生针对特殊主体的个体性规则,这种规则会突破法的一般性,产生马太效应,造成实质的不平等。1 谷歌相册(Google Photos)将黑人分类为“大猩猩”的例子一度引起公众对算法歧视的讨伐。布鲁诺等学者将算法歧视分为预先存在于数据、算法设计参与者之中的偏见,由算法的分类、优化逻辑等引起的不公正,以及由于对数据权重设置不同引发的间接歧视行为三种。2歧视即区别对待,它意味着不平等和非正义。这也是算法推荐难以避免的一大难题,因为算法的一个重要运行逻辑是数据的“标签化”“类别化”,这是其进行后续量化分析与操作的重要基础,而个性化推荐就是对目标个体展开划分和进行区别化信息推送的过程。标签化与类别化也意味着“去个性化”,这种做法加深了“刻板印象”和社会偏见,容易对“类别”中的独立个体造成误判和伤害。而认知上的偏见会导致行动上的歧视。在算法歧视中,数据采集、数据解读的偏差,算法设计者的主观思维上的偏见等环节,都会引发最终执行结果上的歧视行为。算法歧视导致在地区发达程度不同及收入水平和性别种族不同的人群间信息资源的分配不均,进一步扩大“数字鸿沟”。这种歧视和偏见通过算法推荐再次被人们吸收,偏见被固化,形成“自我实现的歧视性反馈循环”。3除了信息资源的不公正分配,算法歧视还体现在“价格歧视”上,典型的如某网约车平台的“大数据杀熟”现象,在内容付费时代,很難保证这种价格歧视不会迁移至知识付费、新闻付费领域。

当然,偏见普遍存在于不同的文化中,算法作为人造物,不可避免地继承了这些偏见,而且变得更加隐蔽。随着算法推荐的扩散,其引发的风险也变得更加不确定和不可预计。因此,在数据采集、分析和算法设计过程中,减少偏见,加强监督和管理显得更加重要。不同成因的算法歧视的治理路径不同,研究者们普遍认为通过公开算法的运行机制与设计意图,接受公众的监督,能减少算法创设环节的人为偏见。此外,“机会平等原则”(Equality of Opportunity)和“人文主义精神”也被提议纳入算法系统的设计中。4

第五,被遗忘让渡与永久记录。

“被遗忘权是指信息主体对已被发布在网络上的,有关自身的不恰当的、过时的、继续保留会导致其社会评价降低的信息,要求信息控制者予以删除的权利。”5 大数据、传感器、物联网等技术的出现使得个人在互联网上所有的踪迹都变得可循,而云存储、扩容等技术使得这些数据的永久记录成为可能。数字化记忆变成网络信息时代的重要特征,个体和集体记忆的形态从生物记忆延伸到了数字空间。伴随着对互联网的使用,个体的身份信息、检索数据、浏览痕迹、购买行为等会长久甚至永久地存储在互联网数据库中。从个体在网络上留下浏览或者内容数据那一刻起,我们就逐渐丧失了对这些信息的掌控,对数据的控制与访问权则被让渡给了数据记录者和占有者,他们通常是占据垄断地位的科技公司、政府等机构。6

数字化记忆的可访问性、持久性、全面性以及由此所带来的永久“凝视”,使我们面临数字化在时间与空间上双维度的介入。7 经由一系列的数字行为轨迹的拼合,在多年之后仍然可以根据推测数据还原出用户的个人画像,人们可以想象,在网上不经意的行为会被长久地记忆,可能成为引发某些事件的导火索。如加拿大心理咨询师费尔德玛在一本杂志中提到自己在20世纪60年代曾服用过致幻剂,由此,他在进入美国边境时被扣留了4个小时。在社交、资讯、购物等平台,小到抱怨、负能量,大到激烈的辩论和意见、态度的发表,情绪可能是一时的,但记录是永久的,甚至在多年之后被当作“黑历史”再现,影响个体的生活。从这个角度来说,它似乎缩小了个体“改过自新”的空间。面对这种个人信息和行为数据在网络上长久留存可能带来不可控的预期损耗和风险,人们可能会在互联网上选择“噤若寒蝉”,导致所谓的寒蝉效应(Chilling Effect):人们为了避免不可预知的潜在风险,减少意见发表和对公共事务等的参与。

记忆伦理的核心问题是“谁在记忆”“记忆什么”“如何记忆”以及“如何表述记忆”。1 什么样的机构和组织可以去记忆,什么样的数据可以被纳入数据记忆这些都是需要进一步考察的问题。目前,这一领域的问题仍处在探讨阶段。2016年,中国颁布了《网络安全法》,正式确认个人对其网上个人信息的“删除权”,即“个人发现网络运营者违反法律、行政法规的规定或者双方的约定收集、使用其个人信息的,有权要求网络运营者删除其个人信息。”2 这种“删除权”并不完全等同于“被遗忘权”(Right to Be Forgotten),它更多是为了保障网络信息传播秩序的稳定,而且技术上的实现也有困难。美国加州2014年通过了“橡皮”法律,用户可以要求科技公司删除涉及个人隐私的信息。2012年,欧盟在《通用数据保护条例》草案中也提出了“被遗忘权”。这些法律和条例的制定为“被遗忘权”在中国的本土化提供了一些借鉴与参考。在中国语境下,当被遗忘权与公共利益冲突时,我们如何界定被遗忘权的边界,如何明晰被遗忘权与言论自由的权责关系,如何在公共领域的开放性和私人领域的不可侵犯性之间寻找平衡点,也同样是我们需要进一步探索的问题。

除此之外,算法压缩了偶然性,正如“我凭什么不想看新的东西”的逻辑所指涉的,3 算法推荐的逻辑是根据个体过去的行为轨迹预测其未来的行为倾向,从而投其所好,“投喂”符合其偏好的内容。但在现实生活中,人的行为逻辑是复杂的、多样化的,不是只有“过去+现在—未来”导向。个体的需求和成长具有发展性,行动逻辑还有目标导向性,即“未来—现在”导向。就像人的口味会改变一样,人的信息需求和生活目标也会改变,一味根据过去的行为逻辑和标签投其所好只会禁锢个体的视野,限制其发展的更多可能性。从这个角度来说,算法推荐还影响了个人成长和发展的空间。另外,简单粗暴的算法推荐对出版权、言论自由等权利也造成了不同程度的冲击。

2.行业层面:观念、主体性的变化与“算法囚徒”

算法推荐技术在新闻传播领域的运用对新闻生产和传播方式都产生了重要影响。算法的创设主体及其规则对专业新闻生产机构的主体性、权威性造成了冲击。平台拥有绝对优势量的活跃用户和优质内容分发渠道,为实现新闻内容更广泛的传播提供了必要条件,同时它们分散了主流媒体的受众,而拥有采编权的专业新闻机构和海量的UGC内容则成为算法创设主体进行内容分发的主要来源。新闻专业主义中的技能规范、组织伦理被非专业参与和技术改写,把关、分发权力的迁移,生产、营利模式的改变,价值理性的削弱,产生了新闻专业主义的“控制危机”。4

而与传统受过系统训练的专业新闻工作者把关不同,算法推荐机制以兴趣为导向的逻辑无法实现对主流价值观的引导,进而新闻业的环境监测、舆论监督、价值引领职能也受到削弱。新闻业的合法基石在于向公众提供可信赖的新闻信息服务。5新闻专业主义的核心理念是客观性,新闻从业者秉持客观、公正、中立的原则进行真实、准确的报道,捍卫公众权利,也以此为准则进行内容的审核和把关,以客观立场反映社情民意。这是算法推荐光靠技术逻辑难以实现的。算法技术简化了社会功能和意义丰富的新闻逻辑,并将其简单处理为“信息”供求问题,通过点击率、阅读量等一系列指标量化满足用户的喜好。这种去价值化、去意义化的做法将新闻简化为一种无差别的“信息商品”,6 变成为商业资本服务的工具,而非实现新闻理想、追求社会公平正义的途径。7 算法在本质上不是中立的,是构建和实施权力和知识的制度,其使用具有规范性含义。8 算法是由一系列代码与公式组成的指令,旨在解决具体问题,而问题的性质在被提出和界定之前就带有强烈的背景和意图,这也意味着算法推荐从诞生伊始就必然夹带着算法创设主体的意志,因而,算法的中立性是一个伪命题。

这些资本和商业意图在算法中的渗透,不仅改写了从选题到内容分发的各个新闻内容生产(如新闻语言萌化、泛娱乐化、兴趣导向挤压了严肃议题的空间)环节,以用户点击和广告售卖为效果导向也改写了新闻创作的观念,它将受众个体的数字劳动和内容创作者的创意工作都纳入其资本扩张和增值的过程中,加剧了对受众个体和内容生产者原有的规训及剥削。

具体来说,内容生产者方面,翟秀凤通过对今日头条、新浪微博、微信公众号等五家大型网络内容平台和相关内容从业者进行深度访谈发现,算法通过自动化指标、工具理性和惩罚性机制对内容生产者形成了规训,使平台目标内化为从业者的行为准则和价值追求。新闻生产活动由强调媒介精英主体性价值的活动变成经济驱动型活动。“我们不用直接告诉创作者应该怎么做,只要我们把算法设计好就可以了……他们自然就明白怎么做才能分到钱。”在“越被推送越赚钱,越赚钱系统就越愿意推你”的“调教”下,内容生产表现出“物化”劳动的情况,内容创作者在一篇篇“10万+”文章的驱动下成为平台资本增值过程中的被剥削对象,如同外卖平台的骑手遇到的“困在系统里”一样,内容生产者也遇到了这个算法困局。1

受众个体层面,在大数据采集中,受众的每一次浏览、点赞、分享等行为成为可以量化的、实现内容运营KPI的数字劳动。受众在使用内容商品的同时,其行为本身也成为数据商品被二次贩卖。从每千人成本(Cost Per Mille,缩写CPM)、每点击成本(Cost Per Click,缩写CPC)、每行动成本(Cost Per Action,缩写CPA),到日/月活跃用户(Daily/Monthly Active User)的演化,使得受众的注意力被贩卖的明码标价过程更加精细。正如安德烈耶维奇提出的“互动性压迫假说”(Interactive Repressive Hypothesis)所警示的,每当我们被告知互动性是表达自己、反抗控制、颠覆权力的一种方式时,我们就需要警惕权力的诡计:煽动我们提供关于自己的信息,参与我们的自我分类,从而完成控制的循环。2 要警惕数据交互过程中的规训与交换。

3.社会层面:公共性的消减

大众传播权源自公民对自身知情权、表达权与对公共事务监督权的讓渡。3 在中国,主渠道的媒体传播属于公权力的一部分;在西方国家,媒体也被称为“第四权力”。媒体有让公众了解事物全貌、引导社会舆论的责任。但是随着资本力量的流入,曾被哈贝马斯喻为民主基石与公共领域的大众传播的公共性有减弱之势。算法背后资本和技术开发主体的意志,代表的是少数股东的诉求,而非广大公众的利益,会过滤掉那些不利于算法开发者的信息。

由信息茧房引发的个体分散、知识沟扩大、群体极化、社会凝聚力降低的风险,由热度排行榜、内容运营KPI引发的议程设置导向偏差,由算法黑箱引发的偏见和歧视风险,由算法规训对内容生产者主体性的削弱,由兴趣导向培养的娱乐化、单向度个体等方面,消减了媒体空间的公共性。媒体作为社会公器的监督作用被减弱,传播环境中意见的多元空间被挤压,“澄清谬误、明辨是非”的思辨与批判机制也受到了冲击。数字空间的永久记忆造成的寒蝉效应降低了公共参与精神被培育的可能性,构建了沟通壁垒和偏见。数据标签体系的建立助长了刻板印象的产生,不利于整个社会民主和协商之风的形成。总体来说,由资本操控的算法信息采集和把关机制,编织了一个有利于资本的信息气候,破坏了舆论的公共空间。

三、算法推荐技术伦理失范的原因及对策探讨

算法推荐技术引发的一系列伦理问题,究其根本,一方面是由算法技术天然自带的特性造成的,另一方面是由“新闻逻辑”和“技术逻辑”之间的不适配导致的。技术逻辑是问题导向,算法推荐重在解决信息资源在传受双方间的最佳匹配问题,其核心是提高效率。而新闻逻辑着眼于社会公平问题,除了提供信息、引导舆论、教育大众外,还承担着重要的监测环境、舆论监督等功能。算法推崇“用户”思维,着眼于信息生产和分发的效率;新闻业推崇“公众”思维,着眼于社会公平正义、民生福祉。两者着眼点的不同导致在融合初期出现众多不适配现象。随着商业资本的介入,算法中还渗透了商业逻辑,对公共利益和个人的价值、权利造成忽视。此外,也存在管理、法律、监管等诸多外部因素。而受众层面,娱乐主义和商业主义的盛行形成了整体的信息偏好,这种意见气候助长了算法的单一价值取向。算法迎合受众的兴趣偏好,进一步推动了受众脱离公共空间。因此,笔者将分别从这技术与资本、法律与伦理、个人的媒介素养与数字素养三个方面分析算法推荐技术伦理失范的原因,探讨可能的解决路径。

1.技术与资本

垄断资本对工具理性的过度依赖以及算法的不透明性是引发算法推荐技术伦理失范的两个重要来源,偏见、歧视和规训也建立在此基础上。

对工具理性的过度依赖是由资本的逐利性导致的,在对算法的运用过程中,商业主题追求的是推送的精准度和用户黏度,而非人性需求和多元化。算法创设主体在设计算法规则时应当分配更多的权重在公共价值和人文关怀方面,增加对公平、正义、人性尊严的考量,从源头上减少算法剥削、霸权和滥用。必要时,行政、法律力量需要介入打破技术与资本的垄断,以达到制约和平衡算法技术的工具理性与价值理性之间关系的目的。

算法的不透明,部分是由技术垄断和商业机密导致的,部分是由对机器算法执行结果的不可理解导致的,即人类目前对这个技术的认识还存在未知的部分。前者需要建立合理的算法审查机制加以约束,以保证其设计与运行结果的合法性。而对机器不可知的部分需要我们在技术上进一步推进在计算机技术方面的研究,减少不可控制的风险。通过行业和行政的干预力量,落实“可理解的透明度”,1 公布算法黑箱中存在的技术和价值取向,接受公众的审视,是规范算法的重要途径。有研究者总结了研究算法的六种方法,认为结合使用两种或两种以上的方法有助于我们揭示算法的本质和工作原理,即:检查伪代码/源代码(Examining Pseudo-code/Source-code)、反身地生成代码(Re?exively Producing Code)、逆向工程(Reverse Engineering)、采访设计人员或对编码团队进行民族志研究(Interviewing Designers or Conducting an Ethnography of a Coding Team)、解开算法的全部社会—技术组合(Unpacking the Full Socio-technical Assemblage of Algorithms)和研究算法究竟是如何运作的(Examining How Algorithms Do Work in the World)。2

除此之外,技术本身的缺陷也是引发伦理困境的原因。机器算法作为“物”,没有作为人的高级情感,不能完全取代记者和编辑进行道德伦理判断、人文关怀和独立的价值识别。算法作为一种机器语言,也无法对非量化、不能被定义的内容做出识别。只有将意涵丰富的内容简化为一系列指标,将内容数据化、将“社会人”数据化,才能进入其判断体系。这个过程是简单粗暴的类别化过程和去“社会人”过程。它将“社会人”视作数据商品的提供者和消耗体,将“社会人”数据化、机器化,消解人作为人不能被算法系统所识别的特征。这是技术科学与社会人文之间的根本差异。正如哈贝马斯所说,科技进步导致人对精神价值的忽视,并将自己作为生产要素,沦为机器和金钱的附属品。在算法推荐中,我们也看到这种技术反客为主,人的主体性削弱、异化的趋势。3 也由此,我们重新突出人在技术环境中的主体性地位。

2.法律与伦理

目前,对人工智能、算法、数据采集等技术进行管理的机制与法律还不健全。在智能技术已经广泛应用到传播实践中的当下,规范与管理严重滞后于技术发展的步伐,传媒立法滞后,使算法推荐伦理失范现象和侵权的灰色产业有了可乘之机,也使得算法创设主体有了逃避责任、垄断的机会。在算法使用的管理方面,一方面,要明确责任主体,规范算法研发者、运营者和使用者各自的权利与义务关系;另一方面,面对算法引发的具体伦理和法律问题,要建立健全审查机制,建立包含新闻、法律和伦理相关专家的监察机构审核算法原理及决策过程,4 通过立法或行政干预鼓励优质主旋律内容的生产和传播。5

当前部分国家和地区已将人工智能立法提上日程。2018年5月生效的欧盟《一般性数据保护法案》(General Data Protection Regulation,缩写GDPR)给予用户申请基于算法得出结论的解释权。美国纽约州为了解决政务系统算法歧视问题于2017年12月通过了算法问责法案。这些案例都为中国在法律法规方面建立健全算法管理機制提供了借鉴意义。有学者针对个人信息权的保护提出“新数据权”权利束的概念,提倡通过立法保障由算法推荐技术丛引发的知情同意权、数据采集权、修改权、可携权、被遗忘权(删除权)、管理权、支配权、使用权、收益权等。1

此外,规范的行业伦理守则是行业健康发展不可或缺的条件。增加算法透明性和建立成熟的伦理守则有助于算法相关技术的健康发展。算法推荐技术在新闻传播领域的运用使得新闻伦理需要约束的范围扩展到相关的技术人员、算法工程师。总体来说,新闻专业主义的核心价值诉求依然能成为构建新的伦理规范的内核所在。此外,还要将人工智能伦理中的相关原则吸纳进对算法推荐技术的管理中。目前国内人工智能领域缺少统一的、公认的行业规范,虽然有少数几家公司在监管部门的督促下提出了一些可行性方案,但是整体来看,行业自律领域还处于缺位状态。2019年,欧盟委员会发布了人工智能伦理准则,列出了人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制7个确保人工智能足够安全可靠的关键条件。这7个关键条件,充分考虑了人的主体地位,尊重基本人权,虽然目前在实操层面可能存在一些困难,但也为我们结合国内实际情况制定规范的算法使用的伦理准则,以及行业和行政干预提供了参考。

此外,还有学者提出,面对伦理困境,相对于道德规范的建构,伦理原则的确立具有更高的学术价值和现实意义。不少研究集中在“社会责任原则”“真实原则”“客观原则”“公正原则”和“善良原则”的讨论上,也有学者提倡应该将“公平、准确、透明、可解释、可审计、责任等原则”囊括进算法责任伦理体系,认为算法的设计要体现社会公平,考虑社会的多元性和不同的价值观,考量利益相关者的权益,尽量避免因偏见的数据或偏见的算法设计导致对某一特定群体的歧视。2

3.个人的媒介素养与数字素养

媒介素养指受众对媒介信息的解读、批判和使用能力。在受众作为内容产消者(Prosumer)的当下,研究者指出,公众媒介素养应该包括媒介使用、信息生产、信息消费、社会交往、社会协作和社会参与等在内的素养。3 个性化推荐算法的逻辑起点是迎合受众的内容偏好,因此,个体对内容的喜爱偏好的低俗化、泛娱乐化也对算法单一价值取向负有不可推卸的责任。在数字化、智能化已经深度嵌入日常生活各个方面的当下,如果受众个体不具备基本的数字素养,将无法正确地运用以此技术为基础的产品和服务,容易落入被诈骗、被商业或其他力量操纵的陷阱,因此,数字素养被联合国认为是数字时代的基本人权。4 媒介素养和数字素养之所以和人权息息相关,是因为人们从媒体环境中获取和发布信息的过程已经成为个体参与公共生活、表达民主意见的重要途径。因此,培养受众个体对内容需求的多样性、理解能力和批判能力也是保障数字人权的重要层面,它能提升公众参与公共生活度,促进信息生态和意见环境的良性发展,也会对算法失范行为产生批判制约。

四、结语

总体来说,从数字人权的角度看,算法推荐技术中的两个环节——个人信息采集和逻辑过滤,分别导致个人信息的隐私权、知情权、被遗忘权受威胁;平等权、“自决权”受侵犯。在这种权利让渡与滥用中,造成了算法主体和使用者之间关系的不对等,增加了算法歧视、霸权、剥削的风险,也带来信息安全、信息操纵、信息茧房和极化等方面的担忧。从行业和社会层面看,算法推荐对内容工作者和受众整体主体性的削弱,减弱了社会公共性。我们探讨算法推荐技术带来的问题,并非要排斥算法,将其关回潘多拉魔盒中。比起算法本身,我们更加关注算法背后的评价体系、价值导向、设计原则,以此,试图为算法推荐技术在公共利益和商业利益、个人价值和技术价值之间的平衡寻找更多可能性,从数字人权的角度出发,探索算法推荐技术在新闻传播领域中规范性、合法性运用的路径。技术,是新闻权力生成的重要来源之一。不可否认,无论是在以报纸、广播、电视、杂志为主导的传统媒体时代,还是算法渗入全民生活的智能传播时代,“传播即权力”都需要通过有关传播的一系列技术来实现,技术一直形塑着传播内容与传播主体间的关系。但技术从来只是手段,人才是最终目的。在算法推荐技术的发展中,尊重人的主体地位,尊重人权价值,有助于我们加深对这一问题实然性的理解和应然性的建构。

A Legal Ethical Reflection on Personalized Algorithmic

Recommendation Technologies

KUANG Wenbo

Abstract: The emergence of algorithm recommendation technology makes the traditional gate-keeping power centered on editors partially migrate to the main body of algorithm creation. The algorithm-centered “technology cluster” is to a certain extent endowed with powers such as information collection, recording, filtering, classification, push, and storage. However, the motivation behind these powers and the results of their implementation are not all ethical. The issues of information cocoon, data misuse, and algorithmic black boxes pose different degrees of threats to the individuals right to privacy, right to information, right to equality, and right to be forgotten. The application of algorithm recommendation technology in the field of journalism has brought about the collision of technical logic and news logic, the export of commercial and capital values, and brought new dilemmas to digital human rights and public values.  Accordingly, the paper starts from the perspective of legal ethics, takes rights as the logical starting point, approaches from the prior values of freedom, justice, privacy, autonomy, and human dignity in digital human rights, and reinterprets the impacted ethical core in issues such as algorithmic black box and information cocoon. Furthermore, the paper also clarifies the threats to the rights of individuals, industries and society caused by algorithmic recommendation technology in the intelligent communication environment, reflects on the reasons of this status quo. Finally, the paper attempts to propose feasible solutions and suggestions, advocates the regulation of algorithm technology with human rights value, and attaches importance to human values and respects human subject position in the development of algorithmic recommendation technology.

Key words: digital human rights; legal ethics; algorithmic discrimination;privacy violation

(責任编辑:苏建军)

猜你喜欢
信息茧房
浅析基于算法的个性化信息推送服务
新闻客户端个性化推荐引发的“信息茧房”现象
后真相时代的信息传受方式与应对路径
微时代大学生“信息茧房”效应干预
“信息茧房”与高校思想政治教育应对途径思考
社交媒体时代下新闻产需变化刍议
“信息茧房”禁锢了我们的双眼
“信息茧房”禁锢了我们的双眼(观察家)