算法推荐可能引致的公共风险及综合治理路径

2022-12-07 21:06夏梦颖
天府新论 2022年2期
关键词:舆情舆论算法

夏梦颖

有学者提出,算法权力“是一种内化的、泛在的权力关系,普遍存在于个人生活和社会运作的方方面面,表现为对公众和社会组织的操纵和引导”(1)张爱军、李圆:《人工智能时代的算法权力:逻辑、风险及规制》,《河海大学学报》2019年第6期。。数字平台通过技术优势、海量用户和强大的社会连接能力,实现了社会信息的大规模协同化分享,建构起强大的社会化传播网络,继而成为社会连接和资讯传播的枢纽。(2)张志安、谭晓倩:《互联网平台公共性的构成维度及现实挑战》,《新闻与写作》2020年第5期。因此,算法本质上是一种权力,能够影响乃至左右公众的意见、看法。算法权力的不当使用将有可能引发网络舆情风险,因此规范算法推荐使用,是营造清朗的网络舆情生态治理环境的重要内容。

一、算法推荐可能引致公共风险

算法推荐影响信息生产和传播机制。一方面,算法推荐会加剧圈层化、部落化传播环境的形成,在认知协调和群体极化机制的作用下,增加达成社会共识的难度;另一方面,算法推荐提升信息传播的精准性和适配性,增加舆情主体的构成宽度,使得舆情的影响更加广泛,可能造成更大的公共危害。

(一)算法推荐形成意见孤岛

算法推荐正加速形成意见孤岛。一方面,算法推荐可以提高用户获取信息内容的效率,满足用户个性化信息服务需求;另一方面,信息传播适配度会加快同质化网络社群形成速度,圈层化传播越来越普遍。凯斯·桑斯坦认为,圈内协商是产生群体极化的重要机制之一,算法把同质化信息持续推送给圈层内成员,固化圈层舆论。从本质上说,算法推荐是再中心化传播,具有相同价值观、兴趣爱好的网民被算法连结成一个个孤立的网络群体,使能被他们接受和喜欢的信息在群体里反复传播,加固他们的共同“意识”。网络群体所喜欢和认可的观念并非都具有公共性,算法提高了边缘群体制造话题的能力,“即使是少数人意见、被忽视的意见,在智能传播环境中仍然能成为舆论生成和传播的依据”(3)林凌:《智能网络舆论传播机制及引导策略》,《当代传播》2019年第6期。。同时,由于算法对人们屏蔽了其不愿意接受的观点和信息,使得不同网络群体之间的交流更加缺乏。如此一来,基于价值观和兴趣爱好差异形成的网络群体进一步固化,形成意见孤岛。

智能传播时代“血缘、族缘和业缘”文化圈子和趣缘文化圈子之间的公共性落差被大幅度缩小,公共性话题也能在公共属性不强的文化圈子中扩散。(4)林凌:《智能技术对舆论的再塑造》,《青年记者》2020年第7期。伴随公共性话题下移,任何话题都能借助算法渠道找到拥护者,并以线上线下互动方式对抗舆论、引导意见。因此,算法舆论极化越来越普遍且具有危害性。

(二)算法更容易扩散危害性信息

算法基于用户偏好而推送信息。一方面,算法通过精准、适配性推荐为感兴趣的公众提供相关信息;另一方面,圈层化网络群体突破传统地域、熟人社会的人际关系限制,形成新的社会形态。智能技术将通过“亲而信”纽带联系的舆论主体转变为通过“利相关”纽带联系的舆论主体,提升智能网络舆论主体的构成宽度。(5)林凌:《智能网络舆论传播机制及引导策略》,《当代传播》2019年第6期。算法所建构的“利相关”网络群体既是信息推送对象,又是意见生成主体和传播主体,危害性信息极易通过这种“传受同体”的群体广泛扩散。一是网络群体成员作为信息推送对象和意见主体,源源不断地接收相同信息,群体内部通过相互交流将信息纳入群体价值结构框架里,并趋向固化;二是“利相关”网络群体本质上是以利益作为连结中枢而存在的集团,基于利益的算法推荐从底层加强群体成员的交流和沟通,促使其成为更加紧密的意见共同体。当意见和利益互为表里时,这个群体便内生出抵御异质意见的能力和机制,逐渐形成为利益而存在和抗争的网络圈层。如此一来,当算法为获取流量而将危害性信息推送给特定网民后,网民在利益的驱动下偏听偏信,极有可能把危害信息转化为共同意见和行动。

算法扩散的危害信息类型中颇为典型的是网络民粹主义言论。在算法的主导下,用户个人兴趣和需求对公共性产生全面的压制和覆盖,以致各种低俗信息、非主流信息充斥网络,即使像民生问题、司法问题等严肃议题也因用户做出民粹主义解读而被包裹成民粹主义狂欢。(6)穆莅晔:《算法舆论的公共性》,《当代传播》2021年第4期。网络舆情治理过程是“公权力结构与民众(网民)互动的一个过程”(7)舒刚:《基于政治安全的网络舆情治理创新研究》,武汉大学出版社,2019年,第199页。,政府与网民通过协商、互动,增进网民对公共政策的理解,提升网民对政府的信任感,同时提高政府网络舆情治理的有效性。网络民粹言论将会增加政府网络舆情治理的难度。一方面,以二元群体对立为鲜明特征的网络民粹言论可能加剧网民对政府的不信任感,甚至损害政府的公共形象与公信力,增加政府网络舆情治理的难度。网络舆论的民粹化导致网络公共事件指向的问题被放大,政府对算法诱发的层出不尽的网络舆情疲于应对,深陷舆情治理的旋涡之中,担负高昂的治理成本,甚至有可能对网络舆情事件反应过度,影响政策制定。另一方面,政府作为舆情治理主体具有独特性,在社会转型期,政府既是舆情治理主体,又是公共舆论关注和批评的对象,极易受到网民的质疑。在算法推荐形成固化思维模式的网络群体中,政府的舆情回应、信息公开等舆情治理行为不仅无法有效引导网络舆论,赢得网民的理解和认同,反而容易激化网民非理性情绪,加剧政府与公众的对立,甚至引发网络公共危机事件。

(三)算法权力操控网络舆情

福柯提出,权力的运作来自规训技术,微观权力的行使已经扩展到日常生活的各个领域。(8)福柯:《福柯说权力与话语》,陈怡含译,华中科技大学出版社,2019年,第253页。知识被权力建构,而知识并非像我们所想的那样是完全客观中立的产物,恰恰相反,它也是被建构的结果。你所学习的知识,也带有一定的倾向性,是一定立场、观念的表达,在不同的意识形态中,知识的面目也是不同的。(9)福柯:《福柯说权力与话语》,陈怡含译,华中科技大学出版社,2019年,第253页。智能技术赋予权力复合体更加先进的统治方式,传播技术越复杂,就越有能力和效率过滤掉那些对抗权力复合体的不良信息,从而巩固自身的权力。(10)刘易斯·芒福德:《机器神话》 (下),宋俊岭译,上海三联书店,2017年,第189页。而算法控制人具有隐秘性。设计算法模型时,技术公司在数据选取、甄别阶段就嵌入技术公司的主观价值;在算法运行阶段,数字平台通过动态调适算法,向用户自动推荐个性化的偏向性信息,通过寻找合适的情绪诱因,潜移默化地影响用户的价值观。对用户来说,无论是不透明的算法技术黑箱还是基于算法模型进行偏向性信息分发,他们往往都难以察觉,也无法认识到这是技术对人的规训。从这个角度看,用户并不能真正基于个人意志获取信息,信息的分发由掌控技术的平台意志决定。以计算宣传为例,计算宣传被视为“以达到其创造者的特定目标而故意歪曲符号、诉诸情感和偏见、绕过理性思维的传播,一种运用算法技术手段进行创造或传播的宣传”(11)Gillian Bolsover, Philip Howard, “Computational Propaganda and Political Big Data: Moving Toward a More Critical Research Agenda,” Big Data, Vol.5,No.4,2017,pp.273-276.。

二、算法风险治理机制失灵

算法推荐对网络信息传播环境带来巨大的影响,反思算法造成网络危机风险的根源,是基于信息需求端的法律制度缺陷、算法技术伦理审查机制不健全以及算法技术产生后的观念悖离等因素综合作用的结果。

(一)基于信息需求端的法律制度缺陷

长期以来,为了规范信息社会中滥用用户信息的行为,法律重点关注和规制个人信息收集、处理和运用行为,很少研究用户接受信息的质量及需求关系。换言之,法律重视信息供给端研究,不重视信息需求端研究,致使算法技术任意推荐无效公共信息、无用公共信息和有害公共信息。当前,我们缺乏从用户接收信息质量角度进行规制的法律资源供给。

首先,算法依托平台进行信息分发,而平台防范算法推荐无效、无用甚至有害的公共信息的法律责任并不明晰。2021年12月31日,国家网信办等部门发布《互联网信息服务算法推荐管理规定》,规定算法推荐服务提供者加强用户模型和用户标签管理,不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息内容。这标志着法律进一步压实平台主体责任,明确禁止平台为追求新闻热度滥用算法设置用户标签、放任违法和不良信息的传播、污染网络信息环境。然而,有关平台对生成虚假流量数据、制造虚假舆论热点的违法行为进行技术审查的法律边界仍不明晰,其法律义务亟待进一步明确。

其次,在平台信息内容人工审核制度上,法律法规对平台信息内容审查的界定较为宽泛。在实际信息认定过程中,主要由内容审查员对信息进行把关,而不同平台公司的内容审查员,甚至同一公司不同组的内容审查员在审核环节都存在差异性的判断,对相关信息审核标准的模糊给内容审核员留下了较大的自由裁量空间,可能产生放任的传播后果,进而无法及时阻断用户接收有害信息。

最后,为提升用户接收信息的质量,满足用户接收正能量信息的需求,我国《关于加强互联网信息服务算法综合治理的指导意见》《网络信息内容生态治理规定》《网络短视频平台管理规范》《微博客信息服务管理规定》均对平台明确提出坚持主流价值导向、优先推荐正能量内容的要求。然而,平台算法对传播正能量这一目标缺乏精细化的制度设计,平台对主流价值内容进行算法推荐的标准也难以掌握。尤其是在重大突发公共事件中,平台缺乏推送正能量消息的法律义务。

(二)算法技术伦理审查机制不健全

算法技术是中立的,但是技术为人所用,技术使用的目的是有价值导向的。长期以来,对算法技术使用缺少严格的伦理审查程序,无论是平台的自我审查还是政府、行业组织和公益组织的第三方审查都严重缺失,使得算法技术任由资本和权力使用。虽然近年来我国也十分重视算法伦理建设,2017年国务院发布的《新一代人工智能发展规划》,2021年国家网信办印发的《关于加强互联网信息服务算法综合治理的指导意见》,都要求“企业应建立算法安全责任制度和科技伦理审查制度”,同时《互联网信息服务算法推荐管理规定》明确算法推荐服务提供者应加强用户模型和用户标签管理,不得设置歧视性或者偏见性用户标签,表明我国法律法规确立了平台算法推荐中坚持保护人的尊严的底线原则。然而,较之于美国的《国家人工智能研究与发展战略计划》《算法问责法案》、欧盟的《人工智能白皮书》《通用数据保护条例》、加拿大的《自动化决策指令》等域外算法立法和伦理规范,我国的算法技术伦理审查体系仍然缺乏成熟、精细化的制度设计。具体表现为:法律制度、行业自律公约以及技术指南均缺乏系统、明确的推荐算法从模型设计、开发到运行阶段的技术伦理嵌入规范与标准;缺乏算法审计的机构和法律标准、强度、范围以及要求;平台企业内部的管理制度缺乏与法律的衔接,企业内部不同部门之间缺乏畅通的算法沟通以及影响评估机制,企业内部难以形成协同共治机制,算法工程师难以承担算法伦理方面的法律责任。

(三)算法技术中的观念失灵

人永远是信息使用的主宰者。技术和观念相互嵌套而共同进化,缺少观念支撑的技术和缺少技术的观念,都难以发展演化。自算法技术出现后,用户享受到传统媒介环境无法提供的信息。但是,随着算法技术的广泛使用和进化,技术已经反噬人作为信息主宰者的观念,人变成信息的附庸。作为主体的人并没有意识到人和算法技术主客关系的变化,依然使用传统观念应对算法技术,造成一系列观念悖离。

首先,政府的网络舆情治理过度依赖数据思维。政府适应算法社会发展的需要,适时培养、提升数据思维能力十分必要。然而,“我们也需要意识到,数据化、计算化思维并不能解释、解决一切问题。如果我们将一切都落实为数据,都用计算来解决,那么世界会变得平面、单调。”(12)彭兰:《如何实现“与算法共存”——算法社会中的算法素养及其两大面向》,《探索与争鸣》2021年第3期。网络舆情治理的目标是洞悉舆论背后的人心公道。舆论治理者的责任是,既要看到舆论表面的荒谬、偏激、情绪化,也要看到舆论背后的人心公道和社会正能量。而所谓的舆情化解和舆论引导,则应该充分利用这种正能量、公道、人心所向而因势利导,做出相应的化解和处理,这才是解决问题的关键。(13)喻国明:《网络舆情治理的基本逻辑与规制构建》,《探索与争鸣》2016年第10期。算法只是以对用户行为数据的无限接近为基础进行信息推送,并非用户真实的需求反映。由于算法与用户之间的互动是通过中介数据进行的,所以算法得到的反馈并非完全为用户是否得到满足的真实反映,而可能只是用户在内容界面的行为信息,也就是说,用户行为数据经过语义描述所表达的意义并不一定符合用户内心真正想要表达的含义。(14)全燕、张入迁:《关键词、内容生成与算法重组的传播格局》,《苏州大学学报》2021年第2期。如果政府治理网络舆情时过度依赖算法的工具理性,仅依靠数据思维,依据算法舆论表面呈现的客观信息进行治理,忽视其背后的主观感受,将无法洞悉舆论背后的公民诉求和价值观,无法挖掘民意背后的社会问题。也就是说,算法舆论可能并非网络用户内心真正想要表达的观点,无法真实反映公众的意见,政府以数据思维形成的认知无法反映主体的自觉性,进而难以达成争取人心、有效实现网络舆情治理的目标。

其次,网络用户亟待通过制度机制的保障,增强对用户的赋权和提高防范算法风险的能力,促进其观念更新从意识层面转向现实层面。为避免算法技术发展之下人成为算法推荐信息的附庸,用户观念的更新十分重要。然而,观念的更新并不是一句空洞的口号,需要制度机制帮助用户培养人工智能环境下的算法素养以及相关技能。当前,算法透明度实现的机制不完善,无法保障用户的知情权和选择权。此外,对平台算法进行风险评估的法律标准、算法分类分级制度的具体实施规则,包括具体类别、等级以及是否适用多层次、差异化的监管措施等制度尚未明确,可能导致公众在算法技术的使用过程中逐渐丧失主体性,亦无力对抗算法生成的公共风险。

三、构建算法综合治理机制

面对平台算法带来的新风险,构建算法综合治理机制,通过法律上知情同意原则从信息供给端向接收端延伸、健全算法技术的伦理审查机制、完善信息化社会观念迭代机制,防范资本和少数利益集团利用算法影响和控制公众,引发网络公共危机事件,从而营造清朗的网络舆情生态治理环境。

(一)法律上知情同意原则从信息供给端向接收端延伸

首先,为防范虚假舆论热点导致舆论复杂化甚至舆论动荡,扰乱舆情信息传播环境,应当明确平台的法律义务,防范用户关注度、内容点击率、转发评论量等数据造假,防范制造虚假舆论热点的行为。例如,进一步明确平台的提醒义务,在特定情形下,平台应当明示用户所接收的信息内容。有学者建议,“如果某些信息内容中含有偏见、歧视、极端内容并经网络平台清除、编辑后向用户呈现,也应逐条对用户进行明确告知,如通过设置‘本条内容经编辑后呈现’标签对用户进行提示”(15)侯东德、张丽萍:《算法推荐意识形态风险的法律防范》,《重庆社会科学》2021年第8期。。其次,为保障用户对平台信息处理行为的充分“知情”和明确“同意”,应当建设完善的平台信息内容审核制度,防止违法违规信息的传播,同时避免平台对用户的过度审查,侵犯网民表达权、参与权、监督权等权利。在现有法律、行政法规、部门规章的基础上,尽量明确平台内容审查的法律标准,推动行业自律规范的出台,提高信息内容审核标准的可操作性。优化信息审查流程设计,对用户的人格权、名誉权等私权利构成侵害的信息内容,加强通知—删除规则的设计,细化通知—移除的具体流程、处理权限、行为判断标准,进一步明确平台内部信息内容审核责任,推进平台内部内容治理机制的精细化。最后,应当通过立法形式,在法律法规坚持算法舆论导向原则性要求的基础上,优化平台算法传播正能量的制度设计,明确平台正能量算法推荐的权重配比,“技术上,考虑给予优质内容生产者所发布的文章和视频更高的推荐权重”(16)匡文波、陈小龙:《新闻推荐算法:问题及优化策略》,《新闻与写作》2018年第4期。,增强算法推荐的主流价值色彩。在重大突发公共事件中,强化平台在内容、版面设置上进行信息披露的法律义务,适当增设网络平台利用算法传播安全提示以及向网民推送涉及热点议题的最新官方消息等正能量消息的法律义务,从信息接收端提升用户对正向信息内容的“知情”。

(二)健全算法技术的伦理审查机制

明确算法设计者、控制者关于算法伦理的法律责任。为提升政府引导舆情、凝聚共识的能力,增强主流价值导向对算法模型的驾驭,在算法设计阶段应当嵌入伦理要求,明确算法程序中普遍应当遵守的媒介伦理标准。第一,应当明确算法设计者的数据清洁责任,将违背道德和法律的原始物料排除在算法模型之外,提升数据的准确性、多样性和完整性,防止弱势群体数据被边缘化,构建无偏见数据集。第二,通过规定强制性的算法审计制度规范算法设计者执行算法伦理的要求,算法审计制度应当明确算法审计的主体、启动条件和认定标准,注重保障弱势群体的利益。第三,对违背公序良俗的算法模型设计者,应当建立责任追究制度。增强对推荐算法全过程的动态审查,明确算法工程师等算法控制者在算法运行阶段及时撤回、校正带有偏见、歧视性算法模型的法律义务,以规避算法偏见的风险。第四,制定精细化的法律规范,在考虑技术实践和研发成本的基础上,合理设定平台的法律义务,明确平台算法伦理审查的范围、技术标准以及程序环节,强制下架不符合法律规范以及伦理道德的算法。

(三)建立信息化社会观念迭代机制

算法技术霸权加深了网络用户个体的弱势地位,为确保用户的主体性,提高用户的“反规训”能力,亟待建立用户赋权和防范算法生成公共风险的观念迭代机制。

首先,信息化社会观念迭代应当真正“赋权”用户,保障用户的知情权和选择权。为确保算法的透明度,健全算法的过滤机制,使用户获得异质性算法渠道,有效规避算法产生的信息茧房风险,我国《互联网信息服务算法推荐管理规定》对算法推荐服务提供者排序、选择等规则的透明度和可解释性以及对算法推荐服务者告知用户其提供算法推荐服务的情况等都做出明确规定,要求算法推荐服务者履行告知义务。域外亦加强对算法透明度的法治保障,以明确算法的权力边界。2021年由美国参议员爱德华·马基和众议员多丽丝·松井提议的《算法正义与在线平台透明度法案》,当中提出一系列具体措施,包括“用户能够理解在线平台如何调节信息内容,使用算法放大或推荐内容,用户可以访问透明度报告,平台则应当通过明显、可理解的方式向用户披露信息,包括平台算法运用过程中如何使用用户个人信息,算法处理过程中对某些个人信息进行优先排序的方法,算法测试的准确性、公平性等”(17)参见“HR3611 - Algorithmic Justice and Online Platform Transparency Act”,2021-05-28, https://www.congress.gov/bill/117th-congress/house-bill/3611/text,访问日期:2022-02-07。。这为我国加快完善法律法规、健全算法透明机制提供了有益的参考。一方面,算法透明不仅要求算法推荐服务者对用户进行告知,而且要求告知的方式应当建立在用户可理解、解释及时的基础之上;另一方面,为保障用户的算法知情权,尊重和提升用户的自主性,在实践中平台应当提升算法透明度的可操作性,比如出台透明度报告帮助用户了解算法、采取措施告知用户对某些个人信息进行优先排序的方法,“平台需要优先显示赞助商的信息时,应主动公开标注广告,避免误导用户的认知”(18)郭小平、秦艺轩:《解构智能传播的数据神话:算法偏见的成因与风险治理路径》,《现代传播》2019年第9期。。此外,实现算法透明最大的障碍是企业的商业秘密,对于无法完全向用户公开的算法,应当引入外部监管,至少应当保证算法推荐的标准向法律规定的监管机构做到公开透明。同时为保障用户的选择权,我国《互联网信息服务算法推荐管理规定》明确算法推荐服务提供者应当向用户提供便捷的关闭算法推荐服务的选项,赋予用户拒绝算法推荐的权利。

其次,通过加强平台算法信息安全风险管理责任体系建设,建立用户对抗算法风险的机制,增强用户对算法风险的防范意识和能力。明确平台进行算法风险评估的法律标准,对评估过程中应当优先考虑的要素进行排序,“风险评估的判定要素取决于受到法律保护的权益的重要性。包括但不限于:用户的生命权、健康权、人格权和隐私权、名誉权、财产权等受到潜在侵害的程度;算法使用特定数据的敏感性(如儿童数据,敏感个人信息);对个人或群体的潜在危害程度(不能以资产规模作为衡量标准);受影响的个人数量(用户规模)和潜在可能受到损害的用户总数;以及对整个社会公共利益的损害等”(19)张凌寒:《算法评估制度如何在平台问责中发挥作用》,《上海政法学院学报》2021年第3期。。在关涉公共利益的重点领域,平台对算法系统的评估应当采取更为严格的方式。进一步完善平台对算法的管理措施,要求平台设计常态化的风险技术监测、缓解措施,增强对可能导致舆情风险的算法的管理能力,对高风险类算法适用更严格的风险管理要求,加强算法的备案、安全性审查工作。

最后,从认知维度,政府舆情治理观念的迭代需要政府避免治理网络舆情时对算法工具理性的过度依赖,认识到算法在呈现公众差异化诉求和批判性意见方面的有限性,同时提升批判性思维,警惕、鉴别、解码算法舆论,一方面阻断虚假信息的传播,另一方面积极引导舆论达成共识,透过舆情信息内容的表面深入了解公众诉求,防止在利用算法技术治理舆情信息的过程中被算法控制,从而真正实现算法工具理性与价值理性的协调与统一。

猜你喜欢
舆情舆论算法
Travellng thg World Full—time for Rree
阿桑奇突然被捕引爆舆论
进位加法的两种算法
数字舆情
数字舆情
消费舆情
突发事件的舆论引导
一种改进的整周模糊度去相关算法
一种基于L-M算法的RANSAC图像拼接算法
谁能引领现代舆论场?