驯化“AI算法”:用户体验式治理的机制与策略*

2022-12-27 14:32北京市社会科学院社会学所赵璐
区域治理 2022年27期
关键词:普通用户算法用户

北京市社会科学院社会学所 赵璐

2022年1月《互联网信息服务算法推荐管理规定》正式出台,规范智能算法已成为推进现代化社会治理的重要手段,算法治理也成为了当代社会治理必须面对的重要问题。我们需要法律、政策监管、强调算法服务提供者的主体责任,也需要探索普通用户参与算法治理的机制与策略,尽管“多元协同”社会治理中的用户往往处于弱势的结构性位置,但是其本身的政策诉求、公共领域参与能动性以及与技术互动的实践性都是参与算法治理的动因,促进科技向善、防范技术风险,需要发挥用户的主体性力量。基于此本文从算法技术逻辑的监管限度、“人-机”界面技术互动优势、用户与平台组织间的权益博弈能力等方面出发,探索用户体验式算法治理的可能性。

一、打开“算法黑箱”思维局限与监管限度

随着数字化技术的发展与应用,算法日益成为数字社会的技术核心,甚至当前和将来社会都要面临算法社会转型的过程。这种调节社会及其内部关系的技术化的社会规则,可以控制和影响社会现实与社会秩序。目前,社会科学领域研究在认识论层面不仅把算法作为技术框架的一环,也将其视为具有政治性、经济性、社会性、文化性的实践过程。但往往过于看重强势权力经济利益主体的主导作用,算法成为科技公司的技术门槛和商业竞争利益的技术专利,将社会大众挡在门外,成为“技术黑箱”,逐渐走向神秘化甚至被妖魔化。因此,算法就成为了需要被干预进行技术调节的议题,将道德因素纳入进来,实现“技术道德化”,算法应该有正确的价值观呼吁,使得引导技术向善成为学界与业界大力探讨与践行的行动方案。“算法监管” 和“算法治理” 的研究在社会科学领域兴盛起来。

从目前我国的政策监管来看,我国对算法应用的监管立场基本采取包容审慎的态度,支持AI企业不断创新和发展,同时兼顾政府、科技企业以及社会公众的整体利益,不断在鼓励科技创新、追求科技向善、维护社会公共利益之间找平衡点。目前,围绕算法应用的社会风险的源头主要是“算法黑箱”(自动化决策的不透明、难解释性),并引发一系列公私权力失衡、社会歧视等问题。无论是政府监管政策的动向还是公众态度都在试图打开“算法黑箱”,希望能够通过建立算法所在技术系统运行过程及相关责任人的监管举措,追求算法透明度、解释性以及技术责任标准的细化,进行风险防,从而范形成有效的约束机制。

但是,以当前的算法应用业界实践来看,比如腾讯研究院在《2022可解释AI发展报告:打开黑箱的理念与实践》中显示:披露Al算法模型的源代码是无效的方式,不仅无助于对AI算法模型的理解,反倒可能威胁数据隐私、商业秘密以及技术安全,其次,算法的透明性和解释性不适宜所有应用场景和用户,比如,如果普通用户认为算法决策是不公平或错误的,需要向用户提供明白易懂的、非技术语言的解释,与专业的审查人员或法律调查人员需要的恰当信息存在很大不同。而且,针对不同场景应用的技术标准规范指南,也不具有现实意义,一方面存在现有技术能力限度,另一方面高昂的经济成本,会最终限制AI的社会发展和经济效益。

而且,目前的政府监管机制尚在发展阶段,对算法服务更多的是显性层面的“应然”式流程规范,比如《互联网信息服务算法推荐管理规定》中的“监督管理”,要想实现对算法服务推荐的者分级分类管理、备案系统填报信息需要留存时限,追责措施也需要完善。其次,国家进行技术治理仍然从行政发包制敦促技术服务主体履行法律责任和社会责任的逻辑出发,采取常规监管、运动式治理方式(约谈、专项行动、制裁等),虽然对技术的治理具有政治强制力,但国家权力与市场野性本身存在张力,由于政府监管部门制定的一系列政策制度过于宏观,且具有一定的宽泛性和模糊性,因此在技术化操作时,也给平台公司留下了规则运作的可操作性空间,对技术实践流程的动态实时治理有一定限制。所以,算法治理应该纳入多元协同的社会治理框架,充分发挥“全员”的社会力量。

二、用户驯化“算法”:技术运作机制与实践能动性

任何产品设计,设计师会将特定意义投射到正在开发的技术上,“配置”想象和理想化的用户,无论是传统的机器学习还是深度学习、强化学习,算法都要依赖于用户自身属性(用户画像)、界面互动中的行为反馈生成的训练数据,必须生成和聚合用户生成的数据,才能开始定义哪些信息应该包含在分析、设想、计划和执行数据转换的各个阶段;另一方面,在这个过程中,用户不是被动的观察者。已有研究表明,用户越来越认识到自己在塑造算法运作过程中所扮演的角色,并开始以政治、商业或游戏的方式策略性地干预算法实践对注意力的分配。简而言之,算法及其互动用户可以相互建构并相互协调,用户有一定反干预能力。所以,治理算法,治理的不是算法本身,是积极地干预算法实践过程产生的不良的社会性后果。在这过程中,即使是普通用户都拥有基本的理性意识与实践能力,所以必须再次审视用户作为行动者在当代媒体环境中的作用,思考面向数字化平台的内容治理,用户的能动属性是否可以促进实现从平台管理迈向“共生”治理的目标?

(一)“人-机”持续性互动影响算法实践逻辑

普通用户作为任何数字平台组织的产品应用者,都会进入人-机界面(APP)持续的互动当中,算法不仅确立了数字社会信息生产、消费、交易等规则,也在重组主体责任的分配。我们不可否认,数字平台组织(商业性质)承担着算法设计的主体责任,但是数字平台组织者也在设计、引导用户参与算法治理。

首先,平台组织方开展算法实践,是对信息和用户进行的识别、分类和推荐,算法连接着用户自身与内容的匹配,基于用户的兴趣偏好,经由界面互动的行动反馈,时刻影响着算法计算内容的匹配程度。但是对于大多数普通用户而言,往往缺乏关于算法运行机制的技术知识与平台内实际操控算法运行的权力,算法实践的过程对其是“技术黑箱”。但是普通用户和算法实践之间绝不是彼此孤立的存在,二者始终处于相互影响、相互发展的状态。算法实践塑造着普通用户所处的信息环境,影响着普通用户的态度和在线互动的情感体验。

其次,用户对算法的认知与情感体验会引导自身主动训练和调整算法,积极策划个人所将要触及的信息领域。用户也能成为影响平台算法实践的行动者,通过与平台算法实践的情境互动,调节自身对算法实践的信任程度,实施在某种程度上具有一定“规划”算法实践的策略和战术。换句话说,算法实践的技术特征(实时与社会的高度互动性)使得普通用户也可以参与进来。比如,用户可以利用平台方提供的第三方标记反馈机制积极干预算法实践的逻辑。第三方标记反馈机制允许人们针对AI系统提供使用上的反馈,常见的标记技术包括用户反馈渠道(“点击反馈”/“不喜欢”/“举报”等按钮),漏洞奖励机制等,类似于机器学习的强化学习算法,实时响应用户偏好与行为,这种治理反馈渠道能够方便用户针对AI系统提供评价,从而形成一种有效的外部反馈与监督。用户反馈机制的优势在于允许用户分享其经历与感知,让用户的意见被听到,被认可。如果用户认为自己的反馈被重视且采取了相应的实践行动,可以在AI和用户之间形成正向循环,长此以往,不仅可以增进用户对AI系统的信任,而且还可以对不良信息作出反馈,并以较低的成本参与到算法治理过程中来,不断纠偏算法实践的逻辑,实现人工智能技术更“智能”地辅助人类决策,提高经济社会效益。

(二)“用户-平台”组织的权益博弈倒逼AI算法进化

1.用户参与算法治理的公共利益需求与心理动因

用户参与算法治理具有潜在的社会心理机制。从人的行为层面上看,如果个体感知他人行为会产生不良后果,会存在“第三者效应”,比如媒体信息不符合社会期待和主观规范时,会倾向夸大其信息对他人、公众造成的影响,并产生与其认知相应的行动。从公众群体层面来看,公众会为负面信息事件积极寻找责任方,当公众意识到自身无法控制不良后果后,首先会将责任归咎于相关组织。如果算法在设计、应用场景及辅助决策后果方面对公众造成损失或者负面影响,可以借助平台的力量进行改善,甚至是用舆论的力量倒逼平台组织解决技术故障与利益纠纷。

2.善用用户申诉机制、积极参与人工审查

一般而言,对于影响用户重大权益的AI系统,提供者会给用户提供申诉的渠道,以便可以引入人类审查,保障用户的合法权益。从用户角度看,一方面可以用掌控数据反馈的行为对AI算法进行负面评价,另一方面也可以善用平台组织的申诉机制,比如“举报”功能。通过引入用户申诉和第三方审查机制,能够对AI系统及其开发者形成有效监督,也是实现AI负责任性的重要保障。比如,我国的《信息安全技术个人信息安全规范》《网络安全标准实践指南》等标准都对用户的投诉、质疑、反馈以及人工复核等机制作出了具体规定。《互联网信息服务算法推荐管理规定》第二十二条明确提出,算法推荐服务提供者应当设置便捷有效的用户申诉和公众投诉、举报入口,明确处理流程和反馈时限,及时受理、处理并反馈处理结果”。面对用户多元的权利诉求以及主动性控制信息流的策略与战术,平台组织内部并不是没有技术感知,甚至说算法实践在对信息流的控制过程中也在时刻避免利益矛盾冲突的升级,平台组织的的技术调试也在实时响应,具体体现在用户体验指标化实时监测、应对公众舆论场发酵的技术敏感性、算法模型/策略迭代升级等。

3.借助国家力量,“纠偏”算法“越轨”行为

在我国,无论是媒体组织还是数字平台组织,约束其行业技术风险,最强的代理机构都是政府。同样,我国的算法治理工作,也是在强调平台自我规范管理与政府规制的互动博弈当中发展前行。“政府监管-平台主体责任-公众表达”这种治理结构,存在一定的合理性与实践性,也使得公众认为国家力量始终对数字平台组织保持强大的控制力,并能够借助政府监管机制“纠偏”平台责任主体的“越轨”行为。在用户自身利益受损的情况下,会积极向“有关部门”反映,向官媒发声,主动寻求国家力量的庇护。比如,当用户举报视频非法违规时,如果他们并没有通过平台内部的反馈机制,而是直接向“有关部门”反映,这就形成了新的话语空间力量,也即用户借助政府监管部门之手来“整改”平台的算法实践。当用户实名举报“平台内容价值观有问题,对用户产生不良影响”时,平台就会接到中央网信办的通报。一旦这类用户举报事件频发,平台就有压力对内容生态进行整顿,加强算法审核系统在历史回溯、排查方面的力度,推动内部算法识别、内容分发和推荐系统的联动,从而加强对劣质内容的打压和过滤。算法实践有时会引发争议的负面影响,比如信息茧房、杀熟、歧视、劳工权益保障等,对比统统可以通过当前我国国家治理资源的存量结构,借助政府的监管举措、法律法规政策的出台,得到公共利益表达与抗争的机会。

三、提升用户算法素养的关键:体验式治理

算法治理离不开公私权力角力,也不能忽视用户主体性的力量,如果我们想了解算法的社会力量,最重要的就是要了解用户是如何与算法相遇并逐渐理解算法的,而这些经验反过来又会塑造用户对算法系统的期望,也有助于塑造算法本身。普通用户作为行为反馈循环中的重要一环,也在持续影响着个体与算法间互动的结果,影响着系统层面的设计变化甚至是平台组织制度的再生产。

总结而言,用户可以利用平台的可供性持续不断的丰富地算法想象,尽管平台建构的商业技术秩序具有权力不对等性,但是我们必须明白,算法实践的逻辑是“寄生”于我们每一名普通用户运用自身数据基础之上的,用户不仅仅是产品消费者,也是技术应用者,更是最直接“在场”治理算法的实践者。对于每一位生活在数字社会的个体,作为互联网生态治理多元力量的一份子,技术认知的理性化、算法素养的提升代表着“共生”生态治理良性发展的方向。但是,提高算法素养不仅要靠教育增加专业知识积累,更是要在持续性技术互动实践过程中,提供积极的、正向的、理性的行为反馈,不断拓宽参与算法治理的行动空间。

另一方面,公众是监督技术风险的主体性力量,借助自身组织化的行动能力,要善用与商业平台利益博弈的优势地位“用户至上”—当用户作为消费者时,往往不是被动意义上的技术客体。不仅算法系统运行机制需要迎合用户的喜好,而且算法系统也要迎合用户喜好的灵敏性,这是平台获取利益最关键的一环。用户正是在这个意义上,成为建构算法实践的隐形力量,不断重塑算法实践的意义体系与规则体系。

最后,数字平台治理并非简单的政府制度监管或者法律约束。真正实现数字平台治理的“共生”发展,处理好平台生态中共益伙伴(“生产-消费”)及相关利益群体之间的利益诉求平衡是第一要义,促使平台组织治理能力的跃升,重塑平台制度规范。所以,要发挥人民的力量,借助国家的监管强制力,时刻推动平台组织改进、优化算法,推动算法治理共识性规则的建立。

猜你喜欢
普通用户算法用户
哪种算法简便
基于小红书UGC模式的城市形象传播研究
Travellng thg World Full—time for Rree
即使是普通用户也需要备一张家庭影院入门攻略:影音调校工具篇1
进位加法的两种算法
根据问题 确定算法
关注用户
关注用户
关注用户
关注用户