互构视域下互联网算法安全风险的生成和治理研究

2023-05-30 07:59陶贤都赵彤
新闻论坛 2023年2期
关键词:安全风险算法

陶贤都 赵彤

【内容提要】算法自身所存在的缺陷以及算法滥用等问题影响了互联网信息传播秩序,对互联网信息安全以及网民正当权益的维护带来挑战。从技术——用户互构的视角出发,通过探究算法与用户的属性、主体、社会性、权力等四种形式的互构机制,发现在双方互构的过程中,用户思想机械化、算法黑箱等安全风险破坏了算法与用户互构的平衡状态。因此,互联网算法治理,需要从维护算法与用户互构平衡的治理角度出发,在技术控制权与个体能动性间寻求平衡状态。

【关键词】算法  安全风险  互构  用户属性

随着互联网信息服务算法运用领域不断拓宽、运用程度不断加深,其在信息精准传播和促进数字经济发展等诸多方面发挥着日益重要的作用。与此同时,算法带来的安全风险问题也逐渐引起了公众的警惕。对于算法的安全风险问题和治理,单纯从算法自身出发,难以找到有效的路径。实际上,互联网算法并非仅是技术问题,而是技术与人的互构问题。互构是双方互相建构、彼此协调的过程,是对参与互构主体间的关系的本质刻画,是各主体通过力量对比形塑各自的形态,并在各自形态塑造的基础上,形成一个稳定的机制或体制。[1]互构论是一种关系视角,为本文的研究提供了重要的视角和思路,本文从技术与用户互构的视角出发,阐释算法应用中生成的安全风险,并在此基础上提供算法治理的建议。

一、互联网算法与用户的互构机制

“技术是社会互动的媒介,技术通过互动的社会行动者改变行动者,也在行动者互动的过程中得到改变”。[2] 分析互联网算法应用中生成的安全风险问题,首先需要理清算法与用户之间的互构机制,才能更为清晰地认识互联网算法应用中所出现的安全风险。算法是包含一系列复杂的数学规则,能通过预先设定的步骤解决特定问题的计算机程序[3],由于算法与用户之间的互构关系,使得算法安全问题显得十分复杂。一方面,由于算法的基本流程为输入数据与指令、运算处理和结果输出,也就是说,算法技术要以数据的获取输入为基础,没有数据,也就没有算法,尽可能多的数据,可以帮助算法的结果尽可能准确,因此,互联网信息服务算法提供服务,需要以收集用户的个人数据作为前提和基础,并且获取到的数据越多,算法提供的服务也能越精准;另一方面,用户为了获得算法提供的内容推荐与信息服务,期望算法提供的内容与服务能更加贴合自身的兴趣点、精准满足自身的需求,就需要向算法平台提供个人的数据信息,让渡自身的部分隐私权,以帮助算法平台进行用户画像,并且提供的数据信息越多、越全面,算法平台的用户画像就能越精准、越完善,从而用户得到的算法服务质量就越高。按照互构论的观点,技术与其使用者都存在着某些维度上的刚性与弹性,互构体现在技术与技术应用主体在刚性层面的非冲突与弹性层面的相容。[4]具体到算法与用户的互构而言,算法与用户存在四方面的互构。

(一)属性的互构

在算法与用户互构的过程中,算法逐渐表现出“人性化”的属性特征,而用户呈现出“机械性”的属性趋势,算法与用户间出现属性上的互构形式。吕尚彬与黄荣认为,数据爆炸之下的人正在变成机器,掌握巨量数据的机器正在变成人[5],这一论断虽稍显激进,但却不无道理,在算法技术与用户的互构关系中同样有所体现:随着用户向算法平台提供的数据不断增多,他们会发现,算法越来越懂得用户的个性与兴趣点,提供的信息、做出的决策越来越符合用户自身的需求,即越来越“人性化”。而用户更加依赖算法,所接触的信息、所做出的行动不是依据自身的主观判断,而是依据算法技术,也即人们的行为更加“机械化”。从这个角度来讲,在算法技术广泛运用的当下,人与算法正在进行着属性上的互构,即人越来越像机器,而机器更有了人类的属性特征。

(二)主体的互构

算法与用户间存在着互为主体的关系。主体性来自于个体在与世界交互的过程中,在自我理性的作用下,能动地作用于客体。而在当前的智能传播时代,人的主体性地位受到了挑战,人不再是主体性的唯一个体,算法不再仅是客体,同时也具备了主体性。我们通常认为,是人在使用算法,利用算法帮助自身实现既定目标,因此用户是主体,算法是用户能动性发挥的客体;但如果站在算法的角度看问题,又会有不一样的结论:深度学习算法通过不断获取用户数据,使自身提供的信息与决策服务更加精准化、个性化,因此用户乐于接受算法提供的各项服务,将算法技术看作是自身的“合作伙伴”,依照算法的“要求”进行各项行动。这样来看,算法技术又成为了主体,而用户成为被算法“指挥”、依据算法的要求行动的客体,如此相互作用,形成了算法与用户主體上的互构过程。

(三)社会性的互构

在社会各领域,被广泛运用的算法能够帮助用户在网络世界中完成个体社会性的建构,加速地缘、业缘群体的形成,扩大社会网络的半径。[6]也就是说,算法通过分析用户的各种数据、历史行为等来帮助用户建构自身在网络中的社会关系,帮助用户在互联网环境中建立起人与人之间的联系,从而提升个体在网络世界中的社会融入感;与此同时,算法在社会生活的各个领域中得到了更加广泛的应用。算法与人不是平行线,而是相交线。算法不再是冰冷的技术,也不是所谓的客观中立的技术,而是通过与用户相交,具备了社会性特征。算法与用户的社会性互构,使得算法与社会勾连,从而为算法的安全带来风险隐患。

(四)权力的互构

在算法与用户互构的过程中,双方权力的互构是较为明显的,一方面,基于算法的运行逻辑,用户想要获得算法服务必须提供个人的隐私数据,以帮助算法完成较为精准的用户画像,因此,用户需要将自身的部分隐私权、决策权与信息支配权让渡给算法平台;另一方面,作为收集隐私数据的交换,算法技术需要交由用户自身的使用权,并且,为了使用户能够放心将隐私数据交由算法平台,平台还需要将一部分监督权交由用户,由用户监督算法的正常合理运用。

但是,在算法与用户互构过程中,算法面对的是分散个体的“刚性”,相较于有组织的机构或者群体,在面对算法技术时,个体的“刚性”将更难以坚持,换句话说,在算法与用户互构的过程中,算法技术几乎不需要迎合用户的要求去改变自身,相反,为了得到便利的算法服务,用户需要在一定程度上改变自身,让渡自身的部分隐私权和决策控制权,以迎合算法逻辑。“用户需要适配算法技术”本身不存在大的风险,但以目前互联网信息服务算法的发展情况来看,由于算法目前存在算法黑箱、算法歧视等问题,且算法运用过程中存在错用、滥用等不当现象,在用户适配算法技术的过程中,用户常常感到自身的隐私权遭到过度侵犯、算法提供的服务含有或显性或隐性的偏见歧视等,使得算法运用产生不可忽视的安全风险,算法与用户的互构呈现不平衡的状态,下文将具体探讨在算法与用户的互构过程中,算法生成的安全风险。

二、互构视域下互联网算法安全风险的生成

算法与用户的互构中隐藏着严重的安全风险问题。算法的本质在于人机交互决策,因此算法不同于纯粹的科学或工具。互联网信息服务算法并不是价值中立的,且人们在应用算法的过程中存在着不合理行为,这是算法安全风险生成的两个主要原因。

(一)算法滥用:用户思想的机械化

算法滥用的现象主要体现在两个方面,一则,一些资本及不良企业利用算法过度占有用户的隐私数据,利用个人隐私数据谋取利益,或者利用算法进行不良的市场竞争,排挤竞争对手,造成市场秩序紊乱;二则,部分用户出于“图方便”的惰性心理,过度依赖算法提供的决策与服务,以致技术理性取代人的理性,这对个人思考能力、决策能力、行动能力的提高都是极为不利的。

算法滥用可能造成严重的安全风险问题。购物交易平台滥用算法,很可能出现极严重的“大数据杀熟”现象,导致交易不公,侵犯买卖双方的正当权益,破坏正常的市场秩序;新闻推送平台滥用算法,一味根据用户的兴趣喜好推荐内容,很容易导致主流媒体的报道内容被埋没,主流意识形态的影响力、引导力、凝聚力下降,不利于形成良性的社会共识,不利于社会主义核心价值观的确立,同时,由于每个人都存在不同的价值取向与观念倾向,如果算法只推荐符合用户自身认知的内容,用户无法接触到与自身观点相左的内容,信息茧房困境凸显,用户自我封闭现象和信息窄化行为的发生,容易导致价值分化、群体极化,不利于社会的稳定和谐,此外,不良势力也可能利用算法进行信息操纵,导致公众舆论风险;信息决策平台滥用算法,技术理性跃于人的理性之上,做出的决策符合技术逻辑,却不一定符合人的价值逻辑、情感逻辑,如果完全由算法代替人来决策,这样的决策或许是理性的、科学的,但也是冰冷的、无情的,同时,如果过于依赖算法提供的决策服务,人的自主选择决策能力下降,不利于人的可持续发展。

算法滥用可能造成算法与用户在属性的互构过程中,人的过度“机械化”,也即用户过于依赖算法提供的信息与决策服务,从而丧失人的能动性,不依据自身的主观思考与判断能力,而是完全依靠算法提供的各项服务,这种缺乏自主判断而完全依赖技术的行为,不论是对用户个人的发展,还是对整个社会的进一步发展都存在不良影响。

(二)算法上瘾:用户行为的机械化

互联网空间包含着海量的内容,用户如何在其中找到感兴趣的内容,就是算法在发挥作用。算法通过搜集用户的信息,从而推送用户感兴趣的内容,使得用户沉溺于算法推送的各种信息。短视频平台是算法应用而导致用户上瘾的典型互联网平台。操作便捷、观看时间短、视频内容丰富多样等优势使得短视频本身便具有令人沉迷上瘾的可能,基于个性化内容定制的内容推荐算法更加剧了人们刷短视频上瘾沉迷的现象,人们会发现,越刷短视频,平台推荐的内容就越符合自身的兴趣点,越契合自身的观看喜好,就越无法停止继续刷视频,于是花费在短视频平台上的时间也就越长。尽管丰富多彩的短视频内容能帮助人们开拓视野、增长见识,但算法上瘾问题,不仅会令人们浪费大量的时间,在身体健康方面也会造成不良的影响。

如果说算法滥用问题会造成算法与用户在属性的互构过程中,人的思想“机械化”,那么算法上瘾问题则会更多地造成用户在行为上的“机械化”。很多时候,人们在刷短视频时会感到自身的行为被“操纵”,手指机械般地不停刷视频,空闲甚至忙碌的时候也会控制不住地打开短视频平台刷视频,这就是对算法提供的内容信息服务上瘾的表现,而这一现象可能造成用户个人极大的时间浪费问题,拉低用户的学习、工作效率。

(三)算法黑箱:破坏互构平衡状态

由于透明度低、公开化程度低、可解释性弱的技术问题,一般网民难以理解它算法的逻辑或其决策机制,从而形成算法黑箱问题。一方面,考虑到企业与算法平台需要保护自身的商业秘密与维护算法知识产权,出于保证自身合法权益不受侵犯的需要,算法的运算技术和原理难以完全公开,以防止算法技术被其他企业窃取,给企业的正当权益带来损害,因此算法不透明性、公开化程度低的问题难以调和;另一方面,大数据时代,为了提高算法的准确性,算法的复杂性往往会加强,对于算法如何真正运行,专家甚至无法完全理解,更遑论普通人,从这一点上看,算法技术可解释性弱的特点,使得算法公开的的难度进一步加深,算法黑箱问题难以得到解决。

算法黑箱造成了很大的安全风险问题。算法的运用领域之广,这也意味着算法黑箱所涉及的领域也越来越大,这首先极大地侵犯了我们的知情权——我们利用算法技术获取信息、利用算法为我们的衣食住行各个方面提供决策,而我们甚至对算法向我们提供服务的逻辑程序一无所知;其次,算法黑箱威胁着我们的隐私权,为了获取更高质量的服务,我们不断向算法提供个人的隐私数据、让渡个人的隐私权,但对于我们的隐私数据是否得到了合理、适当的运用,我们无法把握。因此,面对算法黑箱,我们在提供个人隐私数据时不仅难以作出合理判断,还很难有效行使反对权,甚至很难对侵犯个人隐私权的行为进行诉讼。

站到算法与用户互构关系的角度来看,算法黑箱问题造成了算法与用戶互构关系的严重不平衡,随着算法平台不断收集用户数据,算法技术对用户的个人情况愈发了解,能够精准把握用户的需求,甚至能进一步预测用户未来可能的兴趣与需要、为用户建构网络世界的社会关系,但由于算法技术的复杂性与低透明度,用户几乎无法掌握算法的运行情况,甚至可能对算法“一无所知”,这与算法了解用户程度不断加深的趋势截然相反,这种严重不平衡的互构状态,对用户来说极为不利。

(四)算法偏见与算法歧视:隐含着互构失衡因素

算法设计者在编写算法的过程中可能有意识或无意识地带入自身的偏见与歧视,有的算法存在恶意或非恶意的身份偏见问题。总之,由于算法的代码、程序是由人编写设计的,而人一定会带有某种价值取向,因此,算法工程师在进行算法编写工作中哪怕尽可能保持中立、不带有个人的情感,算法偏见与算法歧视问题也是难以避免的,区别仅在于是否是有意识的偏见与歧视以及偏见与歧视的程度和造成的影响。

算法中的偏见与歧视较之日常生活中的偏见与歧视而言更不容易被察觉,也更不容易得到矫正,但它可能固化甚至放大人类的偏见与歧视。若放任算法的偏见与歧视问题继续发展,算法为某些特定群体提供的服务质量偏低,我们的社会可能会产生一批智能时代的数字弱势群体,由于算法技术的广泛运用,不同性别、种族、信仰、身份的群体间获取的信息内容、得到的信息服务的质量差距将逐渐拉大,不同群体间在经济、政治、文化教育、日常生活等各个方面的差距持续扩大,这不利于国家、社会的和谐稳定发展。

算法偏见与算法歧视同样会造成算法与用户互构关系的不平衡状态,且这种不平衡更不易察觉、更难以解决。算法偏见与算法歧视较之社会生活中的歧视与偏见隐藏更深,甚至被区别对待的用户自身都难以察觉,但算法技术普遍运用的现实使用户难以避免使用算法,也就使得算法偏见与算法歧视问题更加显得无处不在、避无可避。

总之,技术控制权的不断强化和个体能动性的降低使得算法与用户之间互构的平衡状态被打破,造成了极大的安全风险,亟需从维护互构平衡的角度寻求治理之策。

三、互构视域下算法安全风险的治理

算法与用户互构的过程中,算法几乎不需要按照用户的要求来改变自身,但由于算法的逻辑,也即算法必须要获取到用户的个人数据才能够运行并提供服务,同时由于算法涉及的领域非常广泛,几乎涵盖社会生活中的方方面面,影响重大,因此,算法技术必须要受到来自社会不同群体的长时段凝视,接受社会各界的监督,从而使得用户能够放心将数据交由算法平台,保证算法技术的健康发展。对于互联网算法的安全风险问题,需要构建多方主体共同参与、协同治理的格局体系,以维护算法与用户尽可能平衡的互构状态。

(一)外界对互构平衡状态的建构

互联网算法技术涉及社会生活的方方面面,应用领域广泛、影响重大,因此算法治理问题应实现社会各界的广泛参与,维护算法与用户平衡的互构状态,同样需要得到外界的支持帮助,具体而言,需要国家和主流媒体的参与建构。

从国家角度上讲,国家应建立完善算法相关法律制度,推动建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局,为促进算法健康、有序、繁荣发展提供有效可靠的法律政策制度保障。在这一点上,我国已初有成效。2021年,国家互联网信息办公室等九部委制定了《关于加强互联网信息服务算法综合治理的指导意见》;2021年12月31日,国家互联网信息办公室、工业和信息化部、公安部、国家市场监管总局联合发布《互联网信息服务算法推荐管理规定》,聚焦算法推荐服务乱象问题,构建算法安全治理体系,该管理规定自2022年3月1日起施行;《管理规定》发布后,社会各界广泛关注、积极落实,为及时总结梳理《管理规定》中的重点难点问题,更好推进我国算法综合治理工作,中国信息通信研究院互联网法律研究中心于2022年1月20日在京召开算法治理研讨会,会议邀请了主管部门领导及高等院校、研究机构知名学者,探讨算法治理重要议题,并发布了《算法治理蓝皮书》,展望算法综合治理工作未来方向。

可以看出,国家层面已深刻认识到算法安全风险问题急需解决的现状,并意识到了在加强算法治理监管与鼓励算法创新发展之间找寻平衡。在加强算法治理监管方面,国家政府应根据不同的算法使用场景,将算法治理监管的主体划分明晰,并坚持具体问题具体分析,有助于灵活应对复杂的算法问责问题;为了更好地促进算法提升创新能力,国家和政府层面可制定算法创新奖励政策,并注意算法知识产权的保护问题,通过制定相关法律等手段为算法知识产权提供有效保障,这不仅可以在很大程度上为算法创新免除成果被盗取抄袭的后顾之忧,对破解算法黑箱困境、鼓励企业和算法平台进行算法公开也有帮助。此外,国家还可向西方国家学习借鉴先进的算法监管治理经验,从他国算法治理的成功经验中汲取灵感启发,并结合本国的算法问题实际,在算法安全风险治理方面进行更多有益探索。

从主流媒体的角度上讲,主流媒体应发挥好价值引领的作用,我国对智能媒体的算法规制一般由主流媒体与政府部门共同主导,且往往是主流媒体发声监督在前,政府部门规制在后,因此,主流媒体应做好对算法技术安全风险的监督工作,积极参与算法技术的协同治理。此外,针对基于个性化内容定制的内容推荐类算法广泛运用,造成主流媒体影响力、凝聚力、引导力下降的问题,主流媒体应加快将自身建设成新型主流媒体,运用先进的技术手段,以优质的内容、新颖丰富的表现形式赢得大众的关注与喜爱,在算法内容推荐的大环境下加强自身的竞争优势,以保障主流意识形态的广泛传播。

(二)互联网算法方的自我规制

技术控制权的不断强化是打破算法与用户互构平衡状态的主要原因之一,因此算法方应主动自觉承担社会责任,通过自我规制以缓解算法技术滥用等所引发的安全风险问题。

从企业及算法平台的角度上讲,首先,企业及平台应注重保障用户的知情权,在保护自身商业秘密、保障算法知识产权的前提下尽可能向用户解释算法是如何运作的,这里,将算法的源代碼或算法架构公开是没有太多意义的,企业及平台更多地应是用尽可能清晰简单的方式令用户知晓他们所提供的数据是被怎样处理的以及公开算法提供信息决策服务时做出决策的方式。同时,算法公开应当区分不同算法拥有者,对不同主体施加不同责任,应当根据不同情形采取不同范围不同程度的公开;其次,企业及平台应赋予用户是否使用算法以及使用何种程度的算法的权利,例如,在新闻推送平台,用户使用之初平台可明确告知需获取用户的新闻接触喜好数据才可提供个性化新闻推送服务,由用户决定是否需要内容推荐类算法服务,此外,企业及平台在追求经济利益的同时应主动承担社会责任,将算法的运用控制在一个合理的范围内,主动规避为过度追求经济效益而滥用算法,从而损害用户合法权益、破坏正常市场竞争秩序的行为;最后,企业及平台需自觉遵守正在逐步完善的法律政策与行业规范,自觉维护国家网络主权、安全与发展。同时,企业应以“技术之力”治理算法技术风险。

从算法设计者角度上讲,算法工程师在编写设计算法的过程中应尽可能不掺杂个人的情感倾向,尽可能避免算法带入个人的偏见与歧视色彩,同时,算法设计者应有意识将主流意识形态和关于尊严、自由等普世的价值伦理观念嵌入算法设计开发应用的各个环节,努力加强自身的道德责任建设,提高个人的社会责任感与伦理道德素养。

(三)互联网用户方的自我提升

面对相对强势的算法技术,互联网用户很容易陷入被动的弱势地位,个体能动性的降低是算法与用户互构平衡状态被打破的另一主要原因。因此,用户方应积极寻求应对策略,通过自我提升以维护自身在算法技术应用中的合理权益与主动地位。

从用户角度上讲,关键在于用户应注重对自身算法使用能力素养的提升与培养。算法平台用户应以实现自我的全面发展为目标进行媒介接触与信息获取,在应用内容推荐类算法时有意识接触多样的信息知识,尤其是有意识获取主流意识形态方面的内容,努力突破信息茧房,开拓自身的眼界,培养从多角度、多方面理解问题的能力;在使用算法时注重自身隐私数据的保护,积极维护自身的知情权、隐私权,对在生活中遇到的侵犯自身正当权益、过度使用自身隐私数据的不良算法积极监督举报;不过度依赖算法决策,保持清醒头脑,警惕算法使用中的惰性心理,维护自己的自主选择决策权,合理利用算法,努力令算法成为帮助自身提高生活质量的有益工具,而不能让自己被算法支配、让算法理性取代人的理性。总之,在大数据时代,个体应学会更好地利用算法,让算法成为生活中的有益助手,同时承担起监督算法、促进算法健康繁荣发展的责任。

此外,在用户方实现自我提升的过程中,需要培养个体重视自身能动性与主动地位的意识,而教育可以发挥重要作用。教育可以帮助个体在面对算法技术时更注重自身能动性的发挥,从而以更积极主动的姿态应用算法技术,而不是反被算法所控制。转变应用算法技术时的观念与方式,将有助于用户在与算法的互构关系中占据更积极的位置,从而减少甚至避免在互构过程中安全风险问题的生成。

四、结语

本研究以互构论的视角,分析探究了算法与用户的互构过程机制,也即算法需要收集获取到用户的个人数据才能运行,而用戶要得到算法提供的服务,就必须要向算法平台提供个人数据,让渡部分自身的隐私权。由于在算法与用户互构的过程中,用户的“刚性”在算法技术面前很难坚持,即算法技术几乎不需根据用户的要求改变自身,而用户需要适配算法技术的逻辑,同时,就算法技术目前的发展状况来看,算法技术存在算法黑箱、价值非中立等问题,且人在算法应用中存在滥用算法、过度依赖算法、对算法提供的内容推荐服务沉迷上瘾等现象,因此,算法与用户的互构平衡状态被打破,算法技术面临严重的安全风险问题。针对算法生成的安全风险,本研究从外界、算法、用户三方的角度出发,提出了关于突破算法风险困境的治理建议,认为针对算法安全风险问题,需要构建多方主体共同参与、协同治理的格局体系。目前,我国对算法的治理已起步并取得了初步成效,但目前的成果大多还没有落到实处,还没有在实践中取得良好的成绩,因此,关于算法的监管治理工作,仍任重而道远,需要更多、更深入地研究与探索。

【本文系湖南省社科联课题“多元主体协同的中国互联网内容分类治理机制研究”(编号:XSP19YBZ169)和长沙市自然科学基金项目“互联网信息内容安全风险生成及生态治理机制构建研究”(项目编号:kq2202181)阶段性成果】

参考文献:

[1]杨智雄. 从“互动”到“互构”: 当前中国地方治理的路径转移[J].重庆工商大学学报,2014(5) : 99.

[2]张燕、邱泽奇.技术与组织关系的三个视角[J].社会学研究,2009(2):200-215.

[3]邓建国.机器人新闻:原理、风险和影响[J].新闻记者,2016(09):10-17.

[4]邱泽奇.技术与组织的互构—以信息技术在制造企业的应用为例[J]社会学研究,2005(2):32-54.

[5]吕尚彬,黄荣.中国传播技术创新研究——以技术进化机制为视角探究2017年-2018年创新特点[J].当代传播,2018(06):24-30.

[6]喻国明,张琳宜.元宇宙视域下的未来传播:算法的内嵌与形塑[J].现代出版,2022(02):12-18.

作者简介:陶贤都,湖南大学新闻与传播学院副教授,博士;赵彤,湖南大学新闻与传播学院硕士研究生

编辑:白  洁

猜你喜欢
安全风险算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
算法初步两点追踪
基于增强随机搜索的OECI-ELM算法
探析防范高校游泳教学过程中的安全风险对策
变电站倒闸操作的安全风险与防范措施探讨
智慧校园安全管理研究
电力系统调度控制中存在的安全风险及应对措施
会计电算化系统的安全风险及防范