网络信息内容治理的平台责任配置研究

2023-06-26 10:08唐要家唐春晖
财经问题研究 2023年6期

唐要家 唐春晖

[摘 要:数字内容产业的供求机制容易导致非法有害内容泛滥,从而带来严重的负外部性。由于数字内容平台处于守门人地位,因而需要强化以平台主体责任为核心的治理体制。平台责任配置的重点是激励平台履行合理注意义务,以最低的社会成本治理非法有害内容。平台责任配置应遵循法治原则、促进创新原则、有效激励原则、比例原则和过失责任原则,并建立多元主体合作治理体制。平台主体责任体制的基础是建立非法有害内容分类分级细则和分类配置数字内容平台主体责任。为此,应从以下方面完善数字内容平台主体责任体制:建立平台主体责任履行激励机制,完善非法有害内容违法犯罪的处罚措施,确保平台内容治理行为纳入法治化轨道,强化平台内容治理的透明度和问责机制,创新平台人工智能应用治理手段,提升平台内容治理的技术赋能。

关键词:网络信息内容治理;平台责任配置;负外部性;数字内容平台;合理注意义务

中图分类号:F062.9文献标识码:A文章编号:1000?176X(2023)06?0059?14 ]

一、问题的提出

网络信息内容安全是国家网络空间安全的重要组成部分,强化网络信息内容治理是数字经济治理的重大课题。网络信息内容生产具有低成本和零边际成本复制、生产者与消费者合一等特点,网络信息内容消费则具有网络化和便捷性等特点,这使其容易成为生产和传播淫秽色情信息、恐暴内容、极端思想、谣言传言、盗版侵权和虚假信息等非法有害内容的温床。根据《2022年全国网民网络安全感满意度调查统计报告》,2020—2022年,在网民对网络违法犯罪行为的关注度中,其对传播谣言、诽谤和暴力等违法有害信息的关注度一直位居第二位;尽管近年来国家加大网络内容治理,使违法有害信息的传播状况得到明显改善,但2022年网民违法有害信息遇见率仍高达54.69%。由于网络信息内容传播的速度快和范围广,大量非法有害内容的出现会造成严重的社会危害。因此,迫切需要加强网络非法有害内容治理。2021年,中共中央办公厅、国务院办公厅印发《关于加强网络文明建设的意见》,包括加强网络空间行为规范和加强网络空间生态治理等八个部分。因此,强化网络信息内容治理是维护国家网络安全的重要内容。同时,网络信息内容治理有助于促进数字文化产业的发展,更好地贯彻《数字中国建设整体布局规划》提出的“大力发展网络文化,加强优质网络文化产品供给,引导各类平台和广大网民创作生产积极健康、向上向善的网络文化产品。”

网络信息内容治理重在构建科学的平台主体责任。近年来,以抖音、快手、B站、小红书、今日头条和微信等为代表的数字内容平台成为百姓文化消费和人际沟通的主要渠道。数字内容平台是网络信息内容传播扩散的中介,其在很大程度上掌控着数字经济社会信息内容的传播。目前,数字内容平台日益成为影响人们沟通交流、文化传播、思想观念和伦理道德的重要力量。相对于政府,数字内容平台在治理非法有害内容方面具有明显的信息优势和技术优势,但由于平台以私人经济利益最大化为目标,其并没有充分实施社会公共利益最大化的非法有害内容治理激励,消极治理往往是一种常态。因此,强化平台主体责任是实现网络信息内容有效治理的重要基础,也是网络信息内容事前治理体制构建的核心。但是,由于数字内容产业具有独特的运行规律且处在快速的技术创新和商业模式创新中,如何科学配置平台主体责任是世界各国尚未很好解决的制度设计难题。如何科学设计平台治理非法有害内容的主体责任不仅关乎网络信息内容治理效能,也关乎平台经济的创新发展。

以Caillaud和Jullien[1]、Rochet和 Tirole[2]与Armstrong[3]为代表的学者对数字平台的早期研究重点关注双边市场的交叉网络效应以及不平衡价格结构,他们认为,维护有效竞争的市场是确保双边平台经营行为不损害社会福利的重要條件。近年来,数字平台治理成为平台经济学研究的重要课题,很多研究都指出,平台是重要的私人规制者,但由于平台的治理机制设计往往基于私人利益目标,并不能保证平台用户利益和社会公共利益。因此,平台治理的核心是如何激励平台营造安全、信任的在线交易环境,并增进消费者福利和社会总福利[4-5]。

数字内容平台责任配置是平台经济学重要的前沿问题,是平台治理理论的前沿热点问题。Buiten等[6]指出,由于外部性和不对称信息,托管服务平台会采取次优的内容治理。为此,平台责任配置应采用“好撒玛利亚人”条款和确保平台履行注意义务的透明度,并将内容治理责任在所有相关方之间合理分配。Price[7]从媒介法的角度分析指出,数字内容平台不仅仅是托管服务提供者,其实际上利用架构和算法构建了一种社会性群体互动的空间,内容带来的风险将具有非常严重的社会危害性。因此,网络信息内容治理应嵌入到平台责任体制中,并重点强化数字内容平台的风险评估和风险管理责任,以营造安全的网络空间。Hua和Spier[8]指出,平台责任体制会激励平台进行非法有害内容治理,有效降低非法有害内容带来的社会成本。Jimenez?Duran[9]通过实验方法和经济模型推导发现,在平台内容审查外部性较小的情况下,赋予平台内容审查责任会实现平台利润与社会福利的统一。

与上述学者对平台责任体制持积极态度不同,Hogan Lovells[10]重点分析了严格责任的弊端,它指出,过于严格的平台责任会使平台成为社会话语的审查者,损害内容多样性,并对小平台产生不利影响。Hornik和Llera[11]指出,让平台承担全部责任的严格责任体制会限制公民表达自由,平台完全免责则会给用户和社会带来严重损害,因而需要科学设计平台责任。刘权[12]指出,不适当地强调平台主体责任会导致平台运营成本过高和过度行使内容管理权而损害公共利益,并且容易使政府逃脱应负的监管责任。Jeon等[13]发现,强平台责任会导致平台提高向商家征收的佣金,并不利于创新和市场竞争。Lefouili和Madio[14]从经济学的角度审视了欧盟《数字服务法》确定的平台责任体制,他们指出,过于严格的平台责任会对平台商业模式、技术创新和市场竞争产生明显不利的影响。Madio和Quinn[15]分析广告支持社交媒体平台内容审核激励发现,平台可能操纵内容审核以获取商业利益,并会对平台用户造成伤害。

由于平台责任配置具有一定的政策风险,因而需要科学设计。De Chiara等[16]针对内容侵权中托管服务平台责任问题分析指出,仅规定托管服务平台责任无法有效治理侵权,有效的版权内容治理责任体制应分别明确权利人和平台应承担的责任,采取双轨制责任体制。Jain等[17]对内容审查权赋予不同主体的有效性进行分析发现,相对于将内容审查权赋予内容生产者,将内容审查权赋予内容平台能更有效地治理有害内容。Liu等[18]对社交媒体平台内容审核激励问题研究发现,平台会将内容审核作为实现用户增长的重要策略工具,并且平台内容审核的激励受到商业模式(以注册费为基础还是以广告费为基础)的影响,需要基于平台商业模式进行设计。

总体来说,现有关于数字内容平台治理责任的理论研究在肯定平台治理责任积极意义的同时,也指出其可能带来的风险和负面影响,因而需要科学设计和谨慎实施平台责任,但对于如何合理配置平台责任并确保其有效实施,现有理论研究相对不足,尚未得出有政策指导性的结论。本文重点研究数字内容平台治理责任配置问题,通过对数字内容平台的供求分析解释非法有害内容形成机制及其负外部性损害,采用法经济学侵权责任理论分析最优平台责任配置,最后基于国际经验和中国实践系统设计平台责任配置及其实施机制。

二、非法有害内容的生产传播机制及其负外部性损害

(一)非法有害内容的生产传播机制

以网络新闻、网络视频、网络游戏和网络直播等为代表的数字内容产业是数字文化产业的主体,近年来一直保持快速增长,是数字产业化的重要行业,同时数字内容平台也在商业活动中大量生产和推送关于商品或服务的信息内容,如在线广告、商品搜索结果展示和算法推送等。数字内容产业和网络信息内容快速发展的重要推动因素是数字内容平台带来的内容产品生产和消费方式的巨大变革。数字内容产业是以大型数字平台为中介的生态系统,数字内容平台处于突出的守门人地位,内容生产商或内容提供商只有接入平台并借助平台中介才能实现内容传播,用户只有接入平台才能浏览信息内容,并且平台借助算法推荐系统决定了哪些内容被优先或重点推荐,从而决定了内容的传播范围和用户的内容选择。因此,作为守门人的数字内容平台在很大程度上决定了信息内容的生产和传播,并塑造了用户的网络信息空间及互动方式。

数字内容平台是典型的多边市场商业模式,是不同主体实现相互作用的重要中介[19]。数字内容平台通常涉及三边用户:首先,内容提供商,其提供的内容既包括第三方机构生产的内容,也包括网络直播、短视频行业中用户生产的内容。其次,广告需求商,其在在线广告市场购买平台在线广告服务,通过平台向目标用户提供精准的个性化广告。最后,受众,平台通过提供数字内容来吸引受众的注意力。从盈利模式来看,数字内容平台主要采取“广告支持的平台”商业模式。为了实现网络效应,平台往往对受众免费或低收费,通过做大用户基础和数据流量来提高数字广告的商业价值,然后通过向广告商收费或向商家收取佣金等方式来获得利润。受众是最有价值的资产,一个平台吸引的受众数量越多,则创造的广告收入越高[20]。因此,数字内容产业本质上是“注意力经济”,即通过播放吸引用户注意力的内容来获得高用户流量,并通过高广告费收入实现高盈利。为了实现吸引用户注意力的目标,数字内容平台可能生产和传播吸引用户眼球效应的信息内容以吸引流量,并通过广告费、注册费和佣金等方式实现流量变现。因此,作为网络信息内容守门人的平台有动力通过影响数字内容供给及呈现架构实现商业利益最大化。

数字内容产业独特的供给和需求自强化机制容易导致非法有害内容泛滥。从供给側来说,以网络直播、短视频和流媒体为代表的数字内容产业发展大幅度降低了市场准入门槛,使全民成为创意内容生产者,同时深度合成技术的发展也使得数字内容生产方式发生了重大变化,这些因素为非法有害内容的生产提供了土壤,并且在直播带货和用户打赏等盈利模式下,内容生产者有很强的通过非法有害内容来吸引流量进而牟取高收益的激励,并由此催生了恶意炒作和恶意刷单等网络黑灰产。同时,数字内容平台追求的目标是利润最大化,而不是公共利益最大化。数字内容平台的收益与平台内容的用户流量直接挂钩,因而数字内容平台之间的竞争实际是用户注意力的竞争,一个平台越能吸引用户,则拥有越高的用户流量,即用户点击量或浏览量越高,其通过广告费、注册费和佣金等方式获取的利润回报就越高。由于很多非法有害内容迎合了用户的独特偏好,更能吸引用户眼球,其对吸引用户注意力和增加平台流量具有重要贡献,因而数字内容平台有可能对非法有害内容采取纵容态度。从需求侧来说,数字内容消费与其他产品消费的一个非常大的区别是,其具有明显的“信息瀑布效应”,即一个内容阅读或浏览的人越多,就会吸引更多的人来关注这个话题或内容。特别是在数字内容消费由算法推送主导的情况下,由于算法主要依据用户偏好数据进行推送,用户选择偏差的数据会通过算法推送被放大,从而进一步强化非法有害内容的传播。正如Sunstein[21]指出,数字媒介内容消费中消费者存在明显的“回音室效应”,即消费者更偏好与其价值判断或观点相近的内容,而基于算法定向推送的数字内容传播模式会进一步强化消费者对极端内容的偏爱。

(二)非法有害内容的负外部性损害

非法有害内容的生产和传播本质上是负外部性问题,根源是私人利益与公共利益存在冲突。非法有害内容生产者和传播者的内容生产和传播行为会给其他主体和社会带来严重损害,即带来较高的社会负外部性成本,但其并不为此承担成本,反而借此获取了高流量及高利润,此时边际社会成本明显高于边际私人成本,即数字内容平台生产者和传播者在牟取个人利益的同时却将成本转嫁给社会。由于数字内容平台传播非法有害内容给其他主体和社会造成的巨大成本并不由其自身承担,其生产者和传播者有非常强的激励向社会过度供应非法有害内容,造成非法有害内容泛滥,恶化数字内容产业生态,并带来严重的社会危害。

数字内容产业具有显著的爆炸性增长和短期迅速大范围传播的特征,数字内容平台传播的非法有害内容往往会在短期内迅速传播并造成非常大的社会危害。数字内容平台生产和传播的是精神文化产品,非法有害内容不仅污染网络空间环境,也会给个人和社会造成严重不良影响,带来巨大的社会成本。首先,损害个人身心健康,网络霸凌、暴力、自残和自杀等内容会对人的身心健康构成威胁,特别是对儿童身心健康的危害更为严重。其次,拉低社会道德水准,功利主义、金钱至上和炫富等内容会产生不良的社会风气,对社会伦理道德构成严重威胁,对社会有序运行和建设更加文明社会带来阻碍。再次,阻碍数字经济创新发展,大量盗版侵权内容会对数字版权创新构成损害,严重打击原创性版权作品持有人的创新激励,大量低质量内容占据网络空间主导地位以及算法推荐的强化会导致劣币驱逐良币,大量高质量内容被挤出网络空间,不利于高质量作品的生产和传播。严重威胁社会稳定,群体歧视、民族仇恨、极端主义、恐怖主义和邪教等内容成为影响社会公共安全的重要因素。最后,严重威胁国家政治安全,渗透和颠覆等内容成为国际政治斗争的新手段。

数字内容平台是数字内容生产和传播的中介,特别是大型数字内容平台在很大程度上决定了内容生产者能否接入平台并获得传播机会,以及决定数字内容的传播范围和时间。因此,数字内容平台是数字内容生产和传播的总协调者,是重要的治理主体。但是,负外部性导致数字内容平台缺乏实施社会最优的内容治理激励,必要的政府监管就具有了合理性。据此,非法有害内容治理重点是基于数字内容独特的生产和传播机制,强化数字内容平台的主体责任,通过有效的治理政策实现负外部性内部化,即平台在传播数字内容获得高收益的同时必须承担相应的治理责任和治理成本,其不能通过增加社会成本和损害公共利益来实现私人利益最大化。为此,需要重构以数字内容平台责任为核心的网络信息内容治理机制,通过平台责任配置来改变非法有害内容生产和传播主体的行为激励,构建清朗的网络空间和健康的平台生态,促进数字内容创新并维护社会公共价值,切实保护网络信息内容安全。

三、网络信息内容治理中平台责任配置的基本原则

(一)平台责任配置的法经济学基础

数字内容平台是非法有害内容的重要传播媒介,非法有害内容治理的重点是如何合理确定平台应该承担的内容治理责任,实现损害成本外部性的内部化,激励平台主动履行合理注意义务,积极过滤和删除非法有害内容。从最优责任体制设计来说,如果数字内容平台对非法有害内容完全免责,即不承担任何责任,则私人激励会导致非法有害内容过度泛滥,给数字内容创新者和社会公众带来严重的损害,不利于数字内容创新和安全健康内容空间的形成;如果平台承担严格的完全责任,则平台将面临较高违法风险和较高治理成本,造成寒蝉效应。平台可能会改变商业模式,并由于治理成本上升而提高收费水平,为规避风险,平台也可能会过度过滤并删除信息内容,从而损害公民自由表达权,其甚至会放弃引入某些新业务和新模式,从而不利于数字经济创新发展。因此,需要构建最优的平台责任体制。

平台责任配置应有助于以最低的社会成本实现对非法有害内容的治理,不应采取不计成本、不计代价完全消除非法有害内容的治理方式。根据法经济学理论,主体责任体制设计的根本目标是以最有效率的方式实现对非法有害内容的防范和控制。Calabresi[22]指出,侵权责任设计应使包括预防成本、损害成本和行政成本在内的总社会成本最小化。考特和尤伦[23]指出,侵权责任的基本原则是使包含预防损害成本和损害成本在内的社会总成本最小化。责任配置效率原则的重要体现是履行合理注意义务成本更低的一方应承担更大的责任。为此,平台责任体制需要明确哪一方能以最低成本来履行合理注意义务。由于数字内容平台是非法有害内容生产和传播不可或缺的中介,并且其具有相对的信息优势和明显的生态治理权,因而数字内容平台应在非法有害内容治理中承担重要的主体责任,这符合效率原则,即赋予平台更多的责任会大幅降低治理非法有害内容的社会总成本。

根据法经济学责任配置理论,平台责任配置必须考虑平台中介治理非法有害内容的技术或能力约束,以及履行治理责任带来的社会成本,从而寻求基于效率的最优责任配置。通常,当数字内容平台具有有效的技术手段并且治理成本较低时,平台应该承担更大的责任来过滤或删除非法有害内容。当数字内容平台治理非法有害内容面临较大的技术或能力约束并且具有较高的治理成本时,对平台提出的治理责任要求则要相应降低。

假设社会总成本为[SC],内容治理水平为[x],单位治理成本为[c],损害为L,损害出现的概率为[p(x)],其取决于内容治理水平[x],则社会总成本为:[SC=cx+p(x)L]。预防损害成本[cx]随内容治理水平的上升而线性增加,损害成本[p(x)L]随内容治理水平[x]的上升而下降。根据社会总成本最小化原则,对上述社会总成本公式求最优内容治理水平[x]的一阶导数可得:[c=-p(x*)L]。这一结果显示,社会最优的责任配置应是使内容治理的边际社会成本等于边际社会收益,[x*]是社会最优的内容治理水平,也是法律意义上的“合理注意”标准。显然,在损害L给定的情况下,如果单位治理成本下降,则非法有害内容损害发生的概率也应下降,即在单位治理成本下降的情况下,数字内容平台应提高内容治理水平来降低损害发生的概率。根据汉德公式,违反合理注意义务的公式为[pL>B],其中,[B]为履行合理注意义务的成本。如果预期损害大于履行合理注意义务的成本,并且当事企业没有采取治理措施,则其就需要承担相应的过失责任。上述分析说明,数字内容平台治理主体责任配置不应是一刀切政策,而应根据内容治理技术发展和平台治理能力变化进行动态调整和个案设计,从而实现动态的社会最优内容治理。

平台责任体制实际是外部性内部化的一种机制,在责任体制成本—收益约束下,相关主体的理性决策会促使其主动采取社会合意的注意义务,以免承担相应的过失责任。平台责任配置应为相关主体提供最佳的实施合意行为的激励,具体来说:首先,平台责任配置应激励平台以有效率的方式来履行合理注意义务,如数字内容平台的决策通常遵循边际收益等于边际成本原则,通过责任分配的外部性内部化会促进平台投入资源来履行合理注意义务。其次,平台责任配置必须考虑内容治理的社会成本和社会收益,基于社会成本与社会收益权衡来寻求合理的适度内容治理[24]。最后,由于平台内容治理的比较优势,平台责任配置不應是一种行政性的指挥命令,而应是平台拥有较大自主权下的主动合规,是将平台作为重要内容治理主体并以过程为导向的责任履行,是“政府+平台”的治理新模式。

(二)平台责任配置应遵循的基本原则

第一,法治原则。网络信息内容治理要坚持法治原则,制定完备的法律,并依法治理。一方面,政府监管机构要依法监管,做到执法有据、程序公正,不滥用执法权力,依法维护国家公共安全、公民表达权和企业经营权;另一方面,在网络信息内容审查权授予数字内容平台的情况下,平台对网络信息内容的审查、屏蔽和删除等行为也要有明确的法律依据或法律授权,并遵守法定的处理程序和建立相应的争议处理机制。

第二,促进创新原则。数字内容平台责任配置应建立科学、明确的法律政策环境,增强政策的稳定性和可预期性,降低企业合规成本,在保证内容安全的基础上促进行业创新发展。平台责任配置应有利于消除非法有害内容,营造清朗的网络空间,也应有利于保障内容创新者的合法权益,有利于新业态和新模式的创新发展。同时,由于平台责任配置会对数字内容平台商业模式产生重要影响,要防止过度的责任要求带来过高的合规成本,从而产生扭曲平台商业模式并阻碍数字内容产业创新发展的负面影响。

第三,有效激励原则。平台责任配置应激励数字内容平台主动过滤和删除非法有害内容,实现激励性内容治理,政府监管不应弱化或消除平台的主动治理激励。为此,平台责任体制应对没有介入非法有害内容生产并且积极履行合理注意义务的平台实行必要的责任豁免。同时,有效激励也要求避免对平台产生过度激励,即防止平台采取过于严格事前过滤和删除行动,导致大量合法内容被屏蔽和删除,从而限制公民合法的表达权。

第四,比例原则。该原则要求平台责任配置要根据平台行为对损害的影响程度、损害严重程度、平台履行治理责任的能力与成本、平台规模等因素来合理确定数字内容平台应该承担的责任,平台不应承担过度的责任,即责任要求不能超越平台治理非法有害内容的知识、信息和技术能力。过度的责任要求会导致平台对内容的过度审查,不仅损害公民表达自由,而且还会显著增加平台内容治理的成本,不利于数字内容产业创新发展。

第五,过失责任原则。根据该原则,只要数字内容平台履行了合理注意义务,就可以免于承担相应法律责任,反之,其应承担相应法律责任。如果数字内容平台为第三方进行非法有害内容的传播提供便利、积极参与非法有害内容的制作、对非法有害内容完全知晓或有能力知晓但不采取治理行动,甚至故意放纵或操纵非法有害内容传播来牟利,则应承担相应法律责任。

(三)多元主体责任共担与合作治理

非法有害内容的生产和传播涉及数字内容平台、内容生产者、内容传播者、受众和政府等多元主体,是多元主体共同作用的结果。在短视频等行业,内容生产出现明显的主体身份混同问题,单一的平台主体责任难以有效应对。Helberger等[25]指出,网络非法有害内容的传播是由“多只手”推动的,不同的主体以不同的方式共同造成这一问题的发生,为此应建立合作责任体制。因此,对于非法有害内容传播带来的社会危害,不能将责任全部归于数字内容平台,不能对其实行单方完全责任或严格责任,应在相关方之间合理分配治理责任,明确各参与主体的责任与义务,形成合作治理体制。因此,数字内容平台责任配置需要合理配置不同主体的责任,明确各类参与主体的法律责任、行为规范和道德义务,每个主体都应做一个负责任的内容生态参与主体,从而形成基于责任分担的多元主体合作治理体制。

非法有害内容的多元主体合作治理体制需要以公平、效率和可实施的方式来分配不同主体应承担的责任。首先,数字内容平台的基本定位是内容传播扩散的服务中介,其既可能是被动的信息传输者,也可能是主动的信息传输者,主动的信息传输者应承担更大的治理责任。对于具有严重危害的非法有害内容,数字内容平台必须承担过滤和屏蔽义务,严格禁止非法有害内容的上传和传播。其次,内容的生产者和传播者应分别承担不生产和发布非法有害内容的责任,而生产者和传播者合一的则要承担更大的直接责任。对于给社会或用户造成严重损害的内容,其生产者和传播者需承担直接责任。再次,受众既可能是非法有害内容的生产者或推动者,也可能是非法有害内容的受害者。为此,既需要提升受众的道德水准,也需要赋能其更好地维护自身权益,并建立有效的举报机制和维权机制。当非法有害内容存在时,受害者应主动发现并告知数字内容平台,要求其删除非法有害内容。最后,政府是公共利益的代表者和主要维护者,面对非法有害内容传播和泛滥带来的社会危害,政府作为治理规则的制定者和执行者,应在数字内容治理中发挥核心作用。政府职责主要是完备法律、完善执法机构体制、创新治理政策工具,强化对数字内容平台、内容生产者和内容传播者等主体的监管,并有效防范和处理风险。

四、网络信息内容治理的平台责任体制演变

(一)平台责任的避风港原则及其局限性

传统意义上,美国和欧盟等都将平台看做从事内容分发的托管服务提供商,为此确立了避风港原则。根据避风港原则,平台在传输第三方上传的内容时将免于承担责任,除非平台明确意识到非法内容的存在并且没有立即采取行动加以制止或删除。近年来,随着社交媒体和视频内容等新型数字内容平台的快速发展,数字内容平台不再是单纯的信息内容中介,而是成为数字经济社会信息内容的守门人,避风港原则的适用性受到质疑。因此,对数字内容平台的责任要求不再仅局限于责任豁免的中介责任,强化平台主动治理的责任观念日益增强,平台责任体制正逐步转向强化平台积极行动者责任。这种变化产生的主要原因是:首先,数字内容平台的发展使避风港原则的现实基础发生重大改变。避风港原则主要是针对单纯从事信息内容传输的中立性信息中介,其仅仅作为信息传输通道、信息缓存或托管他人生产内容的中介,并不介入内容的生产和操纵内容传播,扮演消极、中立的中介角色。数字内容平台的商业模式使其不仅传输或托管他人信息,也积极介入信息内容的生产和传播,并借助大数据和人工智能算法来深度影响内容的呈现方式和传播范围,同时平台扮演守门人角色,具有强大的生态规制能力,重构数字经济网络信息内容组织运行方式,并对数字经济社会文化消费产生重大影响。因此,数字内容平台不是一个中立的中介服务提供者,其应该承担积极治理责任。其次,数字内容平台具有治理非法有害内容的技术能力。避风港原则的设立很大程度上是基于数字经济发展初期内容过滤技术约束作出的制度设计,近年来,大数据、人工智能和区块链等技术发展为平台对内容进行审查提供了重要技术手段,大幅降低了平台治理非法有害内容的成本,平台有能力采取多种手段并以较低成本来履行合理的过濾责任[26]。综上,避风港原则适用的现实基础和技术约束消失,此时强化平台内容治理责任正当其时,平台责任体制需要由责任豁免体制转变为监管责任体制[27]。

(二)强化平台履行内容审查的合理注意义务成为基本趋势

目前,平台责任体制的基本趋势是激励平台主动识别并及时删除非法有害内容,即强化平台事前过滤义务和事后通知—删除义务,激励平台积极履行合理注意义务。2017年,德国制定的《网络执行法》对数字平台信息内容治理作出明确规定,特别是对履行事前过滤义务和事后通知—删除义务提出了具体要求。2021年,英国颁布的《在线安全法》对数字服务提供商提出了具体的注意义务要求,包括进行非法有害内容风险评估、保证信息内容安全、提交非法有害内容报告、保护公民表达自由和隐私、保留有关记录文件等。2022年,欧盟通过的《数字服务法》构建了差序结构的信息中介责任要求,对平台责任、内容控制、透明度报告义务、原因说明义务、争议解决机制、信任标签制度和政府监管体制等作出具体规定,进一步明确通知—删除程序,明确区分积极的和消极的平台中介角色,引入“好撒玛利亚人”条款激励平台主动监控非法有害内容并善意地加以处理,鼓励数字平台在非法有害内容治理中扮演更积极的角色。欧盟、英国和德国对网络信息内容治理体制的改革有三个明显的特点:首先,数字内容平台责任要求注重激励平台积极履行合理注意义务,激励平台主动采取有效措施治理非法有害内容,充分发挥平台私人治理的基础作用。其次,建立基于风险的分类分级治理体制,并对不同类型平台中介提出差别化责任要求。最后,赋予数字内容平台较大的治理自主权。欧盟、英国和德国等日益强化平台主体责任并不是转嫁政府的监管责任,也不是对企业实行传统的命令—控制型监管,而是对数字内容平台提出的责任要求基于自愿同意的框架,赋予其较大自主权,由平台来决定如何采取相应措施以确保合规,从而实现非法有害内容的有效治理和行业创新发展。

(三)中国网络信息内容治理的平台主体责任体制

为加强对网络信息内容的治理,近年来中国政府出台了一系列法律法规。《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》确立了中国网络数据安全监管的制度架构,其中,《中华人民共和國网络安全法》第十二条对禁止传播的网络内容作出了原则性规定,第四十七条确立了网络运营者的信息管理责任。同时,国家互联网信息办公室(以下简称“网信办”)、国家广播电视总局、工业和信息化部等部门也出台了多部部门规章。总体来说,目前中国网络信息内容治理涉及多部法律法规、部门规章和规范性文件,对网络信息内容治理的诸多方面都作出了相应规定。与此同时,国家非常重视强化网络信息内容治理的平台主体责任,网信办发布的《网络信息内容生态治理规定》《关于进一步压实网站平台信息内容管理主体责任的意见》重点对平台主体责任作出了规定,将压实平台主体责任作为网络信息内容治理的重要措施。但中国网络信息内容治理的平台主体责任体制还存在如下问题:

第一,平台主体责任缺乏国家层面的统一法律规定,法规层级不高和立法分散问题突出。目前中国还没有一部规范网络信息内容的专门法律,缺乏对网络信息内容治理基础性制度安排的法律规定和顶层设计,网络信息内容治理主要依据部门法规来执法,平台主体责任主要由部门规章来规定,法律层级较低。由于网络信息内容治理实行“1+X”的治理机构体制,由网信部门牵头,协同广电、文化、工信、公安等多个部门分头治理,政出多门和法规不统一问题比较突出,不仅增加了治理的不确定性和行政成本,也增加了企业合规成本。

第二,平台主体责任不明确和责任配置不合理,无法为平台责任履行提供明确指引。《网络信息内容生态治理规定》第八条和第九条规定,网络信息内容服务平台应履行信息内容管理主体责任,建立网络信息内容生态治理机制、健全用户注册、账号管理、信息发布审核和跟帖评论审核等制度。《关于进一步压实网站平台信息内容管理主体责任的意见》重点强调压实网站平台信息内容管理主体责任,对主体责任内涵、平台社区规则、账号规范管理、内容审核机制、信息内容质量、信息内容传播和未成年人网络保护等方面提出了非常具体的责任规定,一些规定涉及平台内容治理的内部具体操作问题。但是,上述文件对于内容审核的风险评估机制、通知—删除程序、具体的举报投诉机制等没有作出规定。

第三,网络信息内容分类分级治理的细化规定缺乏,严重影响平台责任的落地实施。分类分级治理是网络信息内容治理有效落地实施的重要抓手,是实现高效、科学、精准治理的重要基础,也是实现常态化治理的重要基础制度。尽管国家对数字经济明确提出分类分级管理的基本要求,但现行数字内容平台主体责任规定没有建立针对不同规模和不同商业模式平台实行分类治理标准,也没有建立依据损害程度对不同风险等级内容的分级治理标准。由于缺乏对网络信息内容明确的分类分级细化规定,导致平台主体责任要求无法充分落地实施,严重降低了治理效能,并给数字内容平台创新发展带来较高风险。

第四,平台主体责任实施主要采取行政监管体制,无法激励平台主动治理非法有害内容。现行平台主体责任规定主要是以行政命令和严格监督为手段的“压实型”网络信息内容治理主体责任体制,缺乏对平台主动进行内容治理的激励机制设计,没有赋予平台主动治理非法有害内容的自主权,尚未构建起“政府+平台”的合作治理体制。同时,目前网络信息内容治理的平台主体责任体制主要是针对大型平台,对其他相关主体的责任没有进行整体设计。大型平台成为主要责任承担者,并有潜在承担无限责任的风险,缺乏对非法有害内容相关主体责任的系统设计和综合治理。

第五,网络信息内容治理以专项整治为主,尚未实现常态化治理。目前网络信息内容治理主要采取专项整治行动,近年来网信办牵头实施了一系列专项整治行动,典型的如净网行动、护苗行动、秋风行动和清朗行动等,并重点针对网络直播、短视频、在线广告、公众号和论坛等领域非法有害内容。尽管专项整治行动对净化网络空间起了重要作用并取得明显成效,但其是针对短期问题关切采取的临时性措施,不是一种常态化治理制度。近年来,监管部门大量采用行政约谈机制,严格来说,行政约谈不是一种法治化的执法方式,大幅增加了执法机关的自由裁量权,不应成为常态化执法的主要方式。以专项整治为核心的运动式执法和大量采用行政约谈机制显著增加了监管政策的不确定性,监管的直接成本和间接成本较高,并会导致数字内容平台过度审查,从而严重损害公民表达自由和数字内容产业创新发展。

总体来说,目前中国在网络信息内容治理中强调政府监管,平台主体责任要求过于严格,缺乏对平台主动治理和合规的机制设计,也没有实行科学精准的分类分级治理,具有典型的运动式执法特征,尚未建立起网络信息内容治理的长效机制。这不仅导致数字内容平台企业合规成本大幅上升和面临非常高的政策风险,而且会激发数字内容平台为规避风险而过度治理,从而既无法实现信息内容治理效率和效果的统一,也无法为数字内容平台和数字内容产业创新发展提供稳定、可预期的政策环境。

五、网络信息内容治理的平台主体责任构建

网络信息内容治理的核心是促进数字内容平台积极履行治理责任,激励其采取合理、必要和规范的主动行动来履行注意义务,确保平台成为治理非法有害内容的第一屏障。数字内容平台责任的核心是确保其充分履行事前过滤义务和事后通知—删除义务。为此,国家需要适时出台网络信息内容法,对网络信息服务中介主体责任和政府监管体制作出系统明确的法律规定。根据网络信息内容治理基本原则和国际经验,中国应建立基于分类分级的网络信息内容治理平台主体责任,并完善平台主体责任履行机制。

(一)建立非法有害内容分类分级细则

建立可操作的非法有害内容分类分级细则,是实现网络信息内容常态化治理,全面提升其治理效能的重要任务。

第一,针对不同类型数字内容平台实行分类责任配置。不同类型数字内容平台具有不同的信息内容类型、商业模式和盈利方式,为提高非法有害内容治理的针对性,需要依据平台类型实行差别化的责任要求,根据不同类型平台介入非法有害内容的程度来实行差别化政策设计。根据数字内容平台介入内容生产和传播的程度以及平台业务模式可以划分为三种类型平台中介:纯中介服务平台、托管服务平台和在线平台。首先,纯中介服务平台是单纯提供网络信息内容传输管道服务的信息中介,其主要是网络服务基础设施提供商。对于单纯传输信息的中介服务平台,由于其在网络信息内容传输中扮演纯技术性、被动的角色,仅是网络信息内容傳输的技术中介,因而承担相对轻的责任,适用避风港原则。其次,托管服务平台是向他人提供信息存储服务的信息中介,主要包括云服务和网络托管等,一般不对公众开放。托管服务平台对内容有一定的控制和审查能力,在对其适用避风港原则的同时,还应要求其履行通知—删除义务。最后,在线平台是连接消费者和卖家并促进两端用户相互作用的平台中介,主要包括社交媒体、APP商店、电子商务平台、内容分发平台和分享经济平台等。在线广告、搜索结果排序和算法推送等是在线平台实现利润最大化的重要商业策略工具,在线平台深度介入内容生产与传播,通过信息内容传输及呈现获取商业利益,因而在线平台应承担治理非法有害内容的主体责任。

第二,针对不同规模数字内容平台实行差别化治理责任。由于超大数字平台具有大量用户基础和强网络效应,非法有害内容具有更广的传播面,造成的社会危害更大,且其具有更强的技术能力,能够以更低的成本治理非法有害内容[28]。因此,超大型平台应承担更多的责任,应对其提出附加的特别要求,尤其是风险评估和风险管理制度,重点提升其对非法有害内容的事前过滤。《数字服务法》就对超大型平台提出了建立风险管理制度、实行风险外部审计、满足规定的技术性保障措施要求、遵守算法推送规则、完善内部组织制度、与监管机构分享数据、遵守必要的行为准则和实施有效的危机管理等特别的责任要求。小平台或新进入平台则豁免某些责任要求,只需履行基本的主体责任要求,甚至对提交透明度报告责任加以豁免,同时政府鼓励小平台自愿履行更高的责任要求。对不同规模数字内容平台实行差别化的责任要求可以防止一刀切的治理政策对小平台创新发展造成伤害,鼓励初创企业创新发展。

第三,实行以风险为基础的内容分级责任配置。首先,对网络恐怖主义、危害国家政治安全、民族仇恨和侵犯版权等高风险内容,国家立法应明确加以禁止,数字内容平台必须实施风险评估和建立有效的风险管理制度,采取有效的技术手段和组织人事保障进行识别并直接屏蔽,对国家公共安全构成重大风险的事件必须及时上报国家监管机构并与其积极合作。其次,对于色情暴力、侮辱诽谤他人、造谣恐吓、网络霸凌和侵犯个人隐私等中风险内容,数字内容平台需要履行事前主动过滤义务和事后通知—删除义务,在技术经济合理范围内主动过滤非法有害内容,在受害人或用户举报后及时告知内容生产者和传播者,并依法及时删除。最后,对于恶意炒作、低俗内容和虚假信息等低风险内容,由于缺乏明确统一的判定标准而具有非常高的事前审查成本和审查失误风险,数字内容平台责任重点是履行通知—删除义务,在受害人或用户举报的情况下及时核实,如果属实应及时删除,并有效履行反通知程序。

(二)分类配置数字内容平台主体责任

总体来说,数字内容平台应该承担的基本责任包括:注册和准入管理、非法有害内容风险评估、确保网络信息内容安全、保留有关文件记录、建立内部治理制度、保护用户隐私和表达自由、保护未成年人、提交透明度报告、与监管机构合作、及时报告重大违法内容等。确保网络信息内容安全是数字内容平台责任的重点,具体包括防止用户遇到非法有害内容、最小化非法有害内容呈现时间、畅通举报处理机制与程序、告知后及时删除非法有害内容、限制非法有害内容传播、防止未成年人接入非法有害内容、保护消费者表达自由和隐私安全等。

根据分类分级治理要求,笔者设计了分类配置的平台责任,对纯中介服务平台、托管服务平台、在线平台和超大型平台提出了差别化的责任要求,在线平台和超大型平台除了承担基础责任和履行通知—删除义务外,还承担一定的特别责任,尤其是事前风险评估和建立完善的内部风险管理制度,更偏重于强化其履行事前过滤义务,具体如表1所示。

表1 数字内容平台主体责任的分类配置

[类 型  纯中介服务平台    托管服务平台       在线平台       超大型平台    具体

责任       公开服务条款;用户注册制度;第三方准入审查;透明度报告;与监管机构合作;满足安全标准;未成年人保护;用户权益保护       除承担纯中介服务责任外还承担:通知—删除义务       除承担托管服务责任外还承担:用户投诉处理机制;争议解决机制;算法透明;内部风险管理制度;重大案件报告    除承担在线平台责任外还承担:风险评估;外部风险审计;算法推送规则公开;重大风险报告;向监管机构开放数据       重 点    尽职责任       通知—删除责任    投诉处理机制    風险管理和外部监督    ]

(三)完善数字内容平台主体责任体制

为确保数字内容平台有效履行合理注意义务和落实主体责任,应重点强化如下方面:

第一,建立平台主体责任履行激励机制。为激励数字内容平台主动履行合理注意义务,平台主体责任体制应引入“好撒玛利亚人”条款,即如果平台自愿、主动采取措施对非法有害内容进行事前过滤,并在举报投诉后及时屏蔽删除,则其可以免于承担相关法律责任。政府监管机构可以委托专业的第三方机构对数字内容平台主动履行非法有害内容审查成效进行评估考核,并公开发布,对于履行主体责任成效突出的平台则赋予较高的内容治理自主权、部分责任豁免及优先获得国家有关政策优惠,对于履行主体责任不力的平台则提出黄牌警告,提高对该类平台的监管强度。另外,政府监管机构在强化监管职能的同时还需要大力提升服务职能,指导数字内容平台更好地履行合理注意义务,更好地开展合规经营。

第二,完善非法有害内容违法犯罪的处罚措施。法律责任是实现非法有害内容负外部性内部化的重要机制。应建立包括行政责任、民事责任和刑事责任的法律责任体制,根据风险程度对违法行为实行梯度罚款制度。首先,对于低风险非法有害内容主要采取行政告诫、短期终止服务和整改要求等行政措施;对于中风险非法有害内容实行最高罚款上限制度,如对个人违法者最高罚款10万元,对企业违法者最高罚款500万元,或者处以个人和企业违法所得3—5倍的罚款,最后取两者中最高者;对于高风险非法有害内容实行企业上一年度营业额1%—6%的罚款,或者处以违法所得3—5倍的罚款,最后取两者中最高者。其次,对于非法有害内容给当事人带来明显和严重损害的,违法行为实施人应承担相应民事赔偿责任,存在过失的平台应承担相应的连带民事赔偿责任。最后,对于生产和传播非法有害内容并对社会构成严重危害的高风险非法有害内容,行为主体涉嫌刑事犯罪的,应依法采取刑事制裁措施。

第三,确保平台内容治理行为纳入法治化轨道。强化平台主体责任实际赋予了数字内容平台对个人信息内容的审查权,为防止平台滥用内容审查权而侵害公民基本权利,需要完善平台内容审查程序,确保平台内容审查和处置行为遵守法治原则。目前数字内容平台基本都在运用人工智能算法等技术手段审查平台内容并对其传播加以控制,许多平台设置了敏感词条的机器自动识别或屏蔽删除功能,采取针对个人用户的封号删除等手段处理非法有害或争议内容,甚至对内容发布者采取惩罚性措施。为了规避治理责任,一些数字内容平台有可能滥用内容管理权,过度粗暴地屏蔽删除内容,严重损害公民的自由表达权,并给个人生活带来诸多负面影响。为了确保数字内容平台依法履行过滤义务和通知—删除义务,防止其滥用内容管理权,应强化平台治理非法有害内容的通知—反通知程序和理由说明义务,其删除或屏蔽内容需要给出当事人明确的理由。应建立投诉机制和争议裁决机制,确保数字内容平台以透明和公平的方式对非法有害内容进行过滤和删除,平台采取的处置措施必须依法依规进行,不能超越法律授予的权限。

第四,强化平台内容治理的透明度和问责机制。数字内容平台应明确和公开内容审查标准、审查程序、删除行动和投诉处理等相关条款,使用户容易接入并知晓上述内容。数字内容平台每年应提交履行平台责任的年度报告,并对社会公开。报告应对数字内容平台履行非法有害内容过滤义务和通知—删除义务、保护用户隐私、打击虚假广告与盗版侵权、保护未成年人接入等方面的成效,以及平台为此进行的技术开发与配备、程序与组织保障、人员与经费投入等情况作出说明。为强化问责机制,应建立大型平台合规审计制度,由外部独立审计机构对平台履行主体责任进行独立客观审计,监管机构应出台具体的审计政策,对审计机构的资质、人员组成、审计事项、审计标准、审计程序、保密义务和审计报告内容等作出具体规定。

第五,创新平台人工智能应用治理手段。随着人工智能技术的发展和大规模应用,机器合成的内容日益增多,算法推送成为信息内容传播的主导机制,一些数字平台甚至利用算法推送、暗模式和选择性架构设计来误导消费者决策,通过内容算法扭曲消费者决策进而获取高利润[29]。为此,需要强化网络信息内容的算法监管,创新针对算法的网络信息内容监管政策工具,确保算法应用遵守以人民为中心的基本原则。首先,对于新闻合成类数字内容平台,其呈现的新闻内容应保持必要的客观中立性和透明度,不能侵犯知识产权,平台有责任防止虚假信息传播,为此深度合成信息内容必须在显著位置特别标注,让受众知晓该信息内容是通过人工智能算法深度合成的。其次,平台基于算法的内容推送应保证推送行为不系统地偏向特定的极端观点或非法有害内容,不对平台自己制作的内容或关联单位制作的内容给予优先推荐,确保算法推荐的公平性和非歧视性,不得通过操纵和扭曲消费者决策剥削消费者。算法推荐的内容应通过显著的标签明确告知消费者,并对算法推送规则作出必要说明,同时赋予消费者选择权,不得强制消费者接受推送服务,消费者有权关闭推荐服务或者删除个人标签,数字内容平台要同时提供不基于个人数据推送服务的选项。最后,为保护未成年人和用户隐私,数字内容平台不能向未成年人推荐内容和利用个人敏感数据推荐内容,以加强对未成年人和个人隐私的保护。

第六,提升平台内容治理的技术赋能。技术手段是应对非法有害内容的重要工具,特别是人工智能技术在非法有害内容的识别、审查和删除中发挥了无法替代的作用。因此,需要持续提升内容治理的技术赋能。网络信息内容治理应鼓励数字内容平台主动采取技术性自动过滤系统,实现机器审查与人工审查的有效结合。为此,应强化平台内容治理的技术保障能力,鼓励其采取更为有效的人工智能内容过滤系统来主动识别和删除非法有害内容,提升内容风险防控能力和屏蔽删除非法有害内容的有效性。数字内容平台应充分落实《信息安全技术 网络安全等级保护基本要求》的技术保障措施,政府应加强对平台履行责任技术保障能力的评估、认定和动态评价。政府应鼓励行业组织通过推广最佳实践经验、安全标准和技术方案等促进内容治理技术能力提升。政府应支持网络信息内容安全技术的开发和产业化发展,鼓励应用推广,不断提升网络信息内容安全治理的技术保障能力。

六、总结性评论

维护网络空间安全需要強化网络信息内容治理,非法有害内容泛滥会给公民权益和国家公共安全带来诸多损害,因而网络信息内容治理是政府治理的重要方面。由于数字内容平台是网络信息内容生态的守门人,其有能力和有义务承担相应的治理责任。科学配置数字内容平台主体责任既是网络信息内容治理体制的核心,也是提升网络信息内容治理效能的重要机制。

数字内容平台主体责任配置应坚持法治原则,在保证内容安全基础上促进行业创新发展,激励数字内容平台主动过滤和删除非法有害内容,遵循比例原则合理配置数字内容平台的主体责任,只要数字内容平台履行了合理注意义务,就可以免于承担相应的法律责任,从而构建法治化、协调化、科学性的平台主体责任体制。目前,强化数字内容平台积极履行内容审查的合理注意义务成为网络信息内容治理体制改革的基本趋势。中国网络信息内容治理体制缺乏国家层面的统一法律规定,平台主体责任配置过于严格,缺乏对平台主动进行内容治理的激励机制设计,具有典型的运动式执法特点和自由裁量权过大问题,给平台合规经营和创新发展带来不利影响。为此,应从以下方面完善数字内容平台主体责任体制:建立平台主体责任履行激励机制,完善非法有害内容违法犯罪的处罚措施,确保平台内容治理行为纳入法治化轨道,强化平台内容治理的透明度和问责机制,创新平台人工智能应用治理手段,提升平台内容治理的技术赋能。

参考文献:

[1]     CAILLAUD B,JULLIEN B. Chicken and egg: competition among intermediation service providers[J].RAND journal of economics,2003,34(2): 309-328.

[2]     ROCHET J C,TIROLE J. Platform competition in two?sided markets[J].Journal of the European economic association,2003,4(1): 990-1029.

[3]     ARMSTRONG M. Competition in two?sided markets[J].RAND journal of economics,2006,37(3): 668-691.

[4]     BOUDREAU K J,HAGIU A. Platform rules: multi?aided platforms as regulators[M]//CHELTENHAM A G. Platforms,markets and innovation. UK: Edward Elgar Publishing,2009:163-191.

[5]     TEH T H. Platform governance[J].American economic journal: microeconomics,2022,14 (3): 213-254.

[6]     BUITEN M C,STREEL A D,PEITZ M. Rethinking liability rules for online hosting platforms[J].International journal of law and information technology,2020,28(2):139-166.

[7]     PRICE L. Platform responsibility for online harms: towards a duty of care for online hazards[J].Journal of media law,2021,13(6): 238-261.

[8]     HUA X Y,SPIER K E. Holding platforms liable[R]. HKUST Business School Research Paper,2022.

[9]     JIMENEZ?DURAN R. The economics of content moderation: theory and experimental evidence from hate speech on Twitter[R]. University of Chicago New Working Paper Series,2022.

[10]    Hogan Lovells. Liability regulation of online platforms in the UK: a white paper[R].London:Hogan Lovells,2018.

[11]    HORNIK J. LLERA C V. An economic analysis of liability of hosting services: uncertainty and incentives online[R].Bruges European Economic Research Papers,2017.

[12]    刘权.论互联网平台的主体责任[J].华东政法大学学报,2022,25(5):79-93.

[13]    JEON D,LEDOUILI Y,MADIO L. Platform liability and innovation [R]. NET Institute Working Paper,2021.

[14]    LEFOUILI Y,MADIO L. The economics of platform liability[J].European journal of law and economics,2022,53(3): 319-351.

[15]    MADIO L,QUINN M. Content moderation and advertising in social media platforms[R].Marco Fanno Working Papers,2023.

[16]    DE CHIARA D,MANNA R,SEGURA?MOREIRA A. Efficient copyright filters for online hosting platforms[R]. NET Institute Working Paper,2021.

[17]    JAIN T,HAZRA J,CHENG E. Illegal content monitoring on social platforms[J].Production and operations management,2020,29(8):1837-1857.

[18]    LIU Y,YILDIRIM P,ZHANG J. Social media,content moderation,and technology[R].arXiv Papers,2021.

[19]    HAGIU A, WRIGHT J. Multi?sided platforms[J].International journal of industrial organization,2015,43(1):162-174.

[20]    吉莉安·道爾. 理解传媒经济学[M].黄淼,董鸿英,译. 北京:清华大学出版社,2004:10.

[21]    SUNSTEIN C R. The council of psychological advisers[J].Annual review of psychology,2016,108(67):713-737.

[22]    CALABRESI G. The cost of accidents: a legal and economic analysis[M]. New Haven:Yale University Press,1970:24.

[23]    罗伯特·考特,托马斯·尤伦. 法和经济学[M]. 张军,等译. 上海:上海三联书店, 上海人民出版社,1994:479-486.

[24]   THOMPSON M. Beyond gatekeeping: the normative responsibility of internet intermediaries[J].Vanderbilt journal of entertainment & technology law,2016,18(4):783-848.

[25]    HELBERGER N,PIERSON J,POELL T. Governing online platforms: from contested to cooperative responsibility[J].The information society,2018,34(1):1-14.

[26]   BELLEFLAMME P,PEITZ M. The economics of platforms: concepts and strategy[M].Cambridge: Cambridge University Press,2021:41-42.

[27]    BUITEN M. The digital services act: from intermediary liability to platform regulation[R]. Social Science Electronic Publishing,2021.

[28]    陈璐颖.互联网内容治理中的平台责任研究[J].出版发行研究,2020(6):12-18.

[29]    Competition and Markets Authority. Algorithms: how they can reduce competition and harm consumers[R].London:CMA,2021.Research on the Allocation of Platform Liability for

Network Information Content Governance

TANG Yao?jia1, TANG Chun?hui2

(1. School of Economics, Zhejiang University of Finance & Economics, Hangzhou 310018, China;

2. School of Business Administration, Zhejiang University of Finance & Economics, Hangzhou 310018, China)

Summary:With the development of network information content industry in recent years, the proliferation of illegal and harmful content has become a prominent problem, and strengthening the governance of network information content has become an important issue in the governance of the digital economy. Digital content platform is the intermediary of dissemination and proliferation of network information content, and the gatekeeper of network information content. Therefore, strengthening the main responsibility of digital content platform governance has become the core of network information content governance system. How to allocate platform liabilities is a problem that is not well solved.

This paper first analyzes the unique business model and competition strategy of the digital content industry based on the theory of multilateral platform economics, so as to explain the production and dissemination mechanism of illegal and harmful content. It points out that the production or dissemination of illegal and harmful digital content is essentially a problem of negative externality, the root cause of which is the conflict between private interests and public interests. On this basis, this paper draws on the tort liability theory of law and economics to analyze basic principles of platform liability allocation, and points out that the focus of platform liability allocation is to stimulate platforms to adopt reasonable duty of care to govern illegal and harmful content with the lowest social cost. To this end, the platform liability allocation should follow principles of rule of law, promotion of innovation, effective incentive, proportionality and negligence, and establish a cooperative liability system for multiple subjects.

This paper points out that the key is to establish a systematic hierarchical classification system based on risks and improve the implementation system of platform liability. The key for platform liability allocation is the establishment of grading and classification rules and responsibility allocation system on risk, and the construction of an incentive implementation system. The implementation should strengthen the incentive, transparency and accountability of platform content governance, regulate content management right, have innovation in algorithmic regulation, enhance technical capability and optimize the penalty system.

This paper clarifies basic principles of online content governance responsibility of digital content platforms, designs operable hierarchical and categorical governance rules and differentiated responsibility allocation for different digital content platforms in response to characteristics of Chinas online content system, and proposes an implementation system for main liabilities of platform governance, so as to promote the construction and implementation of liabilities of digital content platforms.

Key words:network information content governance; platform liability allocation; negative externality; digital content platform;reasonable duty of care

(責任编辑:孙 艳)