互联网创新视角下社交平台内容规制责任

2020-02-06 03:57魏露露
东方法学 2020年1期

魏露露

内容摘要:社交平台是互联网技术和商业模式创新的主体,同时也承担着用户内容规制的平台义务与责任。合理的平台责任制度设置需要平衡平台商业自由与内容合规性两种价值。互联网内容监管既有法律和政策从构建信息安全管理制度和运用内容监管技术措施两个方面建构了平台的内容监管责任体系。但从促进创新的视角来看,平台内容监管责任体系还存在着过于注重事后处罚,对事前治理制度的关注不够等问题。无论是内容自动过滤技术的使用还是内容管理制度的构建,都应当建立在多方利益相关主体参与的基础之上,一方面提高内容监管程序的公开透明和正当性;另一方面形成监管责任的分担,降低社交平台的监管成本,促进创新。

关键词:社交平台 互联网创新 平台责任 内容监管技术 利益主体参与机制

中图分类号:D913文献标识码:A文章编号:1674-4039-(2020)01-0027-33

一、问题的引出

创新和竞争一直被认为是提高生产效率,促进社会福利和公共利益的主要手段,作为市场创新主体,网络社交平台在追逐自身商业利益的同时,也被认为能够极大地增进社会和公共利益。〔1 〕但是,仅仅依靠市场激励,社交平台的自身商业利益并不总与法律所追求的个人权利保护和公共利益保持一致,去中心化的信息传播模式所带来的诸如诽谤、色情低俗、版权侵权等负外部性问题就需要法律的介入。平台责任制度便成为法律平衡平台商业自由与互联网内容合法性的关键制度。我国现行法律设置了比较全面的平台对用户内容的规制责任,但是却存在平台责任体系与社交平台内生商业和技术逻辑相脱节的问题,法律如果仅仅作為一种外在的、自上而下的强制而存在的话,平台的内容管理责任便无法被完全内化在平台的商业运营成本和实践之中,会对平台的商业自由造成过重的负担,阻碍创新,平台责任制度的有效性也会受到挑战。笔者认为,内化平台的内容治理责任需要法律给出正确的制度激励,一方面要激励市场主体对自动化内容管理技术的运用,以大大降低平台的内容监管的成本;另一方面,法律要激励各方利益相关主体主动参与违法内容监管的程序,以分担网络平台的内容监管责任和成本,使内容监管更加公开透明。但无论是技术还是人工干预用户内容都需要法律设置一定的监督反馈机制以确保权力不被滥用。

二、互联网社交平台内容规制责任的确立以及执行问题

在互联网的诞生之初,我国政府就认识到互联网不是法外之地,必须置于政府的规制之下。各种网络服务提供商作为信息传播渠道的“把关人”,处于互联网执法的关键位置。但是,早期互联网法规对网络服务商关于用户行为的规制责任的规定比较粗糙,法规中都会规定各种网络服务商在发现违法信息时,“应当立即停止传输,保存有关记录,并向国家机关报告”,〔2 〕由于缺少具体的执行措施规定,更像是对平台责任的笼统宣示。直到社交媒体平台的快速普及使人人都可以成为媒体,法规才开始细化规定平台内容监管责任的具体履行措施。例如,2011年的《北京市微博客发展若干规定》提出微博客服务提供者应当建立“信息安全管理制度”,对传播有害内容的用户予以制止、限制、并及时向有关部门报告;建立“内容审核制度”,对微博信息内容的制作,复制,发布,传播进行监管。〔3 〕 2017年国家互联网信息办公室通过的《互联网新闻信息服务管理办法》《互联网跟帖服务管理规定》《互联网论坛社区服务管理规定》等规范性文件,从内部管理制度建设和技术保障措施两方面对社交平台提供者的“主体责任”的履行做出规定。一方面,社交平台被要求在用户注册、信息发布审核、跟帖评论管理、公共信息巡查、应急处置、配备与服务规模相适应的管理和编辑人员等方面建立健全信息安全管理制度,加强对用户信息发布的人工干预能力。〔4 〕另一方面,社交媒体平台必须对用户信息安全具备安全可控的技术保障和防范措施,技术措施将大大提高社交平台对违规信息事前发现和处置的能力和效率,如通过过滤器对用户跟帖评论进行“先审后发”,〔5 〕对用户信息的自动保存和记录为有关部门的网络执法提供技术和资料支持。〔6 〕

我国对社交平台内容管理责任是一种行政管理责任,强调社交平台在追求自身经济效益的同时兼顾对社会效益和公共利益的维护,其规定也逐渐具体化并具备可操作性。但商业自由与公共效益的协调需要将平台责任内化于市场主体的商业实践中,使平台责任的施加不会造成过重的负担,阻碍创新和竞争。而从这个角度来看,我国平台内容规制责任在执行方面还存在一些问题。

第一,平台责任的履行监督过于注重事后处罚,对事前治理制度关注不足。尽管法律和规范性文件提及了网络社区服务行业加强行业自律和行业准则,以及社交平台服务接受社会监督,作为政府监管的补充。但是法律并未就如何开展行业自律和社会监督做进一步的规定。从执法实践来看,目前平台的内容监管责任很大程度上是通过网信办约谈平台负责人 〔7 〕和行政执法专项行动的威慑力来保证实施的。近几年,国家网信办频繁的约谈未落实用户信息监管责任的社交媒体平台。国家“扫黄打非”办公室也通过阶段性的线上“扫黄打非”专项执法活动就淫秽色情信息、低俗内容和版权侵权问题向平台问责。〔8 〕约谈与专项执法行动均属于事后的行政问责手段,在多大程度法律的外在弹压能够使内容监管责任内化在平台的商业运营中还有待商榷,并且阶段性的执法行动的有效性有几何也值得怀疑。

第二,社交平台的内容规制责任是一种行政责任,而与网络服务商在“避风港”条款下享受的侵权责任豁免制度如何协调?美国《千禧年数字版权法》(CMDA)第512条确立了针对四类互联网服务商的“避风港”条款,“避风港”条款有条件的限制了信息传输、系统缓存、信息托管、信息定位服务提供商的版权侵权赔偿责任。随后欧盟也确立了类似的侵权责任豁免制度。〔9 〕社交平台属于信息托管服务提供者,原则上在“避风港”的豁免范围之内。通过“避风港”一定程度豁免网络服务商的内容监管责任,降低创新成本,被认为是促进早期互联网技术和商业模式创新的重要法律激励,是互联网经济得以繁荣的制度基石。〔10 〕我国虽然也引入了网络服务商的避风港制度,但是在实践中欧美模式的“避风港”原则并未得到充分的实施。〔11 〕首先,欧美的“避风港”条款以避免网络服务商承担一般内容审查义务以保护信息自由和言论自由为立法目的之一,而在我国互联网平台提供者承担内容监管责任已成为一种网络空间治理的法律和社会共识。其次,在“避风港”条款的适用条件上,我国对应然层面网络服务提供者“应该知道”侵权事实存在的主观状态的强调也大大限缩了责任豁免的范围,而在美国CMDA中则仅仅做出对“实际知道”(actual knowledge)的要求,并不追究依据平台的商业模式是否应该知道侵权事实存在。再次,“避风港”从来不是绝对的。即使在欧美,随着自动化技术和互联网法律自身的发展,超出“避风港”要求网络服务提供者承担更多的内容合法性责任形成一种趋势。例如,2014年欧盟法院在Google Spain案中的思路就突显了用户“被遗忘权”的执行对搜索引擎的责任豁免的冲击。而随着自动化过滤技术的发展,网络平台介入用户信息的成本被大大降低,因而要求网络服务商承担更多辅助个人权利实施的义务的呼声大大增多。直到2019年4月欧盟通过了《统一数字市场版权与相关权利指令》,对于用户发布的受版权保护的作品内容造成的侵权,内容分享服务平台将构成“向公众传播”并承担直接侵权责任,排除了内容分享服务平台针对用户内容侵权的“避风港”规则的适用。〔12 〕该指令意图向内容分享平台施加事前获得版权及相关权利授权的义务,从而避免事后的一般内容审查,并通过要求成员国构建版权等权利的集体许可机制、〔13 〕协商机制 〔14〕来降低平台获得版权授权的成本。

综上所述,“避风港”条款代表了规制逻辑遵从商业逻辑和技术逻辑的平台责任思路,代表对互联网服务提供商商业运营的规制宽容,但并不必然排斥规制逻辑下法律对平台内容规制能力的合理利用,关键在于互联网创新与内容合法性二者之间的价值平衡。

第三,我国对社交平台的内容规制责任设置本身过重,缺乏能够对多元利益进行平衡的制度和程序设计。首先,平台责任的安排过于重视内容的合法性的执法目的,缺少对平台商业自由的兼顾,造成社交属性的互联网应用较高的法律风险和运营成本,削弱其市场竞争力。根据经济分析学派的观点,任何正义的追求都是有成本的,正义也是多维度的,法律应当做出符合社会效益最大化的制度安排,而非不计成本的追求一种正义。〔15 〕不计成本地追求用户内容合规性不符合社会效益最大化原则和制度的经济理性,可能对技术创新和市场竞争产生不当的法律干预。在2016年的快播涉黄案中,被告试图将自己定位为提供播放软件而非视频服务,从而利用“技术中立”原则来证明自己不存在对用户分享内容进行监管的能力和义务,但是公诉方及法院则将快播定义为提供视频服务,实际上远程控制和日常维护服务器;快播设计其缓存服务器存储视频的条件仅以点播率为依据,造成了淫秽视频大量缓存和更快传播;并且由于之前行政处罚的存在快播公司对于淫秽视频的传播存在“明知”的故意,不适用“避风港”原则,因而认定构成了传播淫秽物品牟利罪。〔16 〕盡管网络上针对此案的判决争议较大,但是从法院适用法律的逻辑来看,并不存在问题。然而,从法律对技术市场的溢出效应来看,以快播案为转折点,失去“避风港”庇护的P2P技术由于面临未知的高法律风险,市场竞争力越来越弱,逐渐小众,而技术架构的变革随之带来了视听内容产消模式的变迁,最直观的变化体现在随着数字版权执法力度的增加,我国线上视频消费市场开始被以拥有大量内容版权的视频平台(如腾讯视频、爱奇艺、优酷等)所取代,在P2P社交模式下用户产消内容的格局被改变。视频消费社交属性的减弱一方面会带来内容执法难度的降低,有利于内容合法性的提高;但另一方面,无论是从技术创新还是内容生产来看,过度的数字版权执法会造成过于强大的产权话语对技术创新市场的版权壁垒,〔17 〕而用户产消内容市场的缩水可能会削弱互联网基于社交的内容创新基因,从长期的用户福利和社会效益的角度来看并不一定是最优的制度安排。用户表达自由、平台市场的自由竞争秩序都应当是平台责任制度设计所需考虑的价值诉求。最新的欧盟《统一数字市场版权与相关权利指令》即豁免了进入市场不足三年,年营业额少于一千万欧元的内容分享平台事前获取权利许可的义务,对其继续适用“避风港”规则中的“通知-删除”义务。〔18 〕我国的社交平台内容规制义务的设置也应当考虑对新兴的中小平台的适当政策倾斜。

综上所述,我国的社交平台需要承担主动采取技术措施和内容管理措施进行内容监管以保证用户内容的合规性,这一内容监管责任目前主要依靠直接追究平台的行政甚至刑事责任来保证实施。面对较高的法律风险,加强事前的内容管理是社交平台的合理选择。但是法律对平台内容管理技术措施和内部信息管理制度的规定只重在强调平台作为责任主体的义务,并没有提及技术措施和内部管理制度本身应当如何治理才能使平台内化内容监管责任,形成长效机制,而不仅仅是作为对法律外在强制的被动回应。更为重要的是,只有开放内容管理体系,使利益相关主体参与到内容管理程序中来,才能够分担社交平台内容监管的责任与成本,平衡内容合规性,商业自由与创新和用户权利保护三种价值。笔者将从技术措施的采取和内容管理制度的构建两个方面探讨平台责任的实施如何兼顾创新和内容合规性。

三、内容自动过滤技术的应用及其限制

在网络空间,代码就是法律,法律的有效性很大程度上受制于代码,而根据比例原则,有效性的丧失会反过来削弱法律措施的正当性。通过技术措施实现对不良内容的自动过滤、识别和拦截成为降低社交平台承担内容管理责任的成本,提高内容监管能力的重要举措,同时近几年内容自动识别和过滤技术系统的开发和应用也为论证网络平台承担更多的内容规制责任提供重要的正当性依据,例如欧盟成员国的司法判例中出现了将信息托管平台的针对具体版权内容的事前过滤义务的承担作为其获得“避风港”庇护的前提条件,〔19 〕以及宽带服务商通过法院禁令(injunction)被要求停止为版权侵权用户继续提供宽带服务。〔20 〕在我国,利用信息安全管理技术对用户内容进行事前审查和过滤被行政执法部门列入了社交平台内容规制行政责任的范围之内。在”快播案”的判决中,检方提及了关键词过滤作为不良信息识别过滤的行业惯例。在不良信息管控实践中,一般采用“机器+人工”的内容审核流程,〔21 〕关键词过滤,URL屏蔽,截图审核,数据库过滤等技术被广泛运用于社交平台用户内容的自动审核。比如,百度贴吧的关键词过滤系统;视频社交网站“B站”运用截图鉴黄技术,“每秒处理300张截图;嫌疑图片从读图、图片传输、计算、返回结果,全程平均响应时间约2.2秒;10至15秒内,后台人工审核便可完成对嫌疑图片的二次判断”。〔22 〕基于版权信息数据库的内容过滤技术在国外社交网站的版权保护领域率先得到了推广,比如在欧美数字版保护领域通用的Audible Magic开发的内容指纹系统,类似的Youtube在2007年上线的Content ID 系统,Facebook在2016年上线的Rights Manager系统,〔23 〕国内今日头条在经历一系列的版权纠纷之后,也在2017年上线了CID系统,保护短视频版权。〔24 〕这类内容指纹技术是基于版权人主动上传自己的版权作品至作品指纹数据库,系统对每一段申请版权保护的内容进行编码确立唯一的数字身份,然后将上传至被监控网站或网络传输的所有流量数据与内容版权数据库进行比对,当配对成功时,被监控目标系统中该内容的上传和传输都将会被拦截。〔25 〕

我国要求社交平台对用户信息进行事前的过滤以有效拦截各类不良信息,但法律并未对技术措施的有效性和正当性评估提供具体的标准。参考欧美实践,对内容自动过滤技术的运用主要集中在数字版权保护方面,并且通过立法和司法判决对自动过滤技术的运用做出了限制。首先,为了保证内容自动过滤的准确率,防止过度拦截,内容过滤技术只适用于能够通过机器和算法做出准确判定的违法内容,如大部分的版权侵权内容,而不适用于需要做出自由裁量的情况,如用户对版权内容的授权使用和合理使用。因此“技术过滤+人工复审”是保证算法过滤正确率的必要程序,同时,“避风港”条款中确立的“通知-删除”程序中侵权嫌疑人发出“反向通知”进行申辩的权利也依然适用。〔26〕

其次,内容过滤技术的采用不应当造成平台过重的负担,过分限制其商业自由和言论自由,因而责任的分担是合理的制度安排。从对使用内容过滤技术的法律授权模式来看,美国《千禧年数字版权法》第512条在确立“避风港”原则的同时设置了网络服务商获得版权侵权责任豁免的两大前置义务,为内容过滤技术的使用创造了条件:第一,网络服务商必须采取某种合理的政策以终止为反复侵权的用户提供服务,并充分告知用户这一政策;第二,网络服务商的系统必须能够兼容版权人使用的行业通行的版权保护技术措施。〔27 〕但是受到“避风港”和表达自由的庇护,美国《千禧年数字版权法》实际上是将使用内容过滤技术的主动权赋予了版权人,而非直接施加一般内容过滤责任于平台,为版权保护责任的分担提供了制度框架。在此制度激励下运作的内容指纹技术系统均来自版权人与平台主动达成的行业协议,版权人需要通过主动上传版权作品至指纹数据库来申明版权保护的意愿,从而启动内容过滤系统,平台仍处于相对被动的地位,平台责任实际并未超出“避风港”条款下“通知-删除”程序所规定的义务范围。

内容自动过滤技术虽然会大大提高违法内容识别和拦截的效率,降低平台的责任履行成本,但由于技术措施自身的局限性,其使用范围和条件不应当是没有限制的。从保持互联网的创新活力和平台的商业自由、言论自由的角度来看,内容过滤技术的使用并不能解决内容规制责任所带来的全部问题。内容规制责任的分担需要相关利益主体的主动参与到内容管理程序中来,形成多方参与的制度机制,弥补技术措施的不足。

四、利益相关主体参与内容管理制度的形成

在许多情况下,出于对技术创新和信息流通效率的考虑,个人权益的实现往往需要权利主体主动主张权利,参与到内容管理的程序中,比如面对搜索引擎的信息全网抓取,数字版权规则默认的是默示许可原则,即只有权利人明示不允许被抓取,才能够排除搜索引擎对版权内容的索引。同理,法律对用户进行程序性赋权以保障利益相关主体参与内容管理程序的权利就成为形成多方参与内容管理程序的必要条件。

在我国面对社交平台较重的内容规制责任,邀请平台用户参与内容管理,分担内容管理的责任,降低运营成本,已经成为一些平台运营商的自主商业选择,如百度贴吧建立的吧主管理制度,〔28 〕新浪微博建立的社区管理委员会制度。〔29 〕百度贴吧是百度于2003年上线的主题交流社交平台,对同一个话题感兴趣的用户聚集起来创建不同的线上互动社区,目前贴吧总数超过二千万个,注册用户有15亿。〔30 〕每个贴吧的日常信息管理工作由该贴吧的吧主团队负责,包括大吧主和小吧主。大吧主由该贴吧的活跃用户申请,百度官方批准,而小吧主则由大吧主从报名的吧友中择优聘用。发现和处理贴吧内的不良信息是吧主团队的核心工作,不良信息包括法律禁止的政治敏感信息,淫秽色情信息、人身攻击、版权侵权等违法信息,也包括与贴吧主题无关的信息,无授权的商业信息等。许多吧主团队还形成了一套规范的不良信息处理流程,保证用户的知情权和抗辩权,比如制定公开的吧规作为违规信息处理的依据;公开删帖记录;采取“劝删”程序,即吧主不直接删除违规信息,而是通过与发帖人的沟通,告知其内容违规原因,令用户限期自行删除或者修改后重发;申诉程序,即发帖人针对小吧主的信息处理措施有异议的,可以向大吧主申诉,对大吧主的异议则可以向贴吧官方管理员举报。根据贴吧用户的反馈,用户对吧主内容管理制度的接受程度要远远大于百度官方使用的關键词过滤技术,很重要的原因在于吧主制度所表现出的程序正义。〔31 〕关键词过滤存在敏感词库不公开,过度拦截用户正常内容,投诉反馈慢等问题,而相比之下,吧主信息处理程序则更加的公开透明,用户的知情权和申诉权得到了一定的保障。当然,吧主制度也存在很多需要完善的地方,诸如外部监督机制的缺失等。但是,对于公开信息管理程序,激励用户参与内容规制来说,尤其对于处理无法依靠机器和算法进行自动识别的不良信息来讲,是一个值得参考的范例。

利益相关主体参与内容管理不仅是出于分担平台责任的考虑,也是实施个人权利的需要。互联网的社交基因本身就是参与基因。正如网络环境中版权人的主动作为实现版权人与平台的合作是数字版权实施的最高效率的途径,同样的,主动参与信息管理程序也是用户实现对消费者权益保护、表达自由和隐私权等法律实质性赋权保护的有效程序。虽然我国的私主体内容监管责任设置旨在提高主管部门对网络信息的管控能力,但从另一方面来讲,我国的网络空间治理的基本思路是不排斥责任分担和用户参与的,如版主负责制。〔32 〕“群主”责任制 〔33 〕以及吧主制度都可成为用户参与内容管理的程序性框架。法律所欠缺的是对私主体的内容规制权力的限制,而确立用户参与内容管理的权利将会为权力的实施划定程序性的边界。内容管理涉及到公民基本权利保护这一公共利益,程序的公开透明和可申辩性成为论证内容管理制度正当性的重要程序性因素。

结语

在我国的互联网信息规制体系中,社交平台被赋予了进行内容规制的行政责任,而作为互联网创新的引擎,这一内容规制责任的承担不应当对社交平台的商业运营造成过重的负担。笔者从内容管理技术措施和多方利益主体参与制度两个方面提出了社交平台内化内容规制成本的制度建议。无论是技术措施还是内容管理制度都不应当将平台作为唯一的责任承担人,主动审核海量用户信息发现和屏蔽不良内容会造成平台责任过重,带来执行难的问题。参考欧美“避风港”原则之下禁止平台成为内容规制措施的主动发起人,内容管理责任应当以多方利益相关主体(如平台方、版权人、用户等)合作与分担的方式实施。在版权实施领域,内容监管的责任不应该由网络服务商独自承担这一点逐渐被国内学者所注意。〔34 〕在目前的技术条件下,技术措施由于存在明显的局限性,利益相关主体参与内容管理制度被视为更具正当性的制度选择。同时,法律应当加强对内容管理程序的规范,以提高其正当性,如确立利益相关人参与内容管理程序的权利,信息处理程序的公开透明,进行第三方监督等。

Abstract: Social media platforms are the main actors of internet technology and business model innovation, and have the responsibility to regulate the user-generated content. A responsible  platform  should balance the value of business freedom and the legality of content. The internet content regulatory system improves regulation over the content through content filtering technology and information safety systems. Nevertheless, the platform content regulatory system still has problems: such as relying too much upon administrative or criminal penalties ex post. Both the content filtering technology and content governance system should be established upon multiple stakeholder participation mechanism, on the one hand to improve the openness and transparency of the regulatory procedure, on the other hand to share the cost of content regulatory responsibility with platforms, to promote innovation.

Key words: social media platform; internet innovation; platform responsibility; content censorship technology; stakeholder participation mechanism