顺势而为:公共事件网络舆情干预策略

2019-11-23 11:49吴克昌叶阳澍
关键词:自然语言处理干预策略文本分析

吴克昌 叶阳澍

摘要:信息时代,网络空间是公共事件社会舆情发酵、发展的重要场所。一个无法回避的现实是,当前并未形成成熟有效的网络舆情干预策略,政府应对仍以“维稳”“管控”为主,疏导成效堪忧,往往导致舆情结果消极化。通过基于计算机自然语言处理的文本分析法,以新浪微博作为数据源,深入挖掘舆情文本内涵,把握网络议题、网民情感的分布及变迁,在探析网民言论所反映的期望、诉求基础上,构建了公共事件网络舆情干预可能性策略——“顺势而为”。

关键词:公共事件;网络舆情;干预策略;文本分析;自然语言处理

中图分类号: D63,G206.3 文献标志码:A 文章编号:1009-055X(2019)02-0033-13

doi:10.19366/j.cnki.1009-055X.2019.02.004

一、引言

随着信息技术的发展,网络越来越成为公众参与公共事件的重要场域,也日益成为社会治理的关键阵地。互联网破除了时空局限,实现了人人皆可“上网冲浪”,大幅降低了公民参与的门槛与成本,扩充了公民参与的规模。数据显示,截至2018年6月30日,我国网民规模达8.02亿人,其中58.6%的网民,约4.7亿人曾通过网络接受政务服务①。

网络公共事件中,公民参与主要表现为网民在网络空间内的发帖及评论,通过图文、音视频等媒体形式为载体表达观点。这些内容借助网站,尤其是新浪微博等网络社交平台实现广泛传播,将舆论大量聚集从而形成舆情。区别于传统媒介,网络社交平台整合了网民的社会关系网络,因此在传播功能上具有传播成本低、辐射范围广、扩散能力强的特点。信息传播的链路及速度在每一个节点发生裂变,因而公共事件网络舆情的规模能够在短时间内迅速扩张,甚至演变为全网热议的社会性话题。倘若舆情衍生出消极、负面内涵,亦将随网络的爆发式增长发展为舆情危机,从而催生网络社会风险。因此,需要对网络舆情进行必要的干预及疏导,化危机为契机,维护网络空间秩序。

然而,众多实践表明,政府常常面临网络舆情干预低效甚至失效的困境,导致公众满意度低下以及网络情绪的消极化。一旦干预困境无法破局,意味着负面网络情绪将随事件舆情的结束无法舒缓,以一种悬而未决的姿态影响公众信任,损伤政府公信力,导致更深层次的社会后果。

近年来,国内外学者对网络舆情及其干预方面的研究不断升温。有学者从宏观理论视角切入,归纳舆情治理工作中的缺陷,总结政府治理困境并提出消解办法[1]。部分學者聚焦于具体案例,剖析舆情要素,进而提出舆情治理策略[2]。如王旭、孙瑞英通过舆情传播结构分析,认为识别并控制传播关键节点有助于提升政府对网络舆情的干预效果[3];刘怡君、陈思佳等运用仿真工具分析了重大突发事件的舆情形成及演化规律,并以此提出舆情处置策略[4];王英、龚花萍关注具体舆情的情感维度,通过统计情感值变化趋势,建构舆情预警研判机制[5]。

以往研究提供了网络舆情认知维度,介绍了内容分析法、自然语言处理技术在同类研究中的应用场景,对本文具有一定启发意义,但同时仍存在一些局限性。第一,偏重于对舆情传播性的探讨,舆情内容的挖掘较为不足;其二,文本素材全面性欠缺,较少研究能将博文类型文本、评论类型文本同时纳入研究;其三,仅仅梳理浅层现象,缺乏对现象背后实质原因的剖析,导致相关策略浮于表面,实用价值欠佳。

本文认为,个体行动是其意志的表达,行为背后的逻辑由诉求与期望建构。因此,解构及把握网民参与公共事件网络舆情的特定动因,增强政府回应与网民诉求及期望的适配度,是破除干预困境,进而消减公共事件网络舆情社会成本,达成网络空间善治的关键。

综上所述,本文将从主题、情感两个考察要件入手,借助计算机技术及大数据思维,通过自然语言分析矩阵,构建对寿光洪水事件网络舆情意涵的完整认知。首先,对构成事件舆情主要部分的热门微博进行LDA主题归类[6],提炼微博博文的主题,将网络舆情基本面梳理清晰;接着,对分布于不同主题的微博,挖掘其引导、动员产生的网民评论,通过TF-IDF关键词提取法[7],以及机器学习情感分析法[8-9],掌握网民的关注点及情绪变迁[10]。

基于上述过程,本文构建了网络舆情干预策略转化漏斗模型(如图1所示),接下来将揭示网络舆情内涵中蕴含的网民期望以及行为逻辑,并以此为切入点,提出网民期望所指向的政府角色以及任务,从而论述网络舆情善治的达成要件及具体策略。

二、研究方法概述

(一)数据采集

本文以“寿光洪水”“寿光水灾”“寿光洪灾”“寿光大雨”为关键词,检索新浪微博中聚集转发、点赞、评论数量最多的热门微博共548篇,借助Python 3计算机语言自行编写爬虫程序,按照特定字段(见表1)进行数据抓取、记录。另外,使用八爪鱼采集器对上述微博所聚集的网民评论进行采集和输出,再通过必要的数据清洗及处理,共获得数据30 573条。

(二)数据预处理

数据清洗和处理。为保证文本分析的准确性,需要对数据进行清洗和处理。首先,对采集工具重复抓取产生的数据,以及@、[] 等无实义的html标签、字符进行清洗;其次,对“蹭热点”、打广告或其他包含检索关键词,但实际语意与本文案例不符的内容,进行人工识别、剔除;最后,对繁体字进行简体转化。

中文分词、去除停用词。对原始文本进行分词处理使用jieba分词工具实现。,以满足中文自然语言处理所要求的文本特征;此外,进一步对分词后的文本去除无实际意义的停用词,如关联词、语气词等,提高关键词提取、主题凝练的精确性使用《哈尔滨工业大学停用词表》实现。。

(三)数据分析

(1)主题挖掘。考虑到微博博文、微博评论两类文本在题材、字数方面的差异,为保证主题挖掘的效率及准确性,对主题明确、字数较多、段落化特征显著的微博博文采取基于无监督机器学习的LDA(Latent Dirichlet Allocation)模型方法进行主题挖掘和提取,最后人工赋予主题具体内涵;对表达随意、字数较少、口语化倾向明显的微博评论,LDA模型的准确性将降低,因此采用TF-IDF关键词提取法,输出权重较高的关键词(如表2所示)作为定位点,返回原始文本并进行人工主题归纳和分类。

猜你喜欢
自然语言处理干预策略文本分析
大学生学习困难成因分析及教育心理学干预策略研究
基于组合分类算法的源代码注释质量评估方法
大学英语FCM学习适应性干预策略研究
投资者情绪短期对股票市场的影响研究
维护正统还是观念复辟?
初中英语听说课教学实践探索
失落的一角
面向机器人导航的汉语路径自然语言组块分析方法研究
盗窃罪发生机制及干预策略分析
汉哈机器翻译中的文字转换技术研究