人工智能时代信息传播模式变革与治理研究

2021-09-10 07:22杨旦修
传播与版权 2021年1期
关键词:治理路径信息传播人工智能

杨旦修

[摘要]人工智能领域的算法、大数据、机器人、自然语言处理、视觉识别等技术的普遍应用和持续发展,正在改变着信息传播的模式。文章主要从生产环节、传播形态、传播的效果和反馈机制、传播的舆情监管几个维度對信息传播模式进行探究,并基于人工智能的信息传播模式的建构,对其建构进路中可能产生的风险进行分析。针对风险,文章从建构道德算法、引入隐私保护设计、建立基于权利的数据共享机制、完善反数据垄断执法工作和自我参与式的数据分析几个方面提出解决路径。

[关键词]人工智能;信息传播;变革动因;治理路径

一、信息传播过程中的人工智能影响因素

人工智能技术的发展影响着人们对信息媒介的接触渠道,并逐渐改变媒介的传播特质。探讨人工智能技术对信息传播模式的影响也成为社会的热点议题。笔者从人工智能的算法、大数据、机器人技术、自然语言处理技术和视觉识别技术五个领域来探讨人工智能技术对信息传播的影响。

(一)算法

人工智能领域的算法(Algorithm)是基于特定的计算模型,旨在解决某一信息处理问题而设计的一个指令序列。“它是任何已经明确定义的计算过程,通过该过程采集某个值或值的集合来作为输入,以此产生某个值或值的集合最终作为输出。实际上,算法就是将输入值转换成输出值的一个计算步骤序列。”[1]通过将算法运用到信息的传播与分发过程,传播者能够通过信息供需的高效匹配,实现用户自主地选择信息、平台方内容个性化分发以及社会舆情监测时效性增强等功能。同时,算法也会诱发算法偏见、算法歧视和信息茧房等负面效应。

(二)大数据

“大数据(big data)主要是指在限定期间内无法通过相关的软件技术工具对其海量的信息分析和处理的数据的集合。”[2]大数据有五大特点,即高速(Velocity)、大量(Volume)、多样(Variety)、真实性(Veracity)和低价值密度(Value)。

一方面,大数据能促进信息传播和内容生产的海量、高效和全天候。随着移动终端技术的不断发展,传播信息的渠道也不是固定不变的,而是向着移动化、社交化的方向发展。另一方面,大数据易引发的数据伦理风险主要包括个人隐私安全和信息安全问题、数据霸权下的数据权利的受损以及信息垄断等造成的智能鸿沟问题。“国际标准化组织对信息安全涉及的内容已经进行相关的定义:‘为了保护数据分析系统而建立起来的技术分析管理的安全保障体系,以此来防止计算机的数据因为恶意的或者偶然的主观因子而受到不正当毁坏、曝光和更改。’”[3]随着互联网的普及和人工智能技术的发展,个人的信息存在随时被泄露的风险,造成数据权利受损。

(三)机器人技术

“对于主流的汽车生产线而言,不使用智能机器人才是最大的新闻。实际上人们对于机器人技术并不陌生。”[4]比如,谷歌的智能机器 AlphaGo在2016年以4:1的比分优势战胜围棋世界冠军李世石。自此,人工智能的热浪开始一浪接一浪。机器人技术反应迅速且解放人力,能随时应对突发事件。机器人技术是人工智能领域里一个具有很大空间的领域。比如,在大型物流系统的仓储运输中心,成千上万的机器人正替代人类完成商品整理、摆放、快速出库、入库等一系列繁杂的任务和操作。“在突发性新闻的报道中,写作机器人正成为人们心目理想的‘守望者’的角色。”[5]

(四)自然语言处理技术

人工智能的自然语言处理(Natural Language Processing,NLP)技术主要分为个性化智能检索分类、机器翻译、文本/情感分析、语音识别、问答系统、知识图谱和文本聚类几个方向。

首先,自然语言作为人类社会信息的载体,在金融、法律、医疗教育等领域都存储着海量的文本信息,其技术本身推进了信息处理的专业化。其次,信息协同过滤机制精准定位用户所需信息服务,提高信息消费的体验感和用户黏性。最后,过度的信息依赖偏好将会引发信息茧房问题和回声室效应。

(五)视觉识别技术

近年来,深度学习技术得到进一步的深化发展,人工智能程序对人脸识别的准确率高于人类平均水平。视觉识别技术是指借助计算机技术分析、处理图像,从而对不同情境下的目标进行识别的技术。视觉识别技术在医疗教育、卫星云图等方面都得到了广泛应用,在日常生活中应用也极为普遍,比如,车牌捕捉、手写识别、商品条码识别、支付宝和微信扫码支付等。

二、基于人工智能的信息传播模式建构

传统的信息传播模式主要是单向的直线传播模式,即5W传播模式,也明确勾勒出传播学研究的五个主要领域,即控制分析研究、内容分析研究、媒介分析研究、受众分析研究和效果分析研究。而香农和韦弗提出了传播的数学模式,这一模式描述的是电子通信过程,随后研究者又提出了较为成熟的循环和互动模式,比如,马莱兹克的传播系统模式和赖利夫妇传播模式。

在人工智能时代,基于传统信息传播模型研究,也有不少的学者对信息传播模式进行了探讨。比如,陈虹和杨启飞(2020)提出了可供性视角下的智能传播模式,该模式从人与信息、人与自身和人与技术三个维度去阐述智能技术对信息传播的影响,即打破数据区隔、超越感知边界和突破人机界限;而万虹育等(2020)学者则从学术信息传播模式的变迁去探讨智能媒体信息传播的动力机制;还有一些学者如陈寒冰等(2018)则是对5W模式在智能时代跨文化信息传播的应用进行发展和延伸。

在上述学者对信息传播模式的构成机理分析的基础上,参照当下人工智能传播模式变革实践,本文认为人工智能时代的信息传播模式将会形成以互联网和移动终端为载体,以人工智能技术为核心,借助数据分析整理和算法推荐机制进行信息传播供需高效匹配的超越时空和数据区隔的全广播式的智能传播模式。

图1中,传播者对训练数据进行数据筛选和数据清洗,然后通过三种不同的算法推荐机制对用户进行信息推送,通过人口统计学的算法推荐机制,依据用户的基本信息找到关联用户,之后将关联用户喜爱的物品也推荐给当前用户。比如,1号用户的基本信息和2号用户相似,那么系统将会把1号和2号用户列为相似用户。最后,可以在他们形成的群体之间进行相关的兴趣推荐。基于内容的算法推荐主要是通过产品和内容之间的相关性,依托推荐内容产品的元数据和用户个人的兴趣记录,给用户推荐具有相似特征的服务或物品。

“依据用户对产品的价值偏好形成具有相同特征的‘邻居’用户群是基于用户的协同过滤的算法推荐的重要表现形式。”[6]比如,A用户心仪1号产品和2号产品,B用户心仪3号产品,C用户心仪1号产品、2号产品和3号产品。根据用户的历史偏好记录平台就可以观察到,A用户和C用户的兴趣偏好具有许多交叉重合的地方,而C用户还心仪4号产品,那么,平台的相关系统在推测A用户的兴趣爱好时,就会以C用户心仪的4号产品作为推荐参考,在A用户的移动终端进行类似于“猜你喜欢”“相关推荐”的推荐服务。用户进行信息消费后又会反馈新的信息到数据集中,从而促使信息数据的循环生产。在上述的信息传播过程中,平台对信息的供给能力进一步增强,为用户带来更具针对性的信息服务,使得相关的产品推荐信息积聚更多注意力资源,形成了新的信息传播生态。

(一)信息的供给能力进一步增强

“人工智能对信息传播平台进行技术赋能,使得平台内容生产与传播的门槛降低,改变内容生产技术、流程。”[7]智能传播使我们的信息传输更具效率,智能传播技术的处理范围不仅限于可把控的数据,也可以涉及广泛存在的非结构化的数据。比如,在媒体融合领域,充分利用大数据的智能系统可以对用户服务进行信息形态的优化配置。此外,新闻机器人在紀实性和准确性方面也有独特的优势。

例如,腾讯财经频道的写作智能机器人Dream Writer在2015年9月发表了《已创下12个月新高,8月CPI同比上涨2.0%》的财经新闻报道,文章内的数据内容主要援引了国家统计局发布的CPI相关的权威数据以及业内专家的分析。据《中国新媒体趋势报告(2016)》显示,腾讯财经频道的智能机器人写作的文章在2016年第三季度已经达到了4万篇。

平台可精准识别用户信息需求,进行智能推荐;相较于人工分发新闻,智能推荐的最大的优势就是可以依靠大数据搜集用户的习惯、爱好并且对海量的信息内容进行深度加工,利用数据指导,分发再分发,使得分发更精准。它可以提取与发现具有消费潜力的信息,从而使推荐更加人性化与个性化,更符合用户的实际需求。

(二)用户体验感进一步增强

人工智能传播空间平坦化,信息壁垒、信息不对称等问题减少;以用户体验为驱动的多元、亲民、泛娱乐化的传播趋势增强。

2019年4月15日,巴黎圣母院发生了严重的火情,这也让人们开始考虑如何将AI技术引入文化遗产保护和传承工作。比如,卢浮宫推出了聊天智能机器人APP,游客们可以与其开展信息交流,了解文化遗产背后的有趣故事,尽享智能交互体验,盘活历史书中的各类文化知识。在自然语言处理技术、机器学习和算法等人工智能技术的助力之下,交流机器人的应用也正在促进博物馆的数字化趋势。游客可以从以往听导游讲解或者租赁讲解设备的方式转变为与机器人交流的方式,从而获取文物信息、文化背景知识。趣味性和互动性进一步增强,带给用户更多的沉浸感,而且这种交流不受时间和地点的限制。

三、基于人工智能的信息传播模式风险分析

人工智能的信息传播模式的风险主要可以从信息传播的算法机制生成引发的算法偏见和算法歧视问题,信息安全和用户隐私安全问题,传播过程中可能引发的数据寡头垄断问题,针对信息传播受众的数据权利边界模糊的问题进行具体的分析和探讨。

(一)信息传播的算法机制:会产生算法偏见和算法歧视问题

算法偏见是指算法在进行决策时建立起来的对人、事、物的消极认知和态度。《Nature》杂志将这种在“黑匣子”面前无法了解决策过程,只能明白结果的形式称为“偏见进,偏见出(Bias in and Bias out BIBO)”。媒体平台虽然能够产生海量庞杂的数据信息,但是这些庞杂的数据与可以作为算法程序设计的培训数据相比,数据信息匹配度还有待提升。

关于算法歧视问题,相关的案例如谷歌公司利用其搜索引擎对自己的竞价购物服务信息进行大范围的宣传推荐,间接造成其他竞争平台的利益损失。欧洲竞价网站Ciao在2010年2月与多家同类公司对谷歌的垄断行为向欧委会进行控告,同年10月,欧委会发布决定,针对谷歌滥用自己在搜索引擎市场上的支配地位的行为,将会进行相关的条例处罚。

(二)信息传播的内容:存在信息传播的安全与隐私问题

个人隐私涉及用户个人信息,有的隐私信息甚至会涉及集体的利益。隐私权具体是指公民享有的个人信息不被其他人非法收集和利用的人格权利。2016年7月,某微信公众号投放名为“我的性格标签”的性格测试,这个测试在许多用户的微信朋友圈被批量转载,转发信息的同时,大规模的用户个人信息也随之被严重泄露。可以看出,基于“我的性格标签”的信息传播内容在网络平台的有意为之下被肆意扩散,侵犯了个人信息安全。同时,信息传播的内容被网络平台加以利用,成为牟取暴利的数据基础。因此,基于人工智能传播的信息内容风险需要识别与法律治理。

(三)信息传播的用户:存在缺乏审查和规范、数据权利边界模糊的问题

当前的用户数据信息仍然存在被平台或组织滥用或者不正当收集的风险。北京互联网法院在2020年7月29日做出一审判决,认定微信读书和抖音两款App均存在对用户个人信息的侵害情形。判决指出,在未征得用户个人同意的情况下,抖音平台私自处理用户个人信息,侵权事实成立。人工智能无差别地收集用户信息,缺乏审查和规范。同时,网络平台对用户缺乏尊重,滥用数据,利用用户数据权利边界模糊问题,用户维权意识差以及维权成本高,各类网络平台基于自身利益,侵犯了用户权益。基于人工智能的信息传播风险应当引起政府、平台方以及用户警醒,并探索治理路径。

(四)信息传播的渠道:存在数据寡头垄断问题

斯坦福大学教授Adrew NG说过,“评估一个企业规模大小,主要是看它拥有多少数据”。许多互联网公司对智能时代亟待解决的数据的共享和开放问题三缄其口,这些企业通过用户在商务平台的消费记录、社交软件浏览痕迹和智能搜索的行为偏好信息垄断着大量的用户个人数据信息。另外,用户在享有大数据带来的便利的同时,也可能在数据寡头的信息垄断下造成数据权利受损。“大数据描绘出用户的基础数据与兴趣爱好,受众同时也可以获得他们所需要的信息,这是以用户行为产生的大量数据为基础的。”[8]大数据时代,人们的各种行为场景的数据化程度有了极大提高,每人每天都会产生大量数据信息。

“互联网公司在人工智能产业呈现赢家通吃的局面,数据的真正所有权并不在用户手中,大量的信息数据被少数人垄断。”[9]例如,京东和天猫“二选一”消费自2017年开始就愈演愈烈,从618再到双十一,购物狂欢背后是没有硝烟的商业垄断竞争。在“二选一”的斗争之中,平台的商家、消费者都对合理公平的市场竞争表示期待,同时,对用户的合法权益被互联网市场巨头利用市场优势进行支配的情况表示隐忧。

(五)信息传播的效果:缺乏有机融合

人工智能技术仍处于初步应用阶段,需进一步拓展和深化,还存在信息茧房和低俗内容传播等问题。“精准化和个性化的新媒体内容分发模式相比传统媒体而言更具优势,能够实现多元信息交互的圈层之间的融合,但是圈子以外的信息数据却被算法屏蔽,这并不利于信息的交流和传播,这样的结果必然只会导致用户接收信息的局限和单一化。”[10]大数据和算法程序的开发虽然有效提升了用户需求与信息资源之间的对接效率,但是同时也导致了信息茧房等问题的出现。

例如,抖音、今日头条、西瓜、火山小视频这些App,准确地知道用户的兴趣以及相应的浏览痕迹和特征,会适时推送用户感兴趣的信息。“媒体通过用户精准画像加深对用户信息的了解,推动媒体运营向精细化、个性化方向发展。”[11]但它是以用户的主观偏好为导向进行的信息精准投送,只是一味迎合用户的个人需求,并没有考虑到对用户信息接收的渠道和价值导向的禁锢隐患,会形成信息茧房效应。

同时,人工智能的初步应用带来的内容质量参差不齐的现象也有所显现。2014年,微软小冰在微博回复中屡爆粗口,可谓是人工智能技术不成熟应用的典型案例。微软回应称,微软小冰说的脏话主要出自广大网友制造的内容,小冰的语料库全部来自互联网页大数据公开的信息,虽已经经过了严格的过滤和审核,但仍然会存在疏漏。人工智能与大数据的结合应用,也突出体现了大数据的道德伦理困境。

四、基于人工智能的信息传播模式风险治理路径

针对信息传播模式中可能诱发的风险问题,我们首先要进一步深化人工智能技术伦理约束,同时,提升人工智能开发者的责任感和道德想象力,并加快人工智能伦理规范完善的步伐;要进一步推动人工智能的宣传教育,提升用户的媒介素养和网络素养;不断强化政府内容的平台监管,承担应有的社会责任。

(一)推进算法的道德化,构建有道德的算法

“道德算法是指那些合乎人文伦理和社会一般行为规范的算法,这样的算法设计可以提高自主信息处理和决策系统的安全性和稳定性。”[12]而实现道德算法的路径,主要可以分为自上而下路径、自下而上路径和混合式路径。自上而下路径的核心思想是将算法的道德原则和一般行为规范进行梳理,使得算法开发者能够通过量化智能系统的操作行为来确定算法本身与一般伦理规范的匹配程度。自下而上的路径强调人工智能的自主性,认为其可以通过机器学习以及自身适应系统的演进在具体的伦理情境中生成一套具有高度适应性的伦理原则。相比自上而下的路径,它强调数据在算法之前,通过对数据集的后天训练生成精准的推理机制。混合式路径是将前者的数据驱动和后者的数据驱动相结合的综合方式,三者的伦理机制都要求算法设计者拥有敏锐的道德察觉性。

数据处理前,首先,算法开发者应该了解当前数据处理状态,审查现有数据与数据道德、合规性驱动因素的符合程度,对组织数据全生命周期的数据使用情况提出数据道德监督规范。其次,算法开发者要确定数据道德原则、实践和风险因素,要基于数据道德规范进行数据处理,降低数据滥用风险,使其符合法律和合规性要求。比如,算法开发者要明确指导原则,保护人的隐私权,明确可以访问的个人数据,对信息系统访问权限进行审查。总之,算法开发者应该引入社会责任的数据道德风控模型,坚守数据道德基本原则,即尊重人、善意和正义。

(二)完善人工智能伦理规范,引入隐私保护设计

2018年5月25日,欧盟出台《通用数据保护条例》,旨在完善人工智能应用领域,确保开发者以尊重个人隐私权的方式处理个人数据。该条例从隐私保护、知情权、访问权、更正权、可携权、删除权、限制处理权、反对权以及自动化个人决策相关权利等方面对数据权利进行阐述。对个人数据主体权益的保护不仅依赖于法律等社会规范,也依赖于技术的具体落地。条例将隐私保护设计作为基本要求,“隐私保护设计属于价值敏感设计的范畴,价值敏感设计主要依据概念阶段、经验阶段和技术阶段实现对个人的隐私和信息安全保护”[13]。而欧盟最新颁布的《通用数据保护条例》第25条所规定的数据设计保护和默认保护正是从技术角度强调了对个人数据主体权益的保障,然而,这条规定本身存在一定的模糊性,要求将人类的价值理念嵌入算法设计程序之中,防止数据滥用造成用户隐私泄露。

例如,欧委会副主席韦斯塔格曾公开表示,人脸识别身份验证的技术对欧盟现行的《通用数据保护条例》有关规定而言是一种违规行为。条例的第六条明确要求平台在取得用戶的知情同意权后才能进行数据的收集和开发。英国航空公司就在2019年7月8日曾因为违反《通用数据保护条例》而被罚款达1.8亿英镑。

(三)建立基于权利的数据共享机制,主张有规范的数据共享

“数据主义主张绝对的数据共享,这种数据主义与基于权利的数据伦理有所冲突。基于权利的数据伦理支持数据共享,但是反对不尊重个人权利的共享数据行为,无序无节制的共享数据行为。”[14]基于权利的数据共享倡导以人的个人权利为本,保证用户个人隐私权和知情同意权是平台对数据开发和使用的前提,数据的征用和收集应该先取得用户的同意。比如,相关的网站和APP平台指定的隐私条款中应该遵守最少原则、合理规划对用户数据的开发范围。目前,不少组织机构也在致力于推动数据共享,制定了许多个人数据权利保护的条例。

(四)完善反数据垄断执法工作,探索数据必要设施相关的规则体系

从监管层面看,一旦某一主体发展到一定规模,它就要受到极为严格的监督和控制,否则就有可能使竞争者丧失创新的可能性,更重要的是屏蔽链接是与互联网共享的本质相违背的。因此,超级平台要遵循中立性原则,以此来防止这种垄断行为侵害公众的利益。一方面,政府应该完善对于数据垄断行为的行政约束和监督制度;另一方面,行业内部应该建立与数据开发规范相关的规则体系。“应在考虑数据必要设施界定对相关行业投资和创新影响的基础上,结合竞争者标准、公共利益标准、消费者标准等规则,按照数据的不可复制性和拒绝开发没有正当理由的形式加以认定。”[15]完善的数据应用机制可以防止数据的滥用和寡头垄断行为的发生。

(五)自我参与式的数据分析和平台承担社会责任

算法把用户的观点、兴趣封闭在一个领域,使他们的认知受阻。这样就带来一种群体极化的负面效应,并提醒我们要提高平台的责任意识和法律意识,从而规范我们的传播技术。

主体可以追踪数据信息,能动地反省自身内在的价值理念和价值诉求,之后依托自我参与式的数据画像和数据分析不断地改进自我。主体“需要走出过度地攫取数据的迷思,树立数据有度的观念,对非人格化的算法权力加以必要的节制,充分揭示当下具有高度侵略性的数据监控模式对主体能动性的侵蚀,深入辨析其对个体行为的自由度和潜在可能形成的高度制约性”[16]。互联网平台面对流量变现的利益链要保持警惕,守住底线,承担社会责任。比如,无节制的算法推荐,就极易导致用户信息的窄化,这明显与社会对媒体平台作为守望者角色的期待是不相符合的。解决这样的问题必须提高平台的算法程序和相关技术的管理能力,注重平台服务的网络素养,以促进人工智能时代信息传播的健康、安全发展。

[参考文献]

[1]算法导论学习笔记[EB/OL].[2020-12-06].http://www.cnblogs.com/wuwenyan/p/4929185.html.

[2]蔡立媛,李晓.人工智能广告侵犯隐私的风险与防御[J].青年记者,2020(18):93-94.

[3]王洋,刘炜.高校信息安全的现状探讨[J].信息与电脑(理论版),2017(23):201-202.

[4]李开复.AI·未来[M].杭州:浙江人民出版社,2018.

[5]王颢.深度学习在图像识别中的研究与应用[J].科技视界,2020(24):37-38.

[6]黄芳,苏桂莲,毕济慧,等.科普资源大数据平台构建及个性化推荐研究[J].信息与电脑(理论版),2020(11):137-139.

[7]李晓静,付思琪.智能时代传播学受众与效果研究:理论、方法与展望——与香港城市大学祝建华教授、斯坦福大学杰佛瑞·汉考克教授对谈[J].国际新闻界,2020(03):108-128.

[8]张成瑞.论人工智能对视听信息传播的影响[D].哈尔滨:哈尔滨师范大学,2019.

[9]李开复:AI的“电网电池”之战[N].中国青年报,2018-09-04.

[10]孙士生,孙青.大数据时代新媒体的“信息茧房”效应与对策分析[J].新媒体研究,2018(22):7-10.

[11]王晓红,金盈盈.基于人工智能技术的突发公共事件政府舆情应对[J].新媒体研究,2020(15):56-59.

[12]李伦,孙保学.给人工智能一颗“良芯(良心)”——人工智能伦理研究的四个维度[J].教學与研究,2018(08):72-79.

[13]李伦,黄关.数据主义与人本主义数据伦理[J].伦理学研究,2019(02):102-107.

[14]李伦.“楚门效应”:数据巨机器的“意识形态”——数据主义与基于权利的数据伦理[J].探索与争鸣,2018(05):29-31.

[15]刘志成,李清彬.把握当前数据垄断特征 优化数据垄断监管[J].中国发展观察,2019(08):45-48.

[16]段伟文.面向人工智能时代的伦理策略[J].当代美国评论,2019(01):24-38,120.

猜你喜欢
治理路径信息传播人工智能
2019:人工智能
人工智能与就业
数读人工智能
怎样提升乡镇政府治理能力
网络舆论对公共政策制定的影响
媒介融合背景下对新闻记者素质的要求
如何进行突发事件中的舆情引导
下一幕,人工智能!
矿业城市生态环境治理的实践路径
高校校园网络安全问题与治理研究