新闻视域下人工智能技术的伦理困境与破局

2021-12-09 01:16刘玉菡
新闻研究导刊 2021年18期
关键词:新闻伦理新闻生产人工智能

摘要:人工智能技术目前在新闻业被广泛应用,技术利用计算机程序生成新闻稿件,大大提高了新闻生产的效率,算法推荐下的新闻分发也一定程度上帮助用户缓解了信息过载的压力,但是技术的应用也伴随着新闻生产“黑箱化”、编制用户“信息茧房”、侵犯用户隐私、引发人类技术焦虑等新闻伦理问题,只有平台推进算法透明化、公众加强媒介素养、国家完善法律建设,才有解决问题的可能。

关键词:人工智能;新闻生产;新闻伦理;困境与破局

中图分类号:G210.7 文献标志码:A 文章编号:1674-8883(2021)18-0019-03

21世纪以来,人工智能技术飞速发展,随着算法的逐渐成熟,人工智能技术已经成为人们感受世界、接收信息、了解环境的重要中介。新闻传播过程的各个阶段都有了人工智能技术的参与,如素材采集、新闻生产、编辑发布等。VR新技术的使用、“机器人写作”以及人工智能主播(以下简称“AI主播”)等应用推动了新闻内容的智能化生产与播报,解放了部分新闻工作者的劳动力,此外,内容深度定制、海量推送及加强互动等方式的应用实现了新闻的个性化分发。

一、新闻视域下人工智能技术的典型应用

(一)算法辅助新闻生产

人工智能技术运用算法对数据库和其他数据源进行识别分类,清洗梳理原始数据,通过高速运算甚至能得出基于大数据的探索型发现或规律,生成比较有说服力的数据新闻,例如往年的“数说春运”,这是以往定性的新闻报道难以做到的。由此而得出的新闻也被称作“自动化新闻”“机器人新闻”“算法新闻”或“计算新闻”[1]。

具体到新闻实践中,很多平台有自己的写稿机器人,比如腾讯的Dreamwriter、今日头条的xiaomingbot等,写稿机器人运行第一步是在浩瀚数据库中找出满足主题要求的或者用户感兴趣的数据资源,然后依托云计算平台,将数据信息清洗、梳理,按照要求格式进行组稿,最后将生成完整的新闻信息推送给大众。简单来讲,“机器人写作”就是利用计算机程序制作新闻稿件。其优势在于可以大批量、标准化生产新闻信息,因此在财经类、体育类新闻及突发事件报道等垂类应用较多。

(二)人工智能实现个性化分发

目前,新闻的分发机制已经历了三个阶段,依次是专业化分发模式、社交关系分发模式和人工智能算法分发模式。人工智能技术因其优势被广泛使用,智能算法分发迅速发展成为目前的主要分发模式。

算法推荐的工作流程是先跟踪记录用户的行为数据,描绘出用户画像,再根据用户画像对符合其兴趣和需求的内容进行聚类推荐。随着机器学习的不断深入,深度内容定制已在多个新媒体平台“大显身手”,内容聚合类平台如今日头条、腾讯新闻等,通过算法给平台用户推荐符合其兴趣的专属定制报纸;视频服务类平台如西瓜视频,通过人工智能为用户推荐其喜爱的视频类型,同时帮助视频创作者找到自己的作品受众,为作者创收。此外,算法推荐目前在各种生活服务类平台的应用也越发普遍,如淘宝的猜你喜欢就是根据用户的搜索、加购情况以及商品特点、价格来推荐类似的商品,以此推动用户下单,提高用户的完单率。

(三)AI主播播报新闻

以媒介技术为划分标准,当前主播类型可包括:传统媒体主播(广播电视主持人、播音员)、新媒体主播(网络直播主播、短视频播主)、虚拟主播(AI主播、虚拟偶像)[2]。在新闻领域,AI主播已经屡见不鲜了。在2018年举办的世界互联网大会上,搜狗联合新华社发布了全球首个全仿真智能AI主播。

AI主播的优势在于高效率、低成本,只要输入文本,设定算法,就可以快速对数据进行整理归纳然后合成新闻稿件,进行新闻输出,在反应速度上会超越真人主播,可以最大限度地满足新闻时效性。而且,基于算法的可靠性,AI主播播报的新闻稿件质量比较稳定,播报也不会出现读错字的情况。所以AI主播不管是在信息处理能力上,还是工作效率和情绪稳定上,都有着人类不可超越的优点。但AI主播也有其不足,比如創造力不够,个性不够鲜明,缺乏情感温度等,这也使得目前AI主播只能起到辅助播报的作用,难以真正替代真人主播[3]。就目前已发布的AI主播的形式来看,其形态、语言以及微表情等方面距离人类主播还有较大差距。因此在人工智能背景下,“真人主播+智能辅播”将是一种更长远的发展方式。

二、人工智能技术应用产生的新闻伦理困境

人工智能的应用推动了整个新闻业的变革。在新闻生产流程中,人工智能在数据收集、自动写稿、编辑发布等方面都具有独特优势,将新闻工作者从烦琐重复的劳动中解放出来,让他们有时间精力专注到深度创作上。但是与此同时,人工智能创作的新闻其信息性、知识性和公共性出现滑坡,导致受众对社会公共利益的关切逐步让位于个人兴趣。不仅如此,人工智能技术在新闻业的应用还带来了一系列的新闻伦理问题。

(一)新闻生产“黑箱化”

工程师设定完算法体系后,算法就被赋予了生命力和自我学习进步能力。算法型生产方式的本质是一种“无监督式学习”,“无监督式学习”是指输入数据和输出成果之间的过程不透明、不可观察,即新闻生产的“黑箱化”[4],因此,算法进行新闻生产时,收集信息源、清洗线索数据、组稿以及把关的过程都是“暗箱操作”的,人看不到算法的操作逻辑,也没办法预知或者解决一些可能出现的问题。而且因为算法生产采用的新闻源通常来源丰富,链路复杂,所以即便是人工进行新闻编审,在工作量及难度等方面都有很大挑战。新闻生产过程的不确定性以及生产后的核查困难双重因素导致算法生产的假新闻的出现概率要远大于传统的新闻生产方式。此外,在算法“内容聚类排序”的分发逻辑下,一则假新闻会带来更多假新闻,加剧假新闻的扩散传播。

而且不管算法通过怎样的程序生产新闻,单看新闻作品似乎没有体现人的价值观念,用户接受算法生产的新闻时,也不会觉得跟记者生产的新闻有所不同,然而事实往往并非如此。算法模型的创造者是工程师,搭建基础则是人类的行为数据,那么工程师设定算法时是否注入了价值观、人类的行为数据是否裹挟了主观观念,这些都有待考虑。

(二)引发“信息茧房”效应

在依次经历了媒體型分发、关系型分发之后,人工智能技术支撑的算法型分发成为媒介应用的主要模式,“信息茧房”作为算法型分发下的必然产物,最先由凯斯·R·桑斯坦在《信息乌托邦》中提出,指的是受众长期只接收自己感兴趣的信息,会被困在这种类型的信息环境内。算法通过跟踪用户行为,标记用户对不同类型内容的浏览情况,包括频次、稳定性等,对用户喜好进行标签、归类,然后给各类用户推送符合其喜好的内容。因为算法的运作过程不透明,这种兴趣偏好的判断标准未必准确,用户可能只是误触了某条信息,就被算法判断为感兴趣然后不断推送相似内容,所以茧房内的信息未必是用户真正感兴趣的,而且很容易使用户偏好转向低趣味和猎奇性。“信息茧房”的内容同质化,不仅造成用户接收信息面的窄化,也会在新闻市场产生“劣币驱逐良币”的后果,将有关公共议题的优质内容逐渐边缘化[5]。再者,封闭的“信息茧房”内,用户的情绪及想法极易被引导操纵,个体观点也会被同质化内容反复强调,直至根深蒂固,很容易导致用户形成极端的单一化观点,如果极端观点“抱团”后进入公众视野,会直接造成群体极化,威胁公共领域,驱逐公众的理性批判以及言论自由。

(三)出让用户个人隐私

企业获取用户数据的手段是多样的,或者说是悄无声息的,比如各大平台的“内容搜索框”就是搜集用户需求数据的有效手段,而采用第三方账号登录新平台也是另一种获取用户数据的方式。媒介经营者根据获取到的用户数据对用户进行“建档”、分层,然后基于用户的“需求数据”实现精准的内容投放,网络社会下每个人都处于信息爆炸的环境中,而算法推荐在一定程度上帮助用户缓解了信息过载的压力,对用户来说,符合自己口味的个性化定制报纸确实要比面面俱到的报纸更吸引人、更具可看性。随着算法的精细化发展与广泛应用,各大互联网企业采集用户数据已是常态,甚至很多移动端应用已经到了不采集个人信息就不能运作的地步,用户的行为数据是提供个性化服务的前提,但获取用户数据后使用不当则会侵犯用户隐私。因此用户如果想使用服务就需要对自己的隐私安全边界做出让步。

拥有数据越多责任就越大,如果互联网公司的数据库泄露,用户的个人隐私将直接遭受破坏。近期,国内网约车巨头滴滴出行因违规收集用户信息、威胁用户的人身安全而被整顿,国外的Facebook也因泄露5 000万用户信息参与政治引起舆论一片哗然。当今社会,用户数据是一笔价值不菲的资产,同时也是一种责任负担,如果没有相匹配的数据保护意识和能力,最终也将失去用户和市场。

(四)制造人类“技术焦虑”

人与技术的关系是学界探讨的永恒话题,与其他技术不同的是,人工智能具备优异的自我进化以及学习能力,甚至具备一定的“当家作主”的能力,其发展水平越接近于人类越能发挥作用从而受人类青睐。但是目前人工智能技术发展速度飞快,其带来的很多问题都走在人的感知与反应前面,人类只能被动地修补问题,比如调整算法、完善立法等,因此很多问题的解决都有些迟钝,而且整个反应过程体现了人工智能技术的引领性,人类发挥主体性的空间较窄。

回顾历史,焦虑通常诞生于未知,当技术风险及发展方向可以被人类牢牢把握时,就不会过于焦虑,然而职业围棋选手AlphaGo在比赛中取胜的时间远远早于专家预测的20年周期,其超出人类预测的发展速度引发了普遍的技术焦虑。在新闻领域,中国地震台网的地震报道编写发布用时只需25秒,今日头条的一篇体育资讯只需2秒,南方都市报编写一则春运文章只需1秒[6],机器人可以取代部分新闻工作者的工作也使得“职业消亡”的论调甚嚣尘上。未来人类与人工智能技术的相处模式如何,彼此关系将走向何方引起学界高度重视。

三、新闻伦理困境的破局之策

智能媒体时代,传统的新闻伦理频繁被人工智能技术挑战,如何从人类主体性出发解决人工智能带来的新闻伦理问题成为学界的关注焦点,这种思路的根基在于技术中性论。只有把技术作为一种中性工具,才有可能去把握技术,解决技术带来的问题。尽管在学界对于“技术中立论”的看法各有不同,前有芬伯格(Andrew·Feenbeyg)在《技术批判理论》一书中体现了自己的技术伦理观念:“技术不是道德中立的,具有阶级偏见”,后有库兹韦尔(Ray·Kurzweil)预言的21世纪中叶人工智能“奇点”——强人工智能时代逐渐逼近[7],但是国内学者的实用派研究基本还是持一个技术中立的立场,尤其是善用技术,发挥人的主体性不被技术反控制这点上基本达成了共识。

(一)平台承担责任推进算法透明度

商业利益与媒体公共性一直都是天平的两端,市场经济的高速发展,使得媒介机构逐渐往利益目标倾斜,丢失了部分公共性、独立性与客观性,伤害媒体的立身之本。在这种情况下,平台更应该回归自身的公共属性,承担社会责任。技术中立不是平台逃脱社会责任的借口,推进算法透明化更需要平台作为主要行动者。

算法透明化可以有效缓解“新闻生产黑箱化”带来的焦虑,公众提前知晓算法中的价值观导向有利于公众更客观地把握新闻内容。不少新闻机构已经在推进算法透明度方面做出尝试。例如纽约时报就专门开设了“公开”(Open)的博客,发表相关文章来普及新闻技术[8]。除了推动算法透明化之外,还应该在应用层面扩大算法推荐关键词的关联范围,为用户提供更加广泛的新闻内容,扩展信息面,弱化信息茧房的负面影响。

(二)智媒受众提高自身媒介素养

尼尔·波兹曼认为,新兴技术迅猛发展的必然结果是将人置于全面的技术垄断之下。信息网络叠加人工智能技术,将用户牢牢地“锁在”信息茧房内,越来越多的智媒受众沉迷于其中,失去了对时间的判断尺度,原本只是随手点进了一个感兴趣的内容,结果看完后紧接着推荐了类似的自己感兴趣的内容,使得用户深陷其中不能自拔,丧失了自身主体性。

在这种情况下,要想冲出“茧房”还是要靠受众自身。受众要学会判断信息的真伪虚实,了解人工智能技术的基本逻辑,独立判断数据和算法背后的政治、经济、文化等因素的影响,而不是对信息全盘接收,努力做到从媒介附庸向媒介主人的回归。此外,受众应培养独立、理性和批判的信息接收习惯,目前使用算法推荐的选择权逐步交到用户手中,比如淘宝APP用户可以关闭个性化推荐商品,腾讯的隐私功能中也提供了关闭个性化广告的选项,是否使用智能算法推荐服务,受众可以在保持批判性的基础上谨慎作出选择。最后,要培养主体意识,树立主人翁观念,要信息为我所用,而不是我为信息所役[9]。

(三)加强法规建设防范伦理风险

新事物新技术总是以双刃剑的形式出现,推动行业发展的同时会附带新的问题。人工智能技术迅速发展引起的一系列数据安全问题,相关部门迅速响应,根据现状完善了相关法律法规。2017年,国务院发布《新一代人工智能发展规划》指出,要初步建立人工智能技术相关的伦理规范和法律法规。2019年国家互联网信息办公室发布《网络安全威胁信息发布管理办法(征求意见稿)》,把智媒及算法传播的发展纳入政府监管中。

总的来说,尽管相关部门响应快速,但是问题出现后再筹划解决对策的处理方式多少有些被动,为此,业界和学界需要共同努力,未雨绸缪才能在问题出现之前做预防,发挥主体作用。

四、结语

人工智能技术的应用革新了新闻业态,但是其带来的新闻生产黑箱化、损害新闻客观性、侵犯用户隐私等问题也亟待解决,面对已出现的问题,只有平台方联动受众以及相关部门完善法律法规,才能为人工智能技术的良性发展保驾护航。此外,“发明”與“服从”从来不是必然因果,人类与技术的关系也绝不是简单的利用,未来的人类与人工智能的相处模式一定是人机协同,只有人与技术之间达到一种和谐统一的状态,合理、规范地利用技术为人类社会服务,才是长久发展之计。

参考文献:

[1] 张梦,陈昌凤.智媒研究综述:人工智能在新闻业中的应用及其伦理反思[J].全球传媒学刊,2021,8(1):63-92.

[2] 喻国明,张珂嘉.重识主播:试论媒介化视域下主播符号内涵与影响力触达[J].中国出版,2021(11):11-18.

[3] 杨菁菁.试论人工智能背景下的“AI合成主播”[J].新闻世界,2021(5):77-81.

[4] 筠茜,陈昌凤.黑箱:人工智能技术与新闻生产格局的嬗变[J].新闻界,2018(1):28-34.

[5] 姚文康.聚合类新闻客户端的“信息茧房”效应及反思——以“今日头条”为例[J].传媒论坛,2020,3(3):151,153.

[6] 秦煦,周长城.新闻领域人工智能应用的伦理风险及治理[J].新闻知识,2019(12):37-40.

[7] 李穆清.马克思科技伦理视域下人工智能时代人的主体性危机研究[D].大连:大连理工大学,2021.

[8] 季芳芳.如何认识新闻伦理层面的算法透明度[J].中国报业,2018(5):28-30.

[9] 宫承波,王玉凤.主体性异化与反异化视角的智能传播伦理困境及突围[J].当代传播,2020(6):79-81.

作者简介:刘玉菡(1994—),女,山东青州人,硕士在读,研究方向:广播电视传媒。

猜你喜欢
新闻伦理新闻生产人工智能
2019:人工智能
人工智能与就业
数读人工智能
灾难新闻报道中的媒介伦理失范探析
下一幕,人工智能!
灾难报道中的伦理失范与规范
网络新闻生产中的道德绑架现象与规避
社交媒体时代突发事件报道面临的新问题
今天传统媒体的新闻生产有了哪些改变