人工智能时代个人数据共享与隐私保护之间的冲突与平衡

2019-03-01 06:58王岩叶明
理论导刊 2019年1期
关键词:人工智能时代隐私保护

王岩 叶明

摘要:人工智能时代个人数据共享和隐私保护在自决隐私、空间隐私以及信息隐私领域存在激烈冲突,究其原因在于新的技术背景下公共利益与私人利益的博弈、数据财产利益与人格利益的分歧。为充分挖掘数据资源的价值,实现人工智能时代数据共享与个人隐私保护冲突过程中多元利益的平衡,在处理数据共享与隐私保护之间关系上应遵循公益优先原则、比例原则和个案平衡原则等基本准则。此外,还应尽快制定全国性的数据共享促进及保护的法律,通过立法明确数据共享的范围及限制,严格规定数据共享的程序,强化数据共享的监管,健全数据共享侵犯隐私的责任和救济机制。

关键词:人工智能时代;个人数据共享;隐私保护

中图分类号:G203文献标志码:A文章编号:1002-7408(2019)01-0099-08

基金项目:国家社科基金一般项目“移动互联网领域反垄断法实施疑难问题研究”(18BFX149);西南政法大学人工智能法律研究院学生科研创新项目“人工智能时代数据孤岛规制法律问题研究”(2018-RGZN-XS-SS-01)。

作者简介:王岩(1994-),女,山东莒南人,西南政法大学经濟法学院硕士研究生,研究方向:竞争法、金融法;叶明(1972-),男,四川绵阳人,西南政法大学经济法学院教授、博士生导师,研究方向:企业法、竞争法。

随着人工智能时代的到来,数据逐渐渗透到人们生产和生活的各个方面,智能理财、智能语音助手、智能购物推荐的实现都离不开对公民数据的运用。数据成为和人力资本、物质资产同等重要的生产要素,以企业为代表的商业主体和以政府为主的公共机构对于公民数据的需求比以往任何时代都更加迫切。实现数据流通与共享成为推动人工智能时代产业升级、科技创新和提升政府治理能力的必然选择。然而,数据共享和个人隐私保护之间却天然地存在利益冲突且关系日趋紧张。这是因为数据深度挖掘在促进产业创新的同时,也将我们时刻暴露在“第三只眼”的监视之下,“人人透明”的社会环境使得个人隐私保护举步维艰。相对地,旨在保障公民自由与尊严的隐私权制度也导致数据需求者无法顺利收集、传递、使用某些公民数据,数据共享进程严重受阻。针对此情状,如何通过法律制度设计来平衡两者之间的利益与价值,如何在追求数据共享带来的巨大经济和社会价值的同时,最大限度地保护个人的正当隐私利益,成为当前亟需解决的问题。

一、人工智能时代个人数据共享与隐私保护冲突的表现

个人数据是指可以单独识别或者与其他信息相结合而识别出特定个人的所有数据或信息[1],包括但不限于个人身份信息、基因信息、电话号码、家庭住址、网络浏览记录、购物记录、医疗信息等。个人隐私则是指现代社会中自然人享有的私生活安宁和私人信息依法受到保护,不被他人非法侵扰、知悉、搜集、利用和公开等的人格权[2],其保护范围涵盖了自决隐私、空间隐私和信息隐私三大领域。但是,出于公民数据蕴含的巨大经济社会价值以及信息自由的客观要求,人工智能时代的产业发展、政务管理和科技创新都在迫切要求进行数据共享,即通过交易、交换、转移等多种形式使得数据能够为不特定的人所使用,而这种共享又必须以收集、存储和利用部分公民数据为必要条件。因此,个人数据共享与隐私保护在以下三个方面存在激烈冲突。

(一)数据共享与自决隐私保护的冲突

所谓自决隐私权,是指公民享有的对自己人身及生活方式作出决定和选择的权利,例如公民在是否避孕、堕胎、同性恋、安乐死以及如何抚养和教育孩子等方面的自决权[3]。在美国隐私权保护的发展过程中,更是通过Griswold v. Connecticut案中联邦最高法院对于避孕自决隐私权的确认[4],奠定了隐私权作为美国一般性宪法权利的地位。自决隐私保护能够维护公民作为独立个体的地位,确保公民依照自己真实想法不受他人干扰地决定自己的事务。但是,随着互联网、大数据、人工智能等技术的发展,个人数据在科研、商业、公共服务和管理等领域的应用日趋频繁,数据共享与公民自决隐私保护之间的矛盾冲突也愈加尖锐。

一方面,人工智能时代频繁的数据共享极易导致公民的自决隐私受损。其主要表现为以下两点:第一,数据共享可能会限制公民的自决选择。以智能推荐为例,一些购物网站或者新闻APP会根据用户之前的浏览数据为用户推荐相应商品和服务,然而,这些商品或服务是否是我们真正所需?摒弃数据预测为我们提供的选项,我们是否可能作出其他选择?再比如“Facebook泄露门”中,剑桥分析公司窃取Facebook用户资料,根据数据分析得出用户心理偏好和政治倾向,进行新闻等竞选资料的精准推送,达到操纵民意的目的[5]。在这种情况下,无论用户能否察觉,实质上其个人选择都很明显地受到数据预测结果的影响,个人自由意志实际上已经被数据共享的成果所绑架。第二,数据共享可能会泄露公民的自决隐私信息。人工智能时代的数据共享可以通过对传统碎片化数据资源的整合利用,形成对一个人清晰的“人格剖面图”,个人的喜好、性格特点乃至更加敏感的财务、政治倾向、性取向等信息都会被毫无保留地显示出来。例如,据《纽约时报》报导,美国零售商target能够在不与一位女士对话的前提下,通过收集其搜索数据进行相关关系分析,得出该女性是否怀孕的隐私信息并向其邮寄相关优惠券[6],这无疑是对公民自决隐私的极大侵犯。另一方面,自决隐私保护的过度主张或滥用也会导致人工智能时代数据共享严重受限。人工智能时代产业发展和科技创新对于数据的需求极为迫切,据报告显示,有426%的受调查企业都表示数据资源短缺是制约企业发展的重要因素①。在此背景下,公民对于自决隐私保护的过度主张或者滥用必然会限制某些数据的收集和利用,从而妨碍数据资源经济价值和社会价值的实现。

(二)数据共享与空间隐私保护的冲突

空间隐私权是指当事人特定私密空间不受他人非法窥伺、侵入、干扰的民事权利[7],其适用对象既包括传统的物理空间也包括移动通讯、日记、通信、电子聊天室、电子邮箱等虚拟空间。具体而言,空间隐私权具有两方面特点:第一,空间隐私权保护的对象是私密空间。私密空间所涉及的空间是人格意义上的空间,它既包括有形的空间也包括无形的空间,该空间既可以存在于私人领域,比如私人住宅,也可以存在于公共场所,例如超市的储物柜;而且,它并不局限于生存空间或者权利人所有的空间,还包括其他个人合法支配的空间,其衡量标准是权利人对于该空间隐私的合理期待利益[8]。第二,空间隐私权防范的是非法侵入行为,包括物理侵入和非物理侵入两种方式。而随着科技发展,物理型侵入行为已经较少发生,侵犯空间隐私的行为更多地表现为窃听、监视等窥探行为和电话、电子邮件等骚扰行为。其中,规制窥探隐私空间行为的正当性基础在于其伤害了权利人对于空间隐私的合理期待利益,禁止骚扰隐私空间的行为则是为确保权利人在其隐私空间可享受到安宁的生活状态。

人工智能时代数据共享与空间隐私保护的冲突主要表现在两方面:一方面,隨着网络技术的发展,利用各种黑客程序、cookies、病毒程序侵犯个人空间隐私变得更加隐蔽和容易,人们的感官能力通过数据共享得到了进一步提升,即窥伺你隐私空间的人可能处于千里之外。并且,数据共享扩大了隐私空间被侵犯的危害后果。网络上的空间隐私数据通过数据共享能够被不同主体瞬间获取和存储,数字化的记忆使得遗忘比以往任何时候更加困难,各种侵权信息可能长期留存在网络和不同主体的存储载体之上,时刻有可能被重新上传或者下载,很难完全消除负面影响。另一方面,空间隐私的保护可能会阻碍数据共享的有效运行。以位置数据为例,位置数据的共享可以帮助计算某个时段、某个地点的人流量及影响因素,计算景点热度和区域流量,有助于交通管理部门提升交通管理水平,也有利于企业制定营销计划和商场选址等。此外,为现代社会中个人出行提供了极大便利的导航系统,诸如百度地图、谷歌地图,其运行也离不开位置数据的共享。但是,位置数据关涉到每个人的地理位置,属于典型的空间隐私数据,如果大多数用户都以空间隐私保护为由拒绝共享位置数据,那么上述一切位置数据共享的益处都将成为空谈。

(三)数据共享与信息隐私保护的冲突

最初的信息隐私权主要是作为一种消极防御的权利而产生,是指公民享有个人信息不被擅自公开的权利。而目前,随着计算机、大数据等技术的发展,个人信息一旦被泄漏到互联网上将很难被收回或恢复原状,因此信息隐私权逐渐从消极防御的权利向积极利用的权利转化[9],强调个人对自己信息的控制和利用。例如,美国就将个人对自己资料的控制作为隐私权加以保护[10],德国联邦宪法法院也在1983年人口普查案中肯定了个人有权决定何时于何种范围内公开其个人信息,创设了个人信息自决权[11]。

人工智能时代数据共享与信息隐私保护的冲突主要体现为以下两点:其一,人工智能时代的数据共享对个人信息隐私保护带来了新的挑战。首先,除政府掌握的一些公共数据资源之外,目前个人网络行为数据的控制权多掌握在以互联网公司为主的企业主体手中,而企业出于“经济人”的自利本性,很有可能会滥用数据共享,侵害个人的信息隐私。其次,数据共享本身就是对碎片化数据资源的整合,即使每一部分数据的用途都经过了个人同意,也有可能通过整合利用产生个人不愿意公开的隐私信息。最后,数据共享涉及到政府、企业、科研机构、公众等多元化主体,蕴含个人隐私信息的数据一旦进入共享过程就犹如脱缰野马一般不受控制,很难去追溯某位公民的个人信息究竟落入哪些主体、多少主体手中,进而也就无法彻底清除自己的隐私信息。其二,个人信息隐私保护也为人工智能时代的数据共享带来了一些阻碍。一方面,个人隐私信息范围界定的模糊性导致数据共享极易陷入侵权风波。随着互联网技术的不断进步,人们越来越习惯于借助网络工作、学习、生活和社交,也在网络上留下了大量记录着个人信息的数据痕迹,可以说人们每天都在公开自己的个人信息。在此背景下,除身份证号、电话号码等与识别特定个人身份密切相关的信息,数据收集主体根本无法准确辨别哪些信息属于个人隐私信息,因此极易在毫无察觉的情况下侵犯用户隐私权。另一方面,严格的个人信息隐私保护会加重数据主体的负担,比如数据收集主体的通知成本、修改和删除成本等,即使这些负担可能是合理的,也会抑制数据主体的共享意愿。

二、人工智能时代个人数据共享与隐私保护冲突的缘由

数据是国家基础性战略资源,若要充分发挥数据资源的作用,就必须树立数据开放共享理念,大力推动数据资源开放共享和信息流通②。同时,公民的隐私权也同样重要。数据共享通过对数据资源整合利用可以刻画出公民的完整行动轨迹,个人的一举一动被毫无保留地记录、传播、存储,私生活的安宁和私生活的秘密都面临极大风险。在这种情况下,隐私权就成为个人在必要时得以坚持个人自主,对抗社会压力,维护个人尊严和自由的唯一防御墙。两者之间这种天然的对抗性其实可以追溯到利益层面,即公共利益与私人利益、财产利益与人格利益之间的冲突与碰撞。

(一)公共利益与私人利益的博弈

人工智能时代数据共享与个人隐私保护之间的冲突,在一定程度上可以归结为公共利益与私人利益的又一轮相互博弈。一方面,人工智能时代的数据共享无论是在目的上还是在功能上都具有显著的公益属性。就目的而言,人工智能时代数据共享其实就是为了盘活闲置数据资源,实现数据在政府、企业、科研机构、公众之间的自由流转与共同分享,从而促进产业发展和社会进步。就功能而言,人工智能时代的数据蕴含着巨大的经济价值和社会价值,其自由流通与共享有助于加快政府职能转变、提升政府治理能力,使得政府能够更加精确地掌握医疗、交通、卫生等方面的情况,提升公共服务质量;同时,数据共享能够为人工智能产业发展和制造业优化升级提供充足的“原料”,使用户享受更快速、精准的服务,节省自己的时间和精力成本,促进社会资源的最优配置,实现数据资源整体社会效用的最大化。另一方面,个人隐私保护自诞生之初就强调“不受他人干涉”,旨在保障个人所享有的私人生活不受干扰、独处的权利[2]21,体现出明显的私法自治特征。此后,随着社会发展和科技进步,隐私权的内涵逐渐扩张,个人隐私保护的范围也逐渐扩大到自决隐私、空间隐私和信息隐私等领域。但是,“凡是涉及个人不愿意公开的隐私,无论该隐私的公开是会给权利人造成积极影响还是消极影响,只要该信息不属于公共领域并且本人不愿意公开,就应当受到隐私权的保护”[2]21仍然是个人隐私保护领域必须遵守的铁律。可以说,自始至终,个人隐私保护都将维护个人尊严与自主放在首位,使个人得有所隐藏、有所保留,能够对抗外界社会的各种压力,维护自身的私人利益。此外,正如王利明教授所言,隐私天然地具有一定的“反社会性”,即个人将私人领域与社会领域相隔离,从而使自己享受一种独处的、不受打扰的安宁生活,这种需求在一定程度上是与社会的需求对立的[12]。因此,肩负促进产业、社会发展重任的数据共享与为维护私人合法权益的隐私权保护之冲突,其实质上是发生于“数据收集—数据利用—数据流转”这一循环共享过程中的公共利益与私人利益的博弈。

(二)财产利益与人格利益的分歧

人工智能时代数据共享与隐私保护发生冲突的另一层原因就是数据财产利益与人格利益之间的分歧。一方面,随着互联网、大数据、人工智能等技术的发展,个人数据越来越具有可利用的商业价值,数据中蕴含的财产利益也越来越凸显出来。比如,购物网站可以通过从用户那里收集的大量用户姓名、性别、身高、体重、住址、职业、爱好、浏览记录等数据制定个性化的营销策略,或者进行有针对性的商品推销活动,从而缩小企业生产和用户消费之间的信息不对称,降低企业的成本和提高企业的决策效率,优化企业资源的配置。同时,学界很多学者也针对数据的财产利益展开了研究,认为随着商业化数据活动的开展日益增加,简单地把个人信息视为仅具有人格价值显然是不符合实际的(龙卫球,2017),个人数据既具备财产性利益也具备人格性利益(石丹,2018),其已经成为了一种在市场中能够获利的无形财产(彭礼堂、饶传平,2006),我们应充分认识到数据的财产属性,强化数据本身的经济驱动功能(Lawrence Lessig,2000)。另一方面,传统隐私权理念强调对数据的保护其实就是基于数据所蕴含的人格利益,相较于数据的财产性利益,人工智能时代个人数据的人格价值同样不容忽视。在人工智能时代,我们每天都在不断地产生大量数据,诸如智能手机的定位数据、搜索引擎的浏览数据、网络购物数据、新闻阅览数据、智能导航数据等,这一切的数据通过数据共享集合在一起,就能形成关于一个人“衣食住行乃至未来行动”的详细侧写,而且这种描述往往比我们自己记忆中的更加准确。故通过数据共享就可以窥视到人们的生活乃至精神状态,发现人们想隐瞒抑或不想隐瞒的一切信息。这导致人工智能时代的公民时刻处于“第三只眼”监视之下,公民对于自己生活方式的自主选择和自身生活事务的自由意志、自己隐私空间的秘密与安宁、自身信息的控制都受到数据共享的侵害,甚至无法确定所作出的决定究竟是自己的选择还是数据的选择。因此,人工智能时代的数据实际上具有双重利益,数据共享注重对数据财产利益的保护,个人隐私保护则更加关注数据的人格利益,正是两者在重点保护利益上的分歧导致了数据共享与个人隐私保护之间的冲突。

三、人工智能时代平衡个人数据共享与隐私保护的原则

定纷止争是法律的基本功能之一,这一功能的实现则在于达成多元利益的平衡。具体而言,人工智能时代的数据共享强调数据自由流转与共同分享,代表公共利益与财产利益;个人隐私保护则代表私人利益与人格利益,两者之间难免存在冲突。然而,两者也并非完全对立。在某种程度上,公共利益與私人的利益诉求具有一致性,即公共利益其实就是具有普遍性的私人利益之集合。此外,以肖像权保护为例,保障权利人的财产利益也并不排斥对其人格利益的保护。故面对人工智能时代数据共享与个人隐私保护之间的冲突,不能简单地以任何一方为先,而是需要遵循一些特殊的法律原则,从而实现公共利益与私人利益、财产利益和人格利益的平衡。换言之,人工智能时代的法律既要保护个人的自主和尊严,又要考量数据共享的有效运行,对个人隐私保护作出一些限制。其在共享与保护之间应当遵循以下原则。

(一)公益优先原则

公益优先原则,是指在必要时出于公共利益的需要而对私人利益予以一定限制[13]。例如基于公共利益的考量,允许医疗机构共享某些特殊患者的数据或者病例资料,以促进医疗技术的提升和医疗产品的创新。在司法实践中,公益优先是限制个人隐私保护无限扩张的一个重要理由。一般而言,若某一数据共享行为与社会公共利益具有较大关联,则应当限制公民隐私权的行使,禁止公民以保护个人隐私为由阻碍数据共享;若是单纯基于商业利益或者与公共利益无关的数据共享行为,其对于公民隐私数据的披露则有可能构成侵权。故某些数据能否共享或者某些数据共享能否进行,关键就在于数据共享行为与公共利益是否存在合理关联以及关联程度。当然,公益优先原则并不意味着对个人利益的一味压制,恰恰相反,维护公共利益是个人利益得以良好实现的前提。一方面,公共利益是普遍性个人利益的集合,比如,我国《刑法》分则第二章规定的危害公共安全罪表面上是对公共秩序的维护,实质上也是对每位公民能够享有稳定、安全的生活环境这一利益诉求的保障。另一方面,私人利益的有效维护也依赖于良好的社会环境,唯有公共利益得到良好维护的社会,私人利益才能得到最大化的实现[14]。

(二)比例原则

比例原则最早是公法上的概念,可以追溯到18世纪末德国的警察行政法,其追求的是国家干预手段与目的之间的合比例性[15]。行政法意义上的比例原则包括三个子原则,即适当性原则、必要性原则和狭义比例原则。其中,适当性原则是对“目的导向”的要求,主要是指行政机关采取的手段应当有助于实现所追求的目的;必要性原则又被称为最少侵害原则,它要求行政部门在能够实现目的的诸多手段中选择侵害最小的一种;狭义比例原则,则是指行政权力损害某一利益的判定与其所达到的目的之间必须合乎比例或相称,其所保护的利益应该大于损害的利益[16]。随着社会的发展,鉴于比例原则在调整公共利益与私人利益冲突方面的重要作用,其适用范围逐渐扩展到私法和社会法等领域。具体到数据共享与个人隐私保护冲突的平衡方面,比例原则要求数据共享行为要合比例、适度,充分考虑数据共享的社会需求是否迫切、是否必须,数据共享和个人隐私保护因数据自由流转而得到的利益或损失的利益是否符合比例,即前者应该大于后者。比如,对于与个人隐私信息关涉不大的一般个人数据,相较于通过共享所能达到的正向社会效应,其对于个人隐私的侵害不值一提;至于敏感个人数据,则应该结合共享的目的、范围、意义等进行审慎考量,以免对个人之自主和人格尊严造成毁灭性打击。如此方可最大限度地实现法律所保护的利益,同时最大限度地减少利益损失,实现数据共享与个人隐私保护之间的平衡。

(三)个案利益平衡原则

某种程度上,个案平衡原则可以视为对公益优先原则的修正和补充。如果说公益优先原则为平衡人工智能时代数据共享与个人隐私保护之冲突提供了宏观的方向指引,那么个案平衡原则就是解决某一冲突个案的微观操作指南。具体而言,个案平衡原则要求司法者和执法者在处理数据共享与个人隐私保护之间的冲突时,必须综合考虑个案的具体情形、需求和利益[17],寻求能够适当兼顾两者利益的解决方案。毕竟,在某些具体案件中公共利益并不一定高于个人利益,而是应当结合案件的具体情形寻找数据共享与个人隐私保护的平衡点。比如,某地政府仅出于便利管理的目的,要求所有医院共享传染病人的病史、病例等医疗数据,这无疑是对个人隐私利益和人格尊严的极大侵犯,应当予以禁止。因此,个案平衡原则能够有效弥补公益优先原则可能导致的个案不正义,使得数据共享与个人隐私保护之冲突得到更加妥善的解决。当然,鉴于个案平衡原则较为依赖法官和执法机构的自由裁量,难免会出现貌似“同案不同判”的情形。对此,我们应该坚信出自法官“良心”和“理性”的自由裁量是实现实质正义的必经之路。

四、人工智能时代平衡个人数据共享与隐私保护的具体路径

人工智能时代的数据共享和个人隐私保护如同一枚硬币的两面。为维护公共利益、促进数据驱动型经济的发展,需要实现数据在政府、企业、科研机构以及公众之间的自由流转与共享,此时个人隐私保护的权利应作出一定限缩,将部分非核心利益让渡给数据共享[18],作为其实现核心利益的条件和基础;同时,数据共享也不能毫无限制地野蛮生长,其同样应受到个人隐私保护的约束。然而,考察我国现行法律制度可以发现,我国仅在《网络安全法》《消费者权益保护法》《关于加强网络信息保护的决定》和《刑法修正案(九)》中零散规定了一些个人数据信息的保护措施,涉及数据共享促进措施的法律唯有《贵州省大数据发展应用促进条例》《贵阳市政府数据共享开放条例》等地方性立法,可以说,数据立法严重滞后于实践发展的需要。因此,为回应社会实践的需求和理论发展的需要,实现数据利用与保护的双赢,有必要尽快制定全国性的数据共享促进及保护的法律,通过立法平衡人工智能时代数据共享与个人隐私保护之间的利益冲突,对数据共享与隐私保护的基本问题加以规范。

(一)明确数据共享的范围及限制

通过立法明确数据共享的范围及限制,有助于为各类数据主体的共享行为提供明确的方向指引,避免数据主体因过度或者滥用数据共享而损害个人隐私利益,侵犯公民的人格尊严和自由。第一,应在全国性数据立法中明确数据共享的范围,将政府数据、企业数据和个人数据的共享都纳入法治化轨道。进入信息社会,包括政府在内的自然人、法人、非法人组织既是数据的生产者也是数据的消费者[18],数据成为与人力资本、物质资料并重的第三大生产要素,任何单位或个人都不可能离开数据而运转或生存。因而,在全国性的高位阶立法中明确数据共享的“正面清单”能够充分发挥上层建筑的反作用,有助于推动数据共享的有序进行,促进人工智能时代产业发展和科技创新。第二,构建数据分类共享机制。“资料敏感性的高低不同,资料处理对个人隐私造成的风险大小也就不同。”[19]故对于共享中的数据不能一概而论,而是应该区分对待。一方面立法应当根据数据的隐私敏感程度将其划分为敏感数据和一般数据③,并完善《信息安全技术个人信息安全规范》关于“敏感信息”的规定④,将能够揭示个人政治、宗教、种族和哲学信仰、性取向等的数据纳入“敏感信息”范围,统一法律语境下“敏感信息”的内涵与外延。另一方面,法律应秉持“敏感数据重点保护,一般数据强化共享”的原则,在数据共享中采取不同的隐私保护力度和保护程序。第三,通过立法为数据共享划定禁区和红线。人工智能时代的数据共享应当严格遵循涉及国家安全、国家秘密和法律明文规定不能共享的数据不共享;关系到商业秘密的数据,经明示用途且获得权利人同意方可共享;未成年人的敏感隐私数据不共享等禁止性规定。

(二)严格规定数据共享的程序

程序不仅是达到实体结果的手段,而且具有其内在的、不取决于结果的独立价值,如程序正义[20]。设定严格的数据共享程序有助于保障数据共享始终运行在法治的轨道上,有利于通过正当程序实现实质正义,平衡人工智能时代数据共享与个人隐私保护之间的冲突。第一,限定数据采集途径及程序。数据采集是人工智能时代数据共享的第一步,也是决定数据共享是否合法的关键环节。人工智能时代的数据共享主体必须按照合法途径经数据生产者明示同意方可进行数据收集,禁止数据共享主体在未经明示同意或者数据生产者毫不知情的情况下收集数据,从而避免数据共享对个人隐私利益的过度侵害。第二,重视数据共享过程中的通知和删除义务。一旦数据共享过程中发生数据泄露或者有其他隐私风险,当前的数据控制者应该通过发布公告或者其他方式将该风险告知有关个人或团体,并承担删除不愿意再参与共享的用户之数据这一义务。第三,严格规定数据共享的“去标识化”程序。通过“去标识化”程序,数据共享过程中涉及的数据就不再能识别出特定个体,这样既保护了个人的隐私利益,又能为政府、企业和科研机构提供有效数据。立法应该加快推动相关标准体系的建立,加速《个人信息去标识化指南》的审议进程,尽快确立科学的去标识化标准,明确不遵守标准的法律责任,从而为数据共享保驾护航。第四,构建数据共享的隐私泄露评估制度。数据立法可以规定由专门的政府机构或者第三方机构负责对涉及个人敏感信息的数据共享活动进行隐私泄露影響评估,将其作为必经程序;鼓励企业或政府部门主动对涉及个人一般信息的数据共享项目进行评估,从而确保数据的流通符合隐私保护相关法律的规定,降低数据共享的侵权风险。

(三)强化数据共享的监管

强化监管是有效平衡人工智能时代数据共享与个人隐私保护的必要条件,严格的监管有助于降低数据共享侵犯个人隐私事件的发生概率,为数据共享主体提供明确的价值指引。第一,构建专门的数据共享监管机构。面对人工智能时代数据行业明显的混业经营态势,有必要依托传统分业监管模式下各行业固有监管机构在行业知识、行业特征、行业监管经验及监管渠道等方面的天然优势,在各行业固有监管机构之下设置专门的数据监管部门。然后,在中央一级和省一级分别设置数据监管的协调机构,负责协调全国范围和本省范围内的数据监管工作,受理社会公众关于数据监管的举报、投诉,裁决不同行业监管部门之间因数据监管而产生的纠纷。第二,完善数据监管措施。为充分保护数据共享过程中的个人隐私利益,除事前的数据收集阶段外,立法有必要增加数据流通的事中和事后监管措施,赋予监管机构现场检查、线上审查、备案等监管权力,允许监管机构紧急叫停存在较大隐私风险的数据共享项目和对违反规定的数据共享主体处以一定数额的罚款。第三,强化数据监管责任。“一切有权力的人都容易滥用自己的权力,直到他遇到界限才会休止。”[21]因而,在赋予监管机关权力的同时,应该加强数据监管责任机制建设,通过立法明确各级监管机构的职责权限,规定不认真履行监管职责的机构及人员应承担的法律责任,从而促进数据共享监管体系有效运行。

(四)健全数据共享侵犯隐私的责任和救济机制

任何规范的施行都必须以责任作为后盾。健全数据共享侵犯隐私的责任体系和救济机制有助于提高数据共享主体的守法意识,充分救济受侵害隐私权利人的损失,促进兼顾公共利益与私人利益、财产利益与人格利益的数据共享早日实现。第一,应增设数据共享侵犯个人隐私的行政责任。一方面,个人数据具有横跨“公私两域”的复合性特征[13],数据共享不仅涉及到个人的隐私利益,还涉及到医疗、公共卫生、交通、犯罪侦查等公共事项。另一方面,数据共享往往涉及大量数据的传输、转移、整合,其过程中一旦发生数据泄露必然会波及很多公众,极有可能影响公共秩序,造成恶劣的社会影响。因此,出于维护公共利益的目的,有必要增设数据共享主体侵犯个人隐私的行政责任,赋予行政机关对于数据共享主体的罚款权。第二,明确社会公众对于数据共享的监督权。由于参与人工智能时代数据共享的各方在信息处理能力方面差别较大,企业和组织会因享有信息能力而获得竞争优势和强大的竞争能力,这种竞争能力可能会产生剥夺个人自由与隐私利益的工具,进而损害社会共同利益[22]。故通过立法明确社会公众享有以批评、建议、检举、揭发、申诉、控告等基本方式对数据共享进行监督的权利,能够保障受侵害公民有充足的渠道实现自身权利的救济,有利于降低社会公众对于数据共享的顾虑,实现数据共享与个人隐私保护之间的利益平衡。

结语

平衡是一种张力状态,唯有各利益主体的核心利益得到保护和实现,并让渡非核心利益作为他方实现其核心利益的条件和基础,平衡才有可能实现[18]。因此,面对人工智能时代数据共享与个人隐私保护之间天然的利益冲突,通过立法对共享与保护之间进行利益再衡量就成为化解两者矛盾的必然要求。具言之,在人工智能时代的数据共享和个人隐私保护之间应该严格遵循公益优先原则、比例原则和个案平衡原则,并围绕“在共享中最大限度保护个人隐私”这一中心思想,立法明确人工智能时代数据共享的范围及限制,严格规定数据共享的程序,加强数据共享的监管,完善数据共享侵犯隐私的责任和救济机制。唯有如此,方可解决人工智能背景下产业升级和科技创新“数据原料”缺乏的困境,充分释放人工智能红利,实现兼顾共享与隐私保护的科学发展。

注释:

① 中国信息通信研究院.中国大数据发展调查报告(2017年)。

② 参见2016年12月18日,工信部发布的《大数据产业发展规划(2016-2020年)》。

③ “个人敏感信息,是指一旦泄露、非法提供或滥用可能危害人身和财产安全,极易导致个人名誉、身心健康受到损害或歧视性待遇等的个人信息。个人敏感信息包括身份证件号码、个人生物识别信息、银行账号、通信记录和内容、财产信息、征信信息、行踪轨迹、住宿信息、健康生理信息、交易信息、14 岁以下(含)儿童的个人信息等。”参见国家标准化管理委员会2017年第32号中国国家标准公告,全国信息安全标准化技术委员会组织制定和归口管理的国家标准GB/T 35273-2017《信息安全技术个人信息安全规范》。

④ 虽然“个人数据”和“个人信息”的概念有所不同,但在划分个人敏感与非敏感领域范围时差别不大,可以混用。

参考文献:

[1]赵丽莉,靳旭.论大数据时代让渡个人数据换取服务的矛盾与协调[J].情报杂志,2018(11)∶1-6.

[2]张新宝.隐私权的法律保护[M].北京:群众出版社,1998.

[3]阿丽塔·L.艾伦,理查德·C.托克音顿.美国隐私法:学说、判例与立法[M].北京:中国民主法制出版社,2004∶371-372.

[4]Griswold v. Connecticut,381U.S.479[Z]. 1965.

[5][JP3]孫卓.Facebook泄密门发酵 大数据如何影响政治竞选[EB/OL].https://wwwyicaicom/news/5408955html.

[6]维克托·迈尔·舍恩伯格.大数据时代:生活、工作与思维的大变革[M].杭州:浙江人民出版社,2012.

[7]王利明.隐私权内容探讨[J].浙江社会科学,2007(3)∶57-63.

[8]马新彦,石睿.论知识经济时代空间隐私权的侵权法保护——以美国侵权法空间隐私权保护为启示的研究[J].法律科学(西北政法大学学报),2010(2)∶157-168.

[9]王利明.隐私权的新发展[J].人大法律评论,2009(1)∶3-27.

[10]Daniel ·Solove, Paul ·Schwartz.Information Privacy Law(Third Edition)[M]. Wolters Kluwer, 2009∶12.

[11]王泽鉴.人格权的具体化及其保护范围·隐私权篇(上)[J].比较法研究,2008(6)∶1-21.

[12]王利明.人格权法研究[M].北京:中国人民大学出版社,2005∶604.

[13]王学辉,赵昕.隐私权之公私法整合保护探索——以“大数据时代”个人信息隐私为分析视点[J].河北法学,2015(5)∶63-71.

[14]王利明.民法上的利益位阶及其考量[J].法学家,2014(1)∶79-90.

[15]闵丰锦.个人信息权保护的法律界限研究——基于欧洲人权法院50个判例的分析[J].重庆邮电大学学报(社会科学版),2018(4)∶56-66.

[16]蔡震荣.行政法理论与基本人权之保障[M].高雄:五南图书出版公司,1999∶105.

[17]齐爱民,李仪.论利益平衡视野下的个人信息权制度——在人格利益和信息自由之间[J].法学评论,2011(3)∶37-44.

[18]张新宝.从隐私到个人信息:利益再衡量的理论与制度安排[J].中国法学,2015(3)∶38-59.

[19]孔令杰.个人资料隐私的法律保护[M].武汉:武汉大学出版社,2009∶213.

[20]李修琼.行政法原理[M].北京:法律出版社,2013∶59-60.

[21]孟德斯鸠.论法的精神[M].北京:商务印书馆,2012∶236.

[22]吴伟光.大数据技术下个人数据信息私权保护论批判[J].政治与法律,2016(7)∶116-132.

【责任编辑:张亚茹】

猜你喜欢
人工智能时代隐私保护
人工智能时代知识产权发展的机遇与挑战
人工智能时代的计算机程序设计教学探讨
人工智能时代编辑工作核心算法初探
《人工智能时代》博弈不确定的未来