人工智能:国家治理的契机、挑战与应对

2020-01-08 19:22张爱军
关键词:人工智能算法国家

张爱军

(西北政法大学 新闻传播学院,西安710122)

人工智能主要在四个层面展开:第一个层面是在科技界研发并应用;第二个层面是第三部门对人工智能的后果进行评估;第三个层面是公共权力部门对人工智能的应用和指导,比如2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南;第四个层面是学术界对人工智能的学理研究,并取得了相应的学术研究成果。就学术界相关研究而言,其研究主要集中在人工智能法律、伦理、社会问题等领域,但在人工智能与国家治理的关系方面,还有一定的不足和欠缺。2019年10月31日中国共产党第十九届中央委员会第四次全体会议指出:“通过坚持和完善中国特色社会主义制度,推进国家治理体系和治理能力现代化,是全党的一项重大战略任务。”在此背景下,深入研究人工智能与国家治理的关系,无疑具有重要的战略意义、理论意义和实践意义。正如尤瓦尔·赫拉利所言:“当你作为一个个人、一家企业、政府部门,或者作为精英阶层,我们在做人工智能的时候,做各种各样决定的时候,一定要注意人工智能不仅仅是单纯的技术问题,同时也要注意到人工智能以及其他技术的发展,将会对社会、经济、政治产生深远的影响”[1]。

一、人工智能为国家治理提供了新契机

人工智能推动了国家治理体系的现代化。从人类历史发展的角度来说,生产力是人类社会发展的最终决定力量,科学技术是第一生产力,既决定经济基础的变化,也决定上层建筑的变化。作为上层建筑的国家制度,必然深受科学技术的支配和影响。从现实来说,网络技术、人工智能技术为国家治理体系的现代化不但提供了可能性,也提供了现实性,而且人工智能在国家治理的应用已经较为广泛。国家治理体系的现代化和治理能力的现代化,是系统工程的现代化,是由体系转化为效能的现代化。国家治理体系现代化的重要标志,就是对人工智能的应用。人工智能与国家治理体系的现代化互相推进。一方面,国家治理体系现代化需要人工智能的助推;另一方面,将人工智能应用到治理体系的过程中,在一定程度上改变了国家治理体系的运行机制、横向结构、纵向结构、组织形式。具体地说,国家制度现代化的各个层面,都需要人工智能提供技术性支撑。

第一,人工智能推动了国家对舆论的治理。公共权力有关部门在国家治理体系和治理能力现代化原则的规制下,有效地引导了社会舆论、经济舆论、文化舆论和政治舆论向良性方面发展,并在控制、引导、疏通、规制社会舆论中取得了明显成效。从人工智能概念提出到广泛应用,其对现实社会公众生活方式产生影响的同时,也作用于网络虚拟社会。进入新发展阶段,人工智能逐渐强化“智”与“能”,将信息传播过程中的信息收集、生产与分发环节融合为一体化的算法传播模式,增强信息传播效果。具体到网络情绪传播中,人工智能技术在互联网技术传播优势的基础上,强化网络情绪传播过程中的表达、体验与聚合环节,并将传播效果扩大化。传播效果影响网络受众的认知、态度与行为,从而引发现实社会问题。多元意识形态分为主流意识形态和非主流意识形态,对于主流意识形态来说,开放性、整合性、流动性是主流意识形态保持活力的重要条件。对于非主流意识形态来说,应该与主流意识形态互动,实现意识形态的动态平衡,防止去主流意识形态的中心化和非主流意识形态的原教旨化,才能使非主流意识形态具有存在的合理性和正当性。

中共十九大报告指出:“意识形态决定文化前进方向和发展道路。必须推进马克思主义中国化时代化大众化,建设具有强大凝聚力和引领力的社会主义意识形态,使全体人民在理想信念、价值理念、道德观念上紧紧团结在一起。”[2]34因此,要不断“加强互联网内容建设,建立网络综合治理体系,营造清朗的网络空间”;要“坚持正确舆论导向,高度重视传播手段建设和创新,提高新闻舆论传播力、引导力、影响力、公信力。”[2]34中共十九大报告指明了网络空间治理的方向。

从国家治理体系来说,人工智能的重要标志就是“政治机器人”的出现。“政治机器人是在社交媒体空间中专门执行政治传播任务的一类社交机器人,运营者借助算法技术注册并运营大量社交媒体账号,以虚假的个人身份与尽可能多的目标用户建立联系,传播运营者的政治诉求并力图影响舆论。”[3]17从西方政治来看,“政治机器人的存在和进化不可避免,随着社交网络的发展,政治机器人正在成为一种重要政治手段参与到网络政治表达当中,政治机器人开始与真人竞争网民的信任”[3]23。

人工智能通过算法权力引导政府作出决策,从而形成一股不可小觑的力量[4]。算法权力具有先进性,它能够利用技术实现新型的引导[5]。马克斯·韦伯指出:“权力意味着在一种社会关系里,哪怕是遇到反对也能贯彻自己意志的任何机会,不管这种机会是建立在什么基础上。”[6]算法权力是一种“准公权力”。这种技术权力以治理为目标,不但体现着宏观的政治管理和结构,而且也表现为对个人和群体行为的直接引导。

第二,人工智能推动了国家治理能力的现代化。治理能力的现代化,一方面,表现在治理主体能力的现代化,表现在治理的理性化、公平化、客观化,与治理的主观化、官僚化、任意化等相对,其核心指标是指以人民为中心的治理现代化,没有以人民为中心的治理现代化,治理能力的现代化就无从谈起;另一方面指治理客体获得感、满足感、幸福感、尊严感、价值感的不断提升。人工智能利用大数据获得与国家治理有关的相关性和客观性数据,为国家治理提供客观性的决策参考,防止国家治理决策方面的随意性和主观性。人工智能利用算法,对国家治理作出的决策进行有针对性的推送,防止国家治理方面的官僚化。对于治理的客体来说,社会民众与人工智能获得的有效信息、客观决策、治理绩效、治理主体能力等产生互动,增加获得感、满足感、幸福感、尊严感、价值感。就网络政治舆论、政治舆情、政治意识形态治理来说,人工智能的引导,节省了国家治理的精力成本、时间成本、规模成本、效能成本,使国家治理主体集中精力,对涉及国家利益、国家主权、国家根本政治制度、根本意识形态的问题进行控制和规训。

第三,人工智能推动了国家治理的效率化。国家治理的效率化同样包括国家治理体系和治理能力的效率化,这方面的效率化核心是效能指数不断提升。只有把效率化转化为效能指数,并在效能指数提升的前提下提升和固化治理质量,才能说国家治理体系和治理能力水平真正现代化了。人工智能在这方面具有助推的作用。这主要表现在社会治理、政治治理、经济治理和文化治理四个方面。比如,人工智能通过人脸识别和指纹识别,会及时找出危害社会稳定的群体和个人,既能及时化解社会不稳定因素,又能及时化解威胁政治的不稳定因素。人工智能通过大数据和算法,跟踪和控制不利于经济发展和文化进步的非主流极化的意识形态的文化安全因素,并为国家公共权力及时提供预警决策信息和决策参考,从而及时有效地维护社会稳定。

第四,人工智能推动了国家治理能力的智慧化。国家治理体系与治理能力现代化主要是通过政府来完成的,国家治理体系和治理能力现代化也主要是通过智慧型政府来完成的。“所谓智慧政府,是指公共部门以一定的社会需要为前提,以国家法律法规为依据,在客观技术条件允许的情况下充分利用物联网、云计算、大数据分析、移动互联网等新一代信息技术,以用户创新、大众创新、开放创新、共同创新为切入点而开展的一系列决策/政务智能化措施。”[7]在这方面,人工智能将发挥更为重要的作用。人工智能主要体现在“智”上,人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。人工智能虽然在人的感觉、知觉、情感认知等人的自然体方面没有超过人类,但在智的某些方面则远远超过了人类,它不仅是对人的意识、思维信息过程的简单模拟,还可以在“智”上进行判断、推理甚至创新。就智能化社会治理而言,一方面,人工智能可以充分利用大数据提升智慧化政府的能力,通过人工智能“在利用大数据强大的数据采集和分析能力,结合社会治理理论和互联网技术,将复杂的社会运行体系映射在多维、动态的数据体系之中,实现对社会运行规律、社会偏好(诉求)变化趋势及规律、政府回应机制及效果差异等实时、数量化、可视化的观测,不断积累社会运行的数据特征以应对各类社会风险、提升社会治理有效性”[8];另一方面,人工智能可以进入经济政治决策、控制系统、仿真系统,推动传统型治理向智慧型治理转化。

第五,人工智能推动了国家治理的理性化。国家治理体系和治理能力现代化有其自身的理性和自主性,通过理性与自主性使权力运行不断显现公平性。韦伯通过国家官僚制的视角阐述国家的自主性,“正式的国家官僚科层结构,被认为是以其系统的自主性寻求权力运作的中立,以独立的、且非人格化的专业精神寻求权力运用的客观与公正,并以明确的规则体系和计算的理性,谋求权力行使的公平与效率”[9]。具体到国家治理的现代化同样要求其自主性和理性化,人工智能本身及其功能应用,对国家治理的助推基于理性化。这是因为人工智能具有的机器视觉、指纹识别、人脸识别、视网膜识别、虹膜识别、掌纹识别、专家系统、自动规划、智能搜索、定理证明、博弈、自动程序设计、智能控制遗传编程等都是源于理性。人工智能“机器学习”的基本构成是“统计学”、“信息论”和“控制论”,还有对“经验”的依赖性都是基于理性,就其本质而言是对人的思维的信息过程的功能性模拟,人工智能的理性化对于国家权力的自主性运行、自主性决策无疑具有重要作用。

二、人工智能为国家治理带来新问题

人工智能在为国家治理带来便利的同时,也给国家治理带来新的问题。人工智能的技术进路会让价值迷失,导致治理上的极化和“一刀切”,助长公共权力懒政甚至滥政,缺少人性化关怀,侵犯个人隐私,使人工智能的技术化与国家治理的人性化发生矛盾和冲突。

第一,人工智能具有技术理性取代价值理性的可能性与现实性。任何社会都需要人的情感关怀和价值关怀。情感是人类所固有的,也是人类所诉求的,是人类社会联系的纽带。如果说西方是权利本体,是以权利为核心形成的差序格局,那么中国就是情本位,是以情感为本位形成的由血缘地缘向外拓展的差序格局,用李泽厚的话来说,中国是一个“情本体”的社会,情感关怀始终是中国传统文化的组成部分。作为公共权力的行使者,无论如何都要做到爱民、恤民,做到以人为本。以人民为中心从情感上来说,就是以爱人民为中心。情感关怀与价值密不可分、互相推进、互为表里,失去了价值关怀就失去了情感依托,失去了情感依托的价值也就失去了意义。人工智能是技术本位,其应用过程贯穿的是技术理性,显然不具有人的情感,仅通过人工智能进行的治理,缺少了情感内容,治理主体和客体同时缺少情感体验,“冷冰冰”的过度理性治理,显然会事倍功半。即便是人工智能具备了初步情感,在人工智能的过程中实现情感治理互动,也难以适应人类丰富且具有高度复杂性的情感体验和情感回应。

第二,人工智能具有使国家治理“一刀切”的可能性与现实性。国家治理可以从不同的角度来划分,比如,从纵向的角度来说,可以分为宏观治理、中观治理、微观治理三个层面。从横向的角度来说,可以分为跨地域治理、跨地区治理、跨中心治理三个层面。从中心化的角度来说,可以划分为中心治理和去中心治理。从内容的角度来说,可以分为经济治理、政治治理、社会治理、文化治理、族群治理。国家治理需要具体问题具体分析、具体决策,从而使治理具有内容的丰富性和形式的多样性,其目的是让国家有动力、社会有活力,调动中央和地方的积极性,并实现良性的纵向和横向互动。人工智能的出现,打破了治理的各个层面,并渗透到各个领域、各个方面、各个群体乃至个人。人工智能的理性化和普遍化,使得人工智能在治理的过程中,不可避免地出现治理极化的“一刀切”现象,从而会不断地浸入人的各种行为之中,并使治理的客体模式化。人工智能应用的理性化与“一刀切”,既影响了国家治理的动力,也影响了社会的活力。

第三,人工智能具有助长治理主体懒政和滥政的可能性与现实性。懒政与滥政是权力滥用的两种主要表现方式。从人类心理学上说,人天生具有一定的惰性,具有治理权力的主体同样难以避免天生的惰性。从人过去对经验的依赖到人对人工智能的依赖,不是惰性的减少,而是惰性的增加,治理主体会产生对人工智能的心理依赖,形成并固化对人工智能的心理依赖路径,导致懒政盛行。也就是说,从对人工智能大数据获取的依赖到算法推送的依赖,都会产生懒政的行为。滥政则是对人工智能的滥用而引发的治理权力失范。从一般意义上说,权力容易导致滥用,绝对权力容易绝对滥用。从人工智能的角度来说,人工智能尽管是人类的辅助性工作,但如果人类把助长权力滥用的程序输入到人工智能身上,就会释放权力滥用的潘多拉宝盒,或者说是给权力滥用插上了翅膀,人工智能就成为滥政的有效工具。误用、滥用、利用人工智能,一方面会导致国家治理对抗或者大公司与大公司的对抗,另一方面也会造成对公民权利的直接伤害和间接伤害。人工智能滥政的实质,是对治理客体的全方面无限度的治理,治理的无边界化引发人工智能对社会的全方面渗透,也是对治理客体的全方位折腾,治理客体因此也没有回旋的余地。

第四,人工智能具有使国家治理缺少人性化的可能性与现实性。任何国家的治理都需要人性化的注入,离开了人性化的国家治理,终归难以走向长远。人性化治理,治理主体既要由己推人,充分考虑到人性的不完美带来治理的局限,又要考虑到人性化治理的边界。事无巨细的治理,只会增加治理的成本,治理的收益则呈现出边际递减,并让治理客体不堪重负。人性化治理既要充分考虑治理客体的诉求,又要让治理客体增加满足感、价值感和尊严感。人工智能参与治理减少了治理主体的人性化投入,极大地降低了人性化治理的时间精力和规模成本,可以全天候地进行治理。但是,人工智能即便是辅助性参与国家治理,由于缺少了人性化元素,将使治理客体难以承受被治理之重。人工智能即便与治理客体互动,人工智能也是机械,没有人性化的互动,治理客体由最初的对人工智能治理的新鲜感最终转化为厌倦感。人工智能也难以适应人性化的复杂性和多变性,一种机械式的互动应付不了不断变化的人性。人工智能导致的治理异化,会使“单向度”的治理客体极化。

第五,人工智能具有导致国家歧视性治理的可能性与现实性。人工智能的特点是把治理客体进行分层分类。人们通过对人工智能输入特殊的程序,使人工智能对不同类型人进行分类治理。人工智能的基本元素就是算法,因此产生了“算法歧视”。“算法倾向于将歧视固化或者放大,使歧视自我长存于整个算法里面。”算法决策不仅仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”[10]。人工智能歧视在社会分配不公、两极分化的背景下,会增加反社会群体的数量,也给国家治理带来更大的难度。人脸识别也同样如此,通过人脸识别,把人分为不同的等级和层级,进行分类治理,也破坏了治理客体的公平性,破坏了社会主义价值观的平等观。

第六,人工智能具有使国家治理无边界的可能性与现实性。国家治理具有明显的边界和限度,其中一个重要边界就是国家治理不能侵犯个人隐私。如果国家治理没有限度,国家利用人工智能侵犯个人隐私也就没有了边界。美国法学家沃伦(Samuel D.Warren)与布兰代斯(Louis D.Brandies)认为隐私是一种免受外界干扰的独处的权利[11]。王利明教授认为隐私是指自然人的私人秘密和私生活安宁不被外界公开和干扰的状态[12]。人工智能以大数据为支撑,更容易侵犯个人隐私的权利,从而使人变成没有价值没有尊严的“透明人”。福柯的“环形监狱”对人进行全景式透视在人工智能时代更甚。人工智能“对监控对象进行识别”、将数据加以存储和搜索,对隐私威胁最大化。

人具有天然为恶的可能性与现实性,这既取决于制度,也取决于人与制度的互动博弈。如果人类为恶的本性嵌入程序设计中就会助长人工智能为恶,或者说人工智能就会被不良之人利用,给国家治理带来灾难性的后果。

三、对人工智能滥用误区的应对

对人工智能的滥用,目前缺少相应有效的针对性措施,但以下四个方面的措施仍然是必不可少的。只有采取必要措施,才能把人工智能治理给国家治理带来的难度最小化。

第一,加强人工智能设计应用人员的伦理建设。“一直以来,道德伦理的责任主体必须是人,若因AI引发伦理危机而对算法设计者进行道德问责,就忽视了设计者与受害人之间不存在直接因果关系的事实。但是,这并不意味着算法设计者可以不必努力寻找让AI的决策更具伦理意义的技术,恰恰相反,设计者应当审慎地在算法中嵌入当下社会的主流伦理观”[13]。人工智能的前提是人工,是人赋予机器以智能。赋予机器以人工智能,需要在人工智能的设计推广应用中使设计推广应用的人具有良善伦理。人工智能的伦理与价值的实质是人的伦理价值,即人权伦理、责任伦理、道德伦理以及环境伦理等问题。西方很多国家都关注人工智能论理问题,美国强调“要改进公平性、透明度和设计责任机制”[14];日本人工智能学会的伦理委员会强调“存在无关故意与否,有成为有害之物的可能性”。不但要在整个社会加强人工智能的伦理教育,而且更应该加强对人工智能的程序设计人员、推广人员、应用人员的伦理教育。

第二,人工智能治理与国家治理相结合。如前所述,人工智能是非人性化的技术治理,国家治理是人性化的治理,二者各有优缺点。优化的治理应该是人工智能治理与国家治理的结合。人工智能治理与国家治理在结合的过程中,要处理好二者的关系。

一是主辅关系。人工智能在国家治理应用的过程中,以国家治理为主,以人工智能治理为辅,只有实现二者的整合,才能发挥共同治理的优势。如果以人工智能治理为主,以国家治理为辅,主辅换位,国家治理将会出现问题。微信就出现了主辅越位、主辅倒挂现象。例如,在微信的治理中,一旦出现敏感词就会出现微信被封群封号的情况,而且人工智能用统一的语言回复说传播谣言。事实上,很多问题都是因为群里或者个人发表言论但并没有威胁到国家制度、国家权力、国家治理的核心,也没有违背社会主义核心价值观,所发表言论和视频涉及的问题都是讨论国家、社会、民生的问题,更不涉及造谣传谣。如果是人工操作,知道何种言论能产生何种危害性,会有针对性地分析辨别和禁止。但人工智能应用在微信上,却导致“一刀切”现象,一些微信群或个人“躺地中枪”。从微信这个视角看,人工智能的智与能,都没有达到人所期待的地步。

二是支配关系。国家治理与人工智能治理的关系是支配和被支配的关系,人工智能治理必须服从人的治理、国家治理。国家具有自主性,通过国家权力结构、制度体系、运作机制来完成。国家治理是国家自主性的重要内容,有自身的价值偏好和发展目标。人工智能的程序设计与应用,归根结底来源于人、应用于人,听从人的指令,没有自主性,除非是强人工智能或者超强人工智能的出现才会发生国家治理与人工智能治理关系的质的变化。机器是人创造的。人工智能是人的附属品,人不是机器的附属品。如果人工智能支配人,人成为人工智能的工具,就会出现典型的“异化”。既然是人工制造的智能,那么逻辑上就是人支配人工智能,国家治理支配人工智能治理。

三是助手关系。人工智能是人的助手,一切都要为人服务。同样,人工智能的治理是国家治理的助手,一切都要为国家治理服务。人工智能助手关系在经济层面、法律应用层面、新媒体应用层面、社会服务应用层面具有突出的表现,但在国家治理方面、尤其是国家政治治理方面还没有突出的表现。其他方面的突出表现给国家治理、国家政治治理提供了示范。人工智能治理既然是助手,那么其服务的主体就是国家治理主体,以国家治理为核心进行辅助性治理,但不应也不能成为国家治理过程中滥权的工具。

第三,加强人工智能方面的隐私法治建设,树立宪法权威。在人工智能方面,同样需要树立宪法尊严,维护宪法尊严。比如在人脸识别方面,不能把人分为不同的类型。在算法方面,不能有算法歧视。在人工智能利用大数据方面,不能利用算法推送的方式划分特定的人群进行特定的治理。

一是严格遵循平等原则。艾瑞斯所说:“隐私问题部分不是大数据分析的问题,它是数字化过程的阴暗面”[15]。如果人工智能利用了这一阴暗面,就成为任意侵犯隐私的工具。法律面前人人平等就意味着隐私面前人人平等,任何人都没有超越隐私平等的权利。大公司、大企业、公共权力部门同样不可以在不告知不同意的前提下,拿隐私换效率、金钱、权力、名誉和特殊地位,否则就严重违背了平等原则,使人的尊严荡然无存。

二是把宪法有关的隐私权利转化为具体的隐私权利。宪法权利是抽象的普遍性的权利,落实宪法权利,必须构建将宪法权利转化为具体权利的机制,加强立法程序建设、具体权利落实机制建设。只有把宪法权利转化为具体权利,才能切实保障每个人的平等权利。隐私权也同样如此,只有把现实隐私权、网络隐私权落实到具体的法律条文上,才能保障每一个人的尊严和平等。

三是抓紧人工智能隐私权方面的立法。在这方面,西方国家已经走在前面,可以为中国在这方面的立法提供借鉴,比如,“欧盟《一般数据保护条例》涉及人工智能数据保护和隐私权利的所有方面。《一般数据保护条例》区分一般数据和敏感数据,对后者进行更为严格的保护。该条例第9条明确规定:除非各成员国立法授权,辨识种族或民族出身、政治观点、宗教哲学信仰、工会成员的个人数据以及以识别自然人为目的的基因数据、生物特征数据、健康数据、自然人的性生活或性取向的数据的处理应当禁止”[16]61。有法律学者认为,中国已经有渊源层级的《电子商务法》和规章层级的《数据安全管理办法》(征求意见稿),这些都对算法进行了相应的规制。“网络运营者利用大数据和人工智能等技术,通过算法自动合成的新闻信息、博文、帖子、评论等,应当以显著方式表明‘合成’字样”[16]57。

第四,加强人工智能的风险预警系统建设。学者安尼施·阿塔伊(Anish Athalye)说:“我们在机器学习领域的研究人员还不习惯于从安全角度思考问题。”麻省理工学院计算机科学家亚历山大·马德里(Aleksander Madry)表示:“我们需要重新考虑机器学习算法的所有路径,使其更加安全”[17]。

一是加强对人工智能的预警系统建设。目前的人工智能是弱人工智能,既不是强人工智能,更不是超强人工智能,但弱人工智能也具有人的简单的感觉、认知、歧视的非理性因素,且具有超越人的智能和非自然人的自我繁殖能力,具有一定的环境适应能力,要防止人工智能自身的“异化”,加强对人工智能预警系统建设。

二是加强对人工系统设计推广应用人员风险评估系统体系建设。相关部门要对这些人员进行心理测试、行为观察、道德评估、价值评估、人生经历评估、人生背景评估,在此基础上预测其设计人工智能程序所带来的潜在风险。针对这一特殊群体建立特殊的制度、机制,使这一群体成为具有现实操守和负有使命感的群体。黑客是人工智能的主要威胁。

三是加强对人工智能运行过程的评估系统体系建设。人工智能即便按照程序设计运行,针对不同的环境也会出现不同的问题,甚至会出现难以预测到的风险,比如,根据敏感词封群封号会引起网民的不满,根据人脸识别来进行分类治理,根据算法进行歧视性治理,都具有引发次生舆论危机的可能性和现实性。

四是加强对人工智能利用结果的评估系统体系建设。人工智能的应用风险,在其结果上更加明显。社会治理是国家治理的基础组成部分,也是国家治理的目的。人工智能的大量应用,还会导致社会的结构性失业和不稳定,使得国家治理呈现出难以预测的社会性危机,给国家治理带来新的难题。比如在国家精准扶贫的情况下,人工智能排挤人导致现实特定人群陷入贫困状态,使国家精准扶贫具有失效的可能性与现实性。经济社会广泛应用人工智能,会导致大量相关人员失业,带来社会的不稳定,社会不稳定就会威胁到政治稳定和国家安全。此外,要加强人工智能与国家治理的人—机风险预警体系建设。

总之,国家治理既要抓住人工智能治理带来的战略机遇,也要迎接人工智能治理带来的新的难题和困局。国家治理要针对不同的情况,克服人工智能带来的潜在风险和现实风险,处理好国家治理与人工智能治理的关系,加强法治建设,核心仍然是树立宪法和法律权威。

猜你喜欢
人工智能算法国家
哪种算法简便
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
人工智能与就业
能过两次新年的国家
数读人工智能
把国家“租”出去
下一幕,人工智能!
奥运会起源于哪个国家?