生成式人工智能与政策失灵:规避工具还是隐蔽诱因?

2024-01-01 21:49向玉琼
探索 2023年5期
关键词:机器决策人工智能

向玉琼

(南京农业大学 公共管理学院,江苏 南京 210095)

2022年,OpenAI公司基于神经网络架构以及在海量数据基础上开展的机器深度学习,推出了具有1 750亿参数的自然语言处理模型即ChatGPT,对各种类型的文本、图像、音频和数据进行处理。ChatGPT预示了AI作为一种通用目的技术(GPTs)的潜能,跨越了可用性和通用性两道主流鸿沟,因此,这不是一次简单的工具革新,而是一场重大智力革命,将对人类社会及其治理带来一场前所未有的变革。

生成式人工智能自发布以来,迅速成为人们关注的焦点,在短短几个月内相关研究呈现爆发式增长。相关研究主要集中在ChatGPT的技术特质[1]及其在教育[2]、文本写作、信息传播[3]、社会治理[4]等领域的应用,涉及人机关系的重塑[5]、知识生产的变革、治理模式的挑战[6]、潜在伦理风险和法律风险[7]等议题,而与政策相关的研究多是将政策作为规制手段和工具[8],将人工智能聚焦到政策过程分析的研究相对较少。但在现实中,人工智能作为政策优化的重要社会背景和技术路径,必然大量应用于政策过程中并对政策过程产生影响。而且基于ChatGPT带来的惊艳表现,人们相信人工智能的发展有助于实现政策目标,消除政策失灵。但现实情况可能并非如此。实际上,在生成式人工智能阶段,需要思考以下问题:以ChatGPT为代表的生成式人工智能将会对政策过程带来哪些影响?体现在哪些方面?人工智能究竟能否消除政策失灵?未来的政策过程中应该如何定位人工智能的角色?这些是在智能技术快速发展的背景下人类治理必须思考的问题。

1 政策失灵的规避工具:生成式人工智能的一个面向

随着科学技术的发展,社会理性化进程不断加快,制定公共政策也成为一个不断科学化与技术化的过程。ChatGPT的发布代表生成式人工智能阶段的到来,这是政策过程发生的重要技术背景,将对政策过程产生一定的影响。其中最明显的是,生成式人工智能将对政策过程做出全方位的优化,成为政策失灵的规避工具。

1.1 跨越行业和领域边界以完善政策信息

ChatGPT基于Transformer架构进行基础模型建构,集中了来自多种模态的数据,通过不断地堆叠人工智能神经网络的参数规模模拟人类思维,进行大规模数据分析的同时积累更多的数据用以训练产生出更好的模型,以此广泛适应多元化的下游应用场景。当前ChatGPT能超越所有搜索引擎,跨越领域、形式、距离等多重限制进行信息收集,不仅能编辑万亿级参数,而且处理参数的能力还可以数倍增加。ChatGPT通过算法、模型、公式等对信息进行处理,生成文本、图片、声音、视频、代码等多元形式,实现从数据、算法到多元输出的灵活转换。而且GPT开展信息处理并不停留在简单的信息收集与整理上,而是通过强大的知识迁移能力,结合自身经验和数据来学习如何做事,也就是说,机器会通过深度学习对政策信息进行自主化处理。2012年,亚历克斯·克里泽夫斯基及其同事在一篇研究论文中证实,深度学习训练在处理完2 000亿张图片后,其表现仍然要远胜于传统的计算机视觉技术,这可以看作是深度学习神经网络领域中取得的里程碑式的成就[9]155。强大的学习能力使得ChatGPT突破了决策式AI而开启了通用式AI的时代,人工智能跨越几乎所有领域进行信息搜索,并对不同形式的信息进行综合处理,其信息搜集和处理能力远超人类,从而为政策过程提供更加完整的信息。

1.2 扩大友好接口以实现便捷互动

人工智能的发展一直面临着一个难题,即对社会问题的符号化与语言化的问题。只有通过符号化才能实现社会问题向机器符号的转化,也才能在机器上对社会问题进行模拟和处理,但是,“即使我们使AI接近于大脑的运作方式,仍然不足以产生理解”[10]106。也就是说,机器对语言和符号的理解能力不够,尤其是面对一些难以定量的价值、情感等要素时,人工智能即使可以大量推算和模仿,但并不能真正地“理解”。而ChatGPT在对社会问题的符号化上取得了重大突破。GPT模型作为生成式人工智能的一个分支,是一种自然语言生成模型,发展到GPT-4已经超越了Chat的层面,展现出强大的理解能力、自主意识与编辑能力,能够在庞杂的语言中把握核心观点和意图,并执行各种命令和反馈,GPT甚至能够从文字中敏锐地捕捉到一些具有个性化色彩与情绪化的动态,这扩大了机器与人类之间的互动接口。一方面,GPT能对人类信息做出更深的理解和更为准确的输入;另一方面,GPT会对政策结果进行反向转化,也就是通过多元形式进行信息传递与输出,在反复的搜索、整理与输出中提高对不同对象的适应性。实际上,在OpenAI公司发布GPT-4之后的两天,微软重磅发布了AI办公助手Microsoft 365 Copilot,将GPT-4接入微软全家桶,这标志着人机交互进入了新的阶段,政策系统与机器之间的交流有了突破性的进展。

1.3 代替人类决策以提高决策效率

奥尔特曼强调:“将GPT视为一种工具而不是一种生物很重要,人们不应该试图将人工智能拟人化。”[11]但一些科学家发现,新的AI系统已经展现出具有人类逻辑的迹象。人工智能之前主要限于长期专业训练的狭义人工智能(ANI),现在发展到具有强大自我学习能力和跨领域能力的通用人工智能(AGI),虽然ChatGPT的出现并未宣告强人工智能时代的到来,但也意味着人工智能拥有了更为复杂的智力能力。GPT拥有强大的生成文本的能力,能更高效地对文本进行分析、整合、评估和判断,通过数据与算法生成图表、文章、图片、语音、论文、视频等多种形式,甚至写出代码,在更大范围内与人类思维成功对接,因此可以在很多领域和环节中代替人类做出决策,提高决策效率。一方面,决策分散与并行可以提高决策的速度与敏捷性。决策主体从政治精英和专业人士扩大到包括网络用户,继而实现对人工智能的包容,人工智能不再是传统观念中的工具存在,而是成为政策过程中的智能化主体。随着机器自主处理范围加大,与人类并行开展决策的范围扩大了,并因此提高了决策效率。另一方面,人机交互从人与工具之间的单向度使用和被动式的反馈转向主动式交互,分发场景从PC端信息门户到网络平台,再到孪生空间,数字技术的高度智能化实现了内容分发“所见即所得”“所想即所得”“所愿即所得”,机器承担了人类决策的诸多功能,进一步提高了决策的科学性与有效性。

1.4 推动政策系统升级以提高适应性

政策作为一个复杂系统,可分为信息子系统、模型子系统与行动子系统。信息子系统是政策系统的核心系统之一,对信息进行收集和整理;模型子系统是对信息进行表达与处理之后,通过推理、分析做出政策设计;行动子系统是指政策过程中通过推理和规划实现与环境之间的互动,来达到政策目的。信息技术的发展推动政策系统的重心从信息子系统转向模型子系统,而人工智能推动政策系统的重心从模型子系统向行动子系统过渡。随着信息技术的发展,信息传播渠道多元化,信息爆发式增长,获取信息的成本已经从边际成本转向固定成本,成本不断降低甚至可以忽略,信息子系统的价值因此下降。模型子系统是基于对信息的处理而形成,模型包括认知模型、任务模型、领域模型,每一个政策议题与政策方案都是由模型来表达和驱动,每个政策问题都由相应的领域模型、任务模型和人组合完成。在大模型高速发展中,政策过程中的一般性问题,除了个性化、独特性的情况外,都可以通过大模型来解决。模型是生成式的,能有效地控制、操作各种设备。行动子系统更多地在行动与环境之间进行互动,根据具体情境选择行动,并在行动中重塑环境。ChatGPT推动政策系统转向行动子系统的建构,实时捕捉环境的差异和变化,从而获得更为真实的信息,根据政策环境的变化灵活建构政策模型,因而提高了政策与环境之间的适应性。

2 政策失灵的另类诱因:生成式人工智能的另一面

ChatGPT预示着工具的智能化与机器的觉醒,其影响不仅限于工具和技术领域,而且扩展到价值和社会领域,给人类社会提出了自启蒙运动以来从未经历过的哲学挑战和实践挑战,将对社会结构产生影响甚至重组政策过程。ChatGPT优化了政策工具,提高了政策效率,但在技术光环下也可能带来政策失灵的结果,换句话说,生成式人工智能的发展并不一定实现政策目标,反而有可能带来新的政策失灵。而由于人工智能的优越性经常被夸大,这使人更容易忽视其打开潘多拉魔盒的可能。

2.1 算法偏见导致政策信息偏狭

GPT的发展是基于机器的深度学习,其运行的基本原则仍然是计算。如斯加鲁菲所说,“现在‘深度学习’人工智能领域的研究内容很简单,就是罗列大量的数字进行运算。这是一种很聪明的大数据集的处理方法,由此可以为数据集分类。但这种方法无需通过颠覆性模式创新来实现,只要提高计算能力即可”[12]29。生成式人工智能也是以暴力计算为基础,一旦数据存在瑕疵,或者算法规则错误,那么就会导致人工智能的错误行动,而人对此可能毫不知晓。“虽然人们经常将互联网与透明和信息自由的机会联系在一起,但是,机器的选择过程对公众来说始终是不透明和几乎无法施加影响的。”[13]512就当前ChatGPT的学习语料库来看,中文资料所占比重较低,这意味着中文信息的存储量不够,中文信息不足,人工智能对中文信息的分析也必然不够。人工智能会更加重视可分析的外文资料,而有意降低中文信息的比重,这会带来信息的选择性使用。不仅如此,算法会做出选择性输出,如用不同语言针对同一问题提问,所得出的答案在风格与措辞上会有明显差别,甚至存在观点对立,而且重复性的输出会固化这种偏见,形成僵化的态度和文化,继而影响政策诉求。但由于机器学习是通过模糊的神经网络算法模型直接从数据中进行的,超越了传统的编程规则技术,学习的广度与速度更是远胜人类,因此算法偏见对于技术研发人员也可能是一个“黑箱”。人类无法全部证实生成式人工智能所生成的结果在内容上的真假,判断算法能否全面反映政策问题并发现事物规律、是否实现了在线隐私管理等,更毋论对此有效控制。即使GPT“一本正经地胡说八道”,所生成的内容是胡编乱造的,也无从评判、更无法监督,最后可能发生的情况是:人工智能不仅没有告诉我们关于世界的信息,反而歪曲了我们看世界的视角。

2.2 操控信息传播造成政策观点极化

人工智能影响了网络信息传播的渠道和方式,人们对于世界的感知越来越多地由人工智能来决定,“有着能灵敏地回应我们需求的‘面孔’和‘眼睛’的人工智能‘伙伴’充斥在我们周围,它们或许还能以其他方式激发我们的情感,我们的感知方式将牢牢掌握在技术手中”[14]112。生成式人工智能不只发挥信息传播渠道的功能,不仅仅是“传播工具”,而且具有一定的自主决策能力,在一定程度上可以成为“信息生成者”。一方面,人工智能会选择性地设计信息内容和建构传播渠道。基于对个人信息的收集和挖掘,GPT会根据个体偏好进行信息裁剪和定制,根据群体特征选择信息内容与投放方式。在信息数据分析中,GPT可能隐蔽地运用具有偏见的模型对数据进行监控与编辑,并在后续的编辑和处理中放大偏见效应,形成恶性循环。在信息传播阶段,GPT则可能模拟人的意识感知、进而操控人的认知,根据个体风格进行选择性的输出等,甚至对部分用户进行恶意欺诈或者误导性宣传,公民的知情权受损,群体之间的认知鸿沟被极端化。另一方面,人工智能会阻碍数据的共享与完整传输,从而减少了政策观念之间协商与修正的机会。人工智能对数据共享与传输可能设置隐蔽障碍,造成用户访问权、修正权等数据主体权利失效,将数据传输陷入无序状态。加上群体天生具有极化倾向,拥有相同观点的人更容易形成群体,而群体内部的交流又会强化群体的极端观点,这就夸大了群体之间观念的差异性,政策诉求更易于表现为极端和偏激。而且人工智能可能被赋予人的面孔、声音和修辞天赋而表现得与人类无异,继而以其观点将人类观点挤出公共领域或者引导到特定方向,而人类对此毫无知晓,结果却是阻碍了观点之间的交流与辩论,减少了观点缓冲与调和的机会。最终,政策信息以极化的观点表现出来,却无法整合起来反映政策问题的全貌。

2.3 机器依赖强化了政策系统的封闭性

关于技术统治人类思想的观点早已有之,随着福特发明装配线,人沦为机器的奴隶;上帝造人论受到攻击,生物进化论取得胜利;泰勒的《科学管理理论》确立了科学管理思想,科学至上的观点出现,社会研究沦为自然科学的附庸,这些都标志着现实中技术垄断思想的兴起。工业社会中确立了技术至上的信念,并让生活去适应技术的需要,虽然生活中包含了文化与美等可能无法被技术化的构成,但生活不断被修剪以便纳入技术体系。随着技术对社会治理的影响日益增大,尤其是当ChatGPT显示出了机器具有认知能力和高级智能的趋势,甚至制造出了机器无所不能的假象时,人们已经没有时间去思考技术的弊端了,也找不到技术弊端的源头和回溯机制,而只是盲目地在更大范围内通过机器去收集信息进行方案设计与择优,因此带来了对机器的依赖。“随着科学家越来越了解人类的决策机制,对算法的依赖可能也会越来越强烈。掌握人类的决策机制之后,就能提升大数据算法的可能性,但同时也降低了人类感受的可靠性。当政府和企业都能够成功进入我们这套人体操作系统时,人类就将面临铺天盖地的种种精准操纵、广告和宣传。到时候,要操纵我们的观点和情绪将非常简单,于是我们也不得不依赖算法来反制,就像飞行员一旦因为眩晕而产生空间迷向,就不能再相信自己的感官,而必须全然相信仪器。”[15]50

对机器的依赖越高,政策过程中也就更少地需要公众的参与。公众的观点可能会变得无关紧要,与机器生成的数据不同的所有观点或者质疑机器的声音都会被自动忽略,政策系统在技术发展中反而封闭起来。既然智能机器能够代替人类做出决策,而且能够实现更高的效率和更科学的结论,那么由智能机器来决策实际上就是实现了公共利益的最大化,智能机器对公众参与的代替也就是合理的了。不过,数据霸权或者算法霸权并没有排斥所有人类,而是将决策权力集中到专家与技术官员手中,政策权力配置不均衡且形成了马太效应:已经拥有强大算力、数据以及技术和财务资料的组织更有优势;拥有大量高质量数据的人能获得更多信任资源。这样,技术路径将政策过程中的价值考量排斥在外,技术专家与普通公众、数据使用者与无能力获取基础数据的群体之间的分化扩大了,大量的因素和诉求被过滤,政策过程可能会建构出片面化的政策问题。

2.4 政策目标的自反

第一,政策科学化在技术路径上要求数据的完整与真实,但为了达到这一目标,实际开展的数据采集与分析经常会影响到个人权利和自由,这是政策科学化过程中出现的一个悖论。数据收集过程实际上就是将技术手段伸及社会领域中并将其用数字符号表示出来的过程,可能会涉及不透明和复杂性的工具与手段,实时的、全面的收集与分析可能对社会形成一个隐形的、无处不在的监视系统。人工智能的发展使得这种监视和控制进一步隐形,而且更加周密。“因特网的特别之处在于自由与控制的混合方式。”[16]25对政策对象而言,当个人信息被全面收集进而进行实时追踪,也就意味着个人无时无处不在被监视之中,不过,当人意识到这一点,也会有意改变可能被捕捉到的行为选择,但这也使得政策诉求与行动表达丧失真实性与完整性。

第二,数据系统将现实社会转化为数字符号进行呈现和处理,将政策问题简化成为机械化的存在以及技术所能控制的对象。在一定程度上,政策过程的数字化必然是具有控制性的。数据生成与流动的物理层是受控的,数据的内容与形式是由代码来引导的,现实社会被数据化,并接受数据化结果的管理,最终技术控制了现实。技术进步与政策优化都是为了让人类获得更高水平的发展,但在技术应用中政策可能会远离这一目标,也就出现了政策目标的自反情况。

第三,即使人工智能在数据收集和处理中可能侵犯个人隐私,但这种行为被隐蔽并正当化。一方面,对个人数据的收集与分析往往难以被察觉,其不利影响通常在数据应用阶段或者经过较长时间才能表现出来,甚至根本就不会被发现,这使得隐私侵犯并不容易被知晓;另一方面,先进的技术手段会制造出多种借口对隐私侵犯正当化。如侵犯个人隐私的隐喻性概念是非法侵入,对一个网站或者数据库所开展的数字监视器非法或者未授权的侵入被认为是侵入他人的私人领域或空间,但是侵入者会进行自我辩解,其通常思路是“门开着”或“并没有门”,这样“侵入”就不能算侵入。

3 人工智能导致的政策失灵具有隐蔽性

生成式人工智能基于算法、模型等自主生成文本、图片、视频等内容,不需要人的直接参与,这体现了技术的特殊性。也正因为其不同于传统技术工具,人工智能会同时对政策过程的方法路径与价值导向产生影响,诱发政策失灵,而工具与结果之间的因果追溯机制复杂化了,难以将政策失灵的原因归结到人工智能。

3.1 技术责任判定模糊化

生成式人工智能通过算法生成内容,生成过程具有一定的自主性,生成内容具有极大的不确定性,这一过程不需要人的参与,而且人类难以预测其行动选择。当生成内容出现问题时,因为人类对人工智能的技术并不能完全了解而无法判断原因是技术本身的缺陷、数据的偏差,还是人工智能主观有意为之,这削弱了人类对智能机器的控制,更使得责任判定模糊不清。“当一项大数据应用明显使用这些变量在对待人的过程中作出区分,而这一点并没有得到相关负责人的纠正时,这就构成了直接的故意歧视。然而,在大数据中,歧视通常不是那么明显,甚至可能不是数据控制者的本意。”[17]50ChatGPT会聪明地运用模棱两可的语言,迎合不同群体的偏好,生成不同的结果,会开玩笑,也会胡编乱造,但人类对其结果的归因路径并不清楚,对所生成信息的方法和影响因素了解也有限,更毋论将其置于宏大的社会系统中进行责任判定。信息和通信技术对这个世界将会怎样以及应该是怎样具有越来越大的意义,所承担的责任也越来越重,但责任归因越发困难和模糊。决策强调循证,但是技术“黑箱”加大了证据界定与举证的困难。决策结果受到社会环境、参与主体、决策机制、技术工具等因素的影响,而包括技术工具在内的每个因素都比较复杂、难以界定,这些都加大了对人工智能进行责任判定的难度。

3.2 决策责任主体复杂化

决策由组织与个体做出,也由组织与个体来承担相应的责任,这一点是现代社会所形成的共识。即使政策失灵是由于政策工具和技术使用不当所导致,责任也归于政策工具的使用者即政策主体。责任会在不同部门与层级之间进行分配,但都限定在决策组织层面。而当人工智能显示出自主决策能力的迹象时,决策系统与责任主体都复杂化了。人工智能是否已成为一个独立的政策主体?能否承担决策责任?结论不是那么清晰了。在图灵最早对人工智能的设想中,就将人工智能置于普通的工具范畴之外,认为人工智能将会等同于人的智能。“图灵使我们认识到,人类在逻辑推理、信息处理和智能行为领域的主导地位已不复存在,人类已不再是信息圈毋庸置疑的主宰,数字设备代替人类执行了越来越多的原本需要人的思想来解决的任务,而这使得人类被迫一再地抛弃一个又一个人类自认为独一无二的地位。”[18]107在人工智能的发展史上一直存在着一种担忧,即担心人工智能会产生自主意识,生成认知能力,因为人工智能的“自主性”程度直接关联到人类与机器之间的关系与责任分界。ChatGPT是高性能的智能体,能够开展复杂的智力工作,并显示出生成自主意识的可能,那么在政策系统中应该如何对其定位?不同于普通的纸、笔、时钟等工具,如果机器发展最终走向觉醒,成为不同于人类的一个新的物种,那么是否应该被视为独立主体来承担责任?而当前阶段,应在何种程度上认定人工智能的责任?“在‘人类为共同决策人’时,人类所做出的决定会越来越多地被机器人系统所干预。因此,一个至关重要的问题就在于,技术干预会以何种方式影响操作者的行为。在作决定时,无人机操作人员高度依赖武装军用机器人系统传输过来的信息。尽管操作人员在法律上承担责任,但人们也存在疑问,即他们要为自己的行为承担多少道德责任才算合理。”[19]226决策主体从人类跨越到对人工智能的包容,决策责任承担主体也复杂化了。

3.3 人机之间避责策略化

决策系统是一个责任认定领域,也催生了大量的避责行为。决策主体之间会开展行动博弈,包括消极行为选择,以及主体之间的相互甩锅。而在人工智能一定程度上成为责任主体之后,则会出现人类与人工智能之间的责任推诿与避责,最终导致决策责任被稀释。决策失灵的责任由人类与人工智能共同承担,但在责任共担的名义下无法做出清晰的责任分割,这就产生了责任真空。一方面,人类与人工智能之间彼此转嫁责任。如人类可以将其观点的来源都归于数据与算法,这样将其主观失责转化为技术失误,机器成为替罪羊。一旦将决策流程与程序上出现的问题归为客观的技术路径,由于技术出现一些小的失误是可以得到宽容的,这样就使得相关责任追究不了了之。同时,人工智能也可以为技术路径做出辩护,将责任认定为人类的选择与思维错误。另一方面,人工智能发展到高级阶段后会实现技术的内部直接联结而越过人,并改变和控制人类,这时的政策责任就更难以界定了。“在某些国家和某些情况下,人们可能完全没有选择,只能被迫服从大数据算法的决定。然而,就算是在理论上自由的社会里,算法也可能成为权威,因为经验让我们把越来越多的问题交给算法来处理,最后也就逐渐失去为自己做决定的能力。”[15]50对于人工智能导致的决策失误,责任是归于人工智能、算法设计者还是决策过程中的应用主体,答案无法明确,这样一来,在多个主体同时对决策失灵的结果负责时,反而出现无主体为结果负责的状况。即使责任体系设计得再完美,无法落地也只能带来无责任的结果。

3.4 追责路径特殊化

责任一词具有丰富的内涵,一方面指向利益,另一方面指向行动[20]。也就是说,一方面是从作为结果的利益来判断其责任;另一方面是从行动的主观意图来界定责任,分别对应外在的约束机制与内在的约束机制。由于无法确定当前人工智能是否具有人类意识,无法判断人工智能做出行动选择的动机与意图是其自身生发的还是程序设置的,因此无法从内在的约束机制来设置机器人的责任体系。这也就是帕加罗所说的,目前在法庭上争论机器人的犯罪意图是毫无意义的。“这些机器不必为它们的行为承担责任,因为不存在所谓机器人犯罪意图这种东西。机器人缺乏承担刑事责任的前提,例如自我意识、自由意志和道德自主性,因此很难想象法庭因机器人的恶行而宣告其有罪。”[21]52因此,只能从外在约束机制来建构人工智能的决策责任,这就需要从行为结果来倒推责任,但责任的因果关联多元且复杂,涉及决策问题、政策对象、数据模型、算法规则等多方面因素,以及程序开发者、数据应用者、人工智能工具等多个主体,主体与环境之间密切关联且难以独立成为分析对象,这使得责任倒推路径过于复杂,责任链条实际上是断裂的。

4 加强监管以规避政策失灵

ChatGPT的发布意味着人工智能将全面参与到决策中并发挥作用,但在减少政策失灵几率的同时,也带来了新的政策失灵的可能。人工智能优化了政策工具,但并没有造就完美的技术工具,因为任何技术都存在缺陷,因此绝对完美的技术工具并不存在。即使存在完美的技术也不能规避所有的政策失灵,相反,技术的发展也可能带来新的政策隐忧。政策过程中人工智能的发展要求重塑人类与技术工具之间的关系,人类将从“决策者”转向“共同决策人”,但人类首先要明确自身的主体地位,将人工智能的发展纳入人类共同体的目标之下,加强对人工智能的监管以规避政策失灵的发生。

4.1 政策过程中人工智能的角色定位

人工智能发展的高级阶段被称为强人工智能或者超级人工智能,“我们认为超级人工智能能够表现出高度一体化的认知能力。在解决问题的时候,它能够动员全部的认知渠道,把得到的信息充分利用起来。如果超级智能有这三个认知属性——目的、认知和一体化,那么与它互动或者对它进行观察的人类肯定会认为它是统一的、强有力的智能”[22]140。就这一标准来看,由于GPT并不能完全明白人类的价值观,不能完整理解事物背后的意义,也不能完全代替人类做出政策选择,因此,即便机器可以做很多事情,也未达到强人工智能阶段。现阶段人工智能仍然遵循算法规则,执行代码命令,这是当前进行角色定位的一个基本前提。

不能继续将人工智能视为传统的技术工具,但也不能将其等同于与人类一样的决策主体。在政策过程中人类仍然占据主导地位,需要对人工智能进行监管,使其成为负责任的机器。2023年5月16日,ChatGPT之父萨姆·奥尔特曼在出席美国国会作证时表示,他支持对人工智能进行监管,以最大程度地减少危害。此前,马斯克认为OpenAI和谷歌等企业对待人工智能的态度不负责任、监管不够并进而退出了OpenAI,马斯克在接受采访时说:“人工智能比管理不善的飞机设计或维护糟糕的汽车生产更危险,它有可能破坏文明。”[11]这些观点都表明了对人工智能进行监管的必要性。“如果我们回避对数学杀伤性武器的探索,把它们当作一种中立的力量、不可避免的趋势,就像天气或潮汐,我们就等于是放弃了我们的责任。”[23]255在机器体现出觉醒趋势的今天,必须要明白,世界不是为了机器而存在的,而是为了人类而存在,因此人类可以提前做出预防与引导,使人工智能的发展服从于人类社会的需要,这是政策过程需要确立的基本观念。

4.2 政策过程中人机关系的重构

当ChatGPT通过了图灵测试,并在考试中取得高分之后,就意味着人类与人工智能之间的边界已经模糊了。人工智能会超越人的思维速度与灵活性,同时也远高于人类的计算效率。未来的机器人会具有更高程度的智能,甚至可能会发展成一个智能程度更高的物种,进而使得未来的治理更类似于人的思维运行而又高于人类的效率。但人工智能并不会完全代替人类,更不会奴役人类。“作为信息设备,类似大脑的记忆系统将是我们开发出来的用途最大的技术之一。但就像汽车和电脑一样,它们仅仅是工具而已,具有智能并不意味着它们将有特殊的能力来破坏我们的物质世界或控制人类。”[24]223-224

相反,人工智能可以成为人类决策的合作伙伴。人工智能会在很多地方替代人类,实现政策过程的信息化,并在技术路径上完成政策过程,这意味着人类可以从一些常规工作中解放出来,寻求更深层次的发展,发挥创造力探索政策价值及其发展方向。如果机器可以打造一个美好的世界,那么人类就不需要像机器人一样朝九晚五地工作,而是可以更多地去创新和感受,去思考公共政策的终极意义。“高级机器人也不会奴役或者灭绝人类,就如科幻的典型模式那样。人类总是会适应他们的技术产品,与自主机器交往的人得到的好处很可能超过其为此付出的代价。”[25]4这也意味着,政策优化依靠人类与人工智能的共同发展,人类与人工智能需要寻求共生共在之道[26]。

4.3 加强对人工智能的监管

其一,构筑人工智能的伦理规则,强化机器的道德责任。人工智能不会天然地关注贫困人群、老年人、未成年人等弱势群体,不会自动地考虑政策过程中的公平、民主、正义等价值,“机器人不是道德人”[27],或者说,机器人不会自动地成为道德人。机器人的发展一直以来都是在强化其技术理性,而在当前阶段需要重视对人工智能的价值引导。50年前,艾萨克·阿西莫夫(Isaac Asimov)就预见到需要伦理规则来引导机器人的行为,他提出的“机器人三大定律”成为人们思考机器人道德的规范:“第一,机器人不可以伤害人;或者,通过不作为,让任何人受到伤害;第二,机器人必须遵从人类的指令,除非那个指令与第一定律相冲突;第三,机器人必须保护自己的生存,条件是那样做与第一、第二定律没有冲突。”[25]12015年日本庆应大学在三个定律基础上增加了五项原则,即保守秘密、使用限制、安全保护、公开透明、责任。如何强化机器的道德责任?目前形成了自上而下与自下而上两种路径。自上而下的路径即从程序设置上向机器人设置道德指令,引导机器人的行动选择关注价值符号,超过相关阈值时对机器行为做出矫正;自下而上的路径强调机器人的自我学习,就如同人类也并非生来就是合格的道德智能体,但大多数人都能习得一些礼仪,而有资格成为道德智能体社会中的一员,人工智能也可以通过进化来习得道德,这就需要建构道德的文化与场景。

其二,明确政策过程中人工智能的应用范围,为机器行动设定制度框架。机器在很多方面比人类效率更高,但在对政策情境与目标体系的理解和设定上不能达到人类水平,人类在政策过程中应当承担更多的责任。人类应当为机器的技术发展和行动路径设定总体框架,将其行动选择控制在政策目标体系之内。既然人工智能不能依据其动机来判断其责任承担,那么应通过结果倒推来判定其发挥的作用以及承担的责任,并结合人工智能自主决策能力的高低对其责任范围评定划级,如分为完全责任主体、限制责任主体与无责任主体等,来界定其法律与社会责任。其中需要注意的是,当人机决策结果不一致时,决策权应交给熟悉此领域的人类,由人类掌握最终的决策权,也因此由人类来判定人工智能的使用范围并承担相应责任。“如果机器人因为行动更迅速并且比人类存储更多的信息从而继续增加在战场上使用,军事指挥官和有关政权当局仍然需要对这些机器的全部决策承担严格责任。”[21]61不过,在对人工智能的权力进行回收的过程中需要做好衔接,对技术理性与价值考量的双重维度做好平衡。

其三,提高人工智能技术的透明度,确保数据安全及隐私不被泄漏。当前GPT虽然已经实现了较高的技术透明度,但也存在大量的技术“黑箱”和算法迷雾。对此,需要进一步提高人工智能技术的开放性与透明度,一方面大力发展人类技术,另一方面在人工智能中设置技术共享程序和输出。总体来看,当前人工智能的发展仍然是在算法指令的框架之下,“对于确定性计算,输出中呈现的信息必然也以某种方式呈现在输入中——信息必须来自某处。计算机不会产生信息;它们被重排、计算、复制和删除,但不会无中生有”[28]51。这样一来,数据的准确性、完整性、真实性就尤为重要。数据作为决策的重要来源,数据的安全性是决策优化的重要保证,一方面需要提升人工智能数据处理的可靠性;另一方面需要设置更多的路径对非结构性数据进行有效转化。与此同时,人工智能的应用需要相应的隐私保护规则的配套,数据的收集和整理都要设定边界,对数据的覆盖范围与处理路径进行规范,在数据公开的同时保护数据安全,在算法透明的过程中注意算法边界。

其四,建立起多主体、多环节、多维度、跨领域的监管法律体系。生成式人工智能已经超出了现有法律监管的范围,行政法、民法等可以进行分散治理,但未能形成完整的法律体系,且对底层技术治理不足,对技术提供者监管不够,对数据与场景的分类未能形成明确规定,更未能清楚界定人工智能的法律地位。2023年7月国家网信办等七部门联合出台《生成式人工智能服务管理暂行办法》,今后还需要进一步凝聚共识,加快人工智能的立法进程。要广泛收集各行业、各领域、政策各阶段关于人工智能立法的建议,探索适合我国情境的政策过程中的人工智能法律规范,加强对算法的控制。同时,要建立多主体、全方位的监督体系,一旦发现机器人技术在设计或者供应方面非法,监管部门就应该做出有效监视并敦促整改。政策过程中相关主体都可以成为审查的主体,同时也应作为被审查的对象,以此对人工智能形成全方位的监管体系。

5 结语

ChatGPT意味着人工智能技术取得了根本性突破,为政策失灵的规避带来了极大的想象空间,但也使得政策失灵的发生具有更多的可能。人类在享受人工智能所带来的极大便利与极高效率的同时,也应该警惕其可能带来的不利影响。由于人工智能具有技术上的特殊性,必然带来决策责任归因的复杂化,这也意味着人工智能对政策过程的影响可能更加隐蔽,甚至无迹可寻,因此难以对人工智能进行责任界定。整体来看,人工智能的发展要求对政策过程中的人机关系做出全面的思考与建构,需要确立政策过程中的人机合作关系。

本文基于对生成式人工智能的分析,探讨政策过程中技术的应用与影响,分析人工智能对政策过程的积极作用与不利影响,基于此,将人工智能可能带来的政策失灵降至最低,使其最大程度地发挥政策优化的作用。当然,本文的分析只是基于生成式人工智能这一特定的阶段,对人工智能在政策过程中的作用都是基于现阶段人工智能所具有的能力与特征,随着人工智能的进一步发展,现有观点需要做出相应的修正,这也意味着本研究将是一个持续的过程。

猜你喜欢
机器决策人工智能
机器狗
机器狗
为可持续决策提供依据
决策为什么失误了
2019:人工智能
人工智能与就业
未来机器城
数读人工智能
下一幕,人工智能!
关于抗美援朝出兵决策的几点认识