践行科技向善,筑牢可信人工智能的道德藩篱

2019-02-24 07:08栾群
民主与科学 2019年6期
关键词:人机伦理信任

栾群

发展可信人工智能,技术治理与伦理准则必须兼顾,民族立场与人类情怀必须协调,经由设计的伦理和基于监督的信任必须同步,才有可能在人工智能加持的战场上赢得优势、赢得主动、赢得未来。

随着人工智能技术和产业的飞速发展,我们迎来了人工智能的第三次浪潮(第一次:1956—1976年,基于符號逻辑的推理证明阶段;第二次:1976—2006年,基于人工规则的专家系统阶段;第三次:2006至今,基于大数据驱动的深度神经网络阶段)。同时,也有人警醒地看到,人工智能伦理问题已迫在眉睫。随着技术突破和产业落地频繁见诸报端,让人感到恐惧和紧张的还有人工智能技术及其应用带来的负面影响。在国家政策和科技伦理的指引下,很多机构和研究人员开始关注:如何建立起人类与人工智能的信任关系,并通过一系列机制构筑起可信人工智能的道德边界,确保人工智能在创新和使用中沿着人类预想的方向发展。

人工智能技术必须贯彻科技向善

发展人工智能之所以必须更加强调道德伦理和向善理念,是因为这种东西可能是直接“威胁”人类的“新物种”。首先,人类第一次面对自己的创造物感觉到被替代的恐惧。传统的工业化技术指向性在于产品,而人工智能技术的指向性却在人本身。传统工业化技术的功能性被严格定义,服务于人类的生产、生活和学习,无论如何提高工艺但不改变其工具性——突出表现在无论使用者是谁,其功能性都是普适的。这也是技术中立观念的工业化基础。而人工智能技术的产品或服务,都指向了特定人——当无法辨认为特定对象时就可能享受不了服务。如传统相机提高的是照相的清晰度,而智能相机人脸识别是可以锁定你的身份的。其次,人类在面临人工智能技术时感到普遍的无能为力。当然,目前为止这种“无能为力”更多的是一种感受,而且人工智能的成熟度还远没有到达那一地步。但笔者想强调的是,由于人类智力增长是线性增长和对数增长,人工智能技术的发展却是指数增长,奇点一旦来临,人类就再无胜算。这种机器对人体力和智力、物种和物理多重“碾压”带来的压迫感,在科幻作品中已经频繁上演了。第三,人类面对人工智能有一种复杂的感情。人类创造出人工智能,想让它越智能越好,但又怕它太智能而超越自己、替代自己、不受控制甚至反过来控制自己。特别是,当“互联网+”进入3.0的物联网新阶段,机器之间可以互联甚至交流——当机器也有了人类以为自己才能独有的“社会性”,人类社会的普遍自信就被“瓦解”了。

人类对技术进步的复杂感情,促使人类转而探索完善对技术的治理。以腾讯为代表倡导“科技向善”的理念,并在此理念下提出科技伦理的三个层面内容:第一,技术信任。即人工智能等新技术需要价值引导,具体表现为“四可”原则:可用、可靠、可知、可控。第二,个体幸福。即确保人人都有追求数字福祉、幸福工作的权利,未来的社会必定是人机共存的智能社会,在此背景下实现个体更自由、智慧、幸福的发展。第三,社会可持续。发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会,持续推动经济发展和社会进步。

谷歌之前的信条是“Dont be Evil(不作恶)”,虽然由于外部不明原因这一表述在2018年4月5日被从网页上撤下,但“向善”“不作恶”的科技发展理念已经深入人心,特别是当科技发展带来的事故被报道出来,就更加使人坚信这样的信条。也许当时提出“不作恶”信条时,是创始者看到了太多人类的自大、傲慢和私欲,一次次将本来用于造福于世的技术变成了可能毁灭人类未来的武器。周国平提出,“科技向善”至少有四个维度:功能层面科技应该让人类更高效、舒适;社会层面科技应该普惠更多普通人;伦理层面科技及使用应该恪守基本伦理底线;精神层面科技应当含有人文精神。但值得警醒的是,“科技向善”的提出,实际上就意味着“科技作恶”的可能性在大大增加。当我们讨论科技向善时,是在讨论科技吗?可能不真是,毋宁说我们是在讨论人类对科技及其使用的共识。古希腊哲学家普罗泰戈拉说,“人是万物的尺度”。我们在面对世界的时候,可能价值选择因人而异,出现万人、万物、万尺度。但人类不会因为达成共识的困难,就泯灭对发展的渴望。普罗泰戈拉的这句名言是针对神提出的,他是在强调人的尺度性,意在“灭神”。但对于人类正在大力发展的人工智能技术来说,万物尺度的人是不是在重新“造神”呢?无论是或不是,人类都不应忘记自己尺度性中“向善”的成分。

人工智能需要建立人机之间信任

从“向善”到“信任”,是理念到行动的落实。“向善”是人类的共识,达成共识的人类之间的“信任”是不言而喻的。但在人工智能技术大发展的大背景下,人工智能要获得更长远的发展,建立起人机之间的信任是一种必需。先从词义上看,信任一词英文动词是trust,tru-代表真实,意指坚信某人或某物纯良、诚实、善意,不会伤害你或算计你。段伟文教授提出,人机之间的信任需要一种beliving,这是一种面向智能化时代的人机信任机制,需要每个人拿出人类的能动性采取行动,纠正那些被采集和被分析的数据中的错误或偏见。人机之间的信任首要的一点是“不要害怕”,当人类处在或主要处在害怕情绪之中时,这种beliving机制是建立不起来的。毕竟人机之间的关系说到最后,是人与人之间以机器为中介的关系。若以这种角度来做建设性人机关系的构筑行动,可能就感到比较轻松一点了。

传统意义上的信任关系,是一种托付关系,发生在委托人与受托人之间。所以,英文单词trust还有信托(财产)的意义,即委托人基于对受托人的信任,将其财产权委托给受托人,由受托人按委托人的意愿以自己的名义,为受益人的利益或特定目的进行管理和处分,通常要一直达到特定年龄(an arrangement by which an organization or a group of people has legal control of money or property that has been given to sb., usually until that person reaches a particular age)。从这里实际上也可以看出人机之间信任关系的影子,人类出于对机器或人工智能系统的信任,而委托其处理自己的事务。特别是,如儿童看护、情感交流等情形,真的是典型的情感信任。甚至,可以预想被人工智能看护的儿童,成长起来后对它的信任几乎是牢不可破的。但这里不同于传统trust的有两点,一是二者之间不是两个平等主体之间的关系,而往往是一个主体与一个平台之间,或一个平台与所有人之间的关系;二是二者之间目前来看还不清楚相互关系的全貌,即人类信任机器基本可以理解,但机器信任人或机器之间信任的机制还不甚清楚。而要弄清楚这一点,真正建立起人机信任关系,就需要充分的联接和善意的引导。

达成向善的共识,建立信任的情感,人机才能携手奔向美好的明天。所以,为人工智能技术或新兴科技找到道德伦理的把手,可能才是构筑人机信任的关键。纵观整个科技史,没有迹象表明技术自身带有道德伦理的品质,科技哲学观念是被开发、使用技术的人所赋予的。人工智能的伦理价值和伦理责任,与其说是机器对人的启迪,不如说是人类尺度性的启动发挥和自我意识的主动寻找。关于信任有句名言,“信任别人的善良是自己善良的明证”,但问题是,人类自己足够善良吗?谷歌在2019年3月26日成立了外部专家委员会(ATEAC),用于探讨人工智能伦理问题,但仅成立了9天即被解散。其所面临的人事斗争姑且不论,但被反对的理由如:ATEAC成员在为军方提供无人机自动驾驶方案(可能直接有悖于“不作恶”信条),还有成员反对跨性别者(Transgender)涉嫌歧视特定人群,还有服务保守派智库传统基金会迎合政治需要,等等。这启示我们,善良也可能是一张“普洛透斯的脸”(a Proteus face),变幻无常,那么要建立信任真的是“路漫漫其修远兮”。

可信人工智能的国际经验与启示

2019年是可信人工智能的元年。欧盟委员会发布《可信人工智能伦理准则》(Ethics Guidelines For Trustworthy AI),美国更新了2016年发布的《国家人工智能研究和发展战略计划:2019更新版》(The National AI R&D Strategic Plan: 2019 Update),中国国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》;而国际组织如经济合作与发展组织(Organization for Economic Co-operation and Development,OECD)成员国于5月22日批准了《OECD人工智能原则》(OECD Principles on Artificial Intelligence),6月9日二十国集团贸易和数字经济部长会议发布了《G20人工智能原则》(G20 AI Principles)等。不论是各主要国家政府,还是国际政府间组织,都开始采纳政府签署的人工智能原则,确立人工智能的治理方式。

这其中,OECD、G20的文件更侧重原则,而以欧盟《可信人工智能伦理准则》为代表则提供了完整的伦理规范体系。我们从欧盟的伦理准则中,可以探寻到一些关于可信人工智能构建的线索。根据欧盟人工智能伦理准则,可信人工智能必须至少具备三个特征:合法性、合伦理性、稳健性(Robus又译为鲁棒性)。而可信人工智能的伦理框架包括三个层次:可信人工智能的根基、可信人工智能的实现、可信人工智能的评估。可信人工智能的根基是四项伦理原则:尊重人类自主性、防止损害、公平原则、可解释原则。而可信人工智能的实现至少包括七个方面,分别是:(1)人类的能动性及监督;(2)技术稳健性与安全;(3)隐私和数据治理;(4)透明性;(5)多样性、非歧视和公平;(6)社会和环境福祉;(7)问责机制。可信人工智能的评估,主要是根据上述七个方面给出了《可信人工智能评估清单(试用版)》,帮助企业及其部门如管理层、法务、研发、质量控制、HR、采购、运营部门等,在上述七方面的百余项细化指标中共同完成对可信人工智能的构建和保障。

欧盟《可信人工智能伦理准则》刚刚实施半年,现在评论也许为时尚早。但值得我们注意的是,欧洲在人工智能技术和产业发展上没做到先发制人,但在人工智能治理和伦理上确实走在世界前面。同时,可信人工智能的构建肯定是一项复杂的系统工程,并且里面有很多价值观和方法论的内容需要预先研究。闫宏秀老师提出,我们说的可信人工智能包括人类对人工智能的信任和人类对自身的信任,事实上这两个方面归根到底是人类对自身所制造产物是否可以有效应对的解答,即关于可信任人工智能实现途径的探讨。中国的可信人工智能治理的方案,提出不算早但也不算晚。新一代人工智能治理原则,以发展负责任的人工智能为主题,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八项原则,算是赶上了全球可信人工智能发展的“準点班车”。但正如莎士比亚所说,“一切过往,皆为序章”(What's past is prologue),人工智能新时代大幕拉开,一切可能才刚刚开始。发展可信人工智能,技术治理与伦理准则必须兼顾,民族立场与人类情怀必须协调,经由设计的伦理和基于监督的信任必须同步,才有可能在人工智能加持的战场上赢得优势、赢得主动、赢得未来。

(作者为工业和信息化部赛迪研究院政策法规所所长)

责任编辑:马莉莎

猜你喜欢
人机伦理信任
从内到外,看懂无人机
浅谈我国社会工作伦理风险管理机制的构建
人机对视
水下无人机:解锁钓鱼新姿势
嘤嘤嘤,人与人的信任在哪里……
亲组织非伦理行为研究
亲组织非伦理行为研究
从生到死有多远
非伦理领导对员工职场非伦理行为的作用机制研究
信任