新加坡人工智能治理的实践探索及启示

2023-03-14 03:11邱惠君郭利
信息化建设 2023年1期
关键词:工具包新加坡指南

文|邱惠君 郭利

自2018 年以来,新加坡一直致力于有关人工智能伦理和治理的持续探索,先后发布人工智能治理框架、组织实施和自评估指南以及人工智能治理案例汇编等,近期又推出了全球首个人工智能治理测试框架和工具包,系统、深入地指导各类组织机构开展人工智能安全风险治理,以负责任的方式开发部署人工智能

随着人工智能技术的不断深入应用,人工智能治理已受到全球高度关注。2022 年5月,新加坡推出全球首个人工智能治理测试框架和工具包,以通过标准化测试来验证人工智能系统,这一举措使得新加坡在人工智能治理实践领域又一次走在全球前列。还值得一提的是,新加坡是我国申请加入的《数字经济伙伴关系协定》(DEPA)的三大发起国之一,而探索负责任使用人工智能监管框架是协定涉及的一项重要内容。因此,新加坡在人工智能治理领域的理念和实践值得我们关注和借鉴。

实践探索进展:从发布原则指南到推出评测工具平台

新加坡认为,建立可信生态是发展数字经济的关键。自2018 年以来,一直致力于有关人工智能伦理和治理的持续探索,先后发布人工智能治理框架、组织实施和自评估指南以及人工智能治理案例汇编等,近期又推出了名为“A.I.Verify”的全球首个人工智能治理测试框架和工具包,系统、深入地指导各类组织机构开展人工智能安全风险治理,以负责任的方式开发部署人工智能。

新加坡在人工智能治理实践中采用了“原则+指南+工具”的一整套方案,其大致进展为:

新加坡从顶层明确了人工智能治理两大原则,即“人工智能决策过程可解释、透明、公平”和“人工智能解决方案应以人为中心”。新加坡认为,机构使用人工智能时应努力确保其尽可能地实现这一原则所要达到的目标,这有助于建立公众对人工智能的信任和信心。同时,在设计、开发和部署人工智能时应考虑以人为中心。

2019 年1 月,在世界经济论坛会议上发布《人工智能治理模型框架》(第一版),为私营部门组织机构提供详细且易于实施的指导,落实人工智能关键伦理和治理问题,其目的是促进公众对技术的理解和信任。《人工智能治理框架》由新加坡信息通信媒体局和个人数据保护委员会联合推出。

2020 年1 月,发布改进后的《人工智能治理模型框架》(第二版),相比第一版,实现更好的相关性和可用性,推进治理原则不断落地。同时,作为治理框架的配套指南,发布《组织实施和自我评估指南》,帮助各类组织机构评估其人工智能治理实践与模型框架的一致性,还提供了有用的行业实践示例。该评估指南是与世界经济论坛第四次工业革命中心合作的成果,有60 多个机构参与了相关工作。同期还发布了《人工智能治理案例汇编》,汇集不同行业、规模的组织如何根据治理框架来有效地实施负责任的人工智能治理。

2022 年5 月,推出名为“A.I.Verify”的人工智能治理测试框架和工具包(最低产品版MVP)。新加坡认为这是世界上首个以客观和可验证方式展示负责任人工智能的测试框架和工具包,将负责任和值得信赖的人工智能概念落地,可帮助企业提高其人工智能产品和服务透明度。人工智能开发者和拥有者可以通过一套定量和定性相结合的标准化评测方式,来验证其人工智能系统是否符合声称的性能。目前,该测试框架和工具包还处于试点阶段,包括亚马逊、谷歌、微软、新加坡电信、渣打银行在内的来自不同领域、不同规模的10 家企业已经开展了试用并提供了反馈,相关意见将用于更新版本。新加坡还计划将其提升为国际范围内使用的测试框架和工具包,并为国际标准的制定作出贡献。

治理框架的核心思想:明确两大顶层原则和四个关键维度

新加坡人工智能治理框架是由信息通信媒体局和个人数据保护委联合发布的一个通用性框架,先后已发布两个版本,各行业和组织机构可结合自身情况作出灵活调整,其目的是应对人工智能开发应用带来的风险问题,从而更好地建立用户的信任。治理框架的核心内容和思想主要体现为:先从顶层确立两大原则,然后从四个关键维度提出规范性要求和评估清单,指导组织机构自愿开展自我评估和改进,更好地促进负责任人工智能的实施。

明确两大顶层原则,促进对人工智能的理解和信任

新加坡在人工智能治理框架中,首先从顶层明确了两大原则,即“人工智能决策过程可解释、透明、公平”和“人工智能解决方案应以人为中心”。

一是各类机构应确保人工智能决策过程的可解释、透明和公平。新加坡认为,虽然不可能达到完美的可解释性、透明度和公平性,但机构使用人工智能时应努力确保其尽可能地实现这一原则所要达到的目标,这有助于建立公众对人工智能的信任和信心。

二是人工智能的解决方案应该以人为中心。由于人工智能被用来增强人类的能力、保护人类福祉和安全等利益,因此,在设计、开发和部署人工智能时应考虑以人为中心。

着力四个关键维度,提出具体规范性要求

新加坡人工智能治理框架将人工智能伦理原则转化为组织自愿采取的实际措施,在基于两大原则的基础上,重点从内部治理结构措施、人类参与决策程度、开发部署运营管理、与利益相关者沟通四大维度,提出了规范性的具体操作要求。

在内部治理结构措施方面,治理框架要求明确相关角色职责、风险监控和管理的标准操作程序,以及开展员工培训等。具体要求有:调整现有(或建立)内部治理结构和措施,将算法决策相关的价值、风险和责任纳入机构治理体系中,明确以符合伦理方式部署使用人工智能的角色和责任,建立一套涉及人工智能的风险管理、监测报告等内部控制制度,确保机构对开发部署人工智能进行有力的风险管控。

在人类参与决策程度方面,治理框架要求确定人类干预的适当程度,将伤害风险降到最低。具体要求有:机构要设定其使用人工智能风险偏好的方法,即确定可接受的风险和确定人类参与人工智能增强决策的监督程度,在部署人工智能解决方案之前,机构应该决定其使用人工智能拟达到的商业目标,然后以其价值观为指导对使用人工智能的风险进行权衡。

在开发部署运营管理方面,治理框架要求实现数据和模型偏差最小化,开展基于风险的测量方法,对如何建立良好的数据管理实践和对算法几个特定的把握方面提出要求等。具体要求有:机构需要做好在开发、选择和维护人工智能模型时的问题考虑,数据和算法/模型间的紧密交互关系是各个阶段需要考虑的重点。数据层面,组织机构应该制定完备的数据问责制,包括了解数据来龙去脉,保证数据质量,尽量减少固有偏差,用不同的数据集进行训练、测试和验证,定期审查并升级数据集;算法/模型层面,组织机构应该采用基于风险的双重评估方法,评估能够产生人工智能系统特性的人工智能算法和模型。首先确定对公众影响最大的特性,其次确定哪些措施将最有效地与利益相关者建立信任,如可解释性、鲁棒性和常规调优等特性可以不同程度地作为组织人工智能部署的一部分,而再现性、可追溯性和可审核性则与特定场景相关。

在与利益相关者沟通方面,治理框架要求让用户了解人工智能策略,尽可能允许用户提供反馈,让沟通变得容易理解。具体要求有:组织机构应提供关于其产品和/或服务中是否使用人工智能的相关信息,以及人工智能在决策过程中扮演的作用和程度等;不同的利益相关者有不同的信息需求,组织要确定受众的目的和沟通环境,以及组织应考虑是否向个人提供选择退出的机制,在制定选择退出机制时要考虑的因素等。

新加坡推出的“A.I.Verify”全球首个人工智能治理测试框架和工具包,从评测角度提出了一个具有很强落地指导性的人工智能治理解决方案。“A.I.Verify”通过“过程检查+技术测试”的标准化方式,从透明度、可解释性、可再现性、安全性、鲁棒性、公平性、问责制、人类监督等方面验证人工智能系统是否符合声称的性能。

治理实践的主要特点:系统、持续、务实地推进治理原则落地

总体来说,新加坡在人工智能治理实践中采用了“原则+指南+工具”的方式,最大特点就是系统、持续、务实地推进治理原则的落实,引导各类组织机构开展负责任人工智能治理。其以下三大具体做法值得借鉴学习。

列出详细问题清单,指导各方自我评估和改进

新加坡在出台《人工智能治理模型框架》后,又发布《组织实施和自我评估指南》。该指南以模型框架中描述的四个关键领域为基础,详细列出了包含5 个维度共计60 多个问题的评估清单,具有很强的指导性和可操作性。5 个维度分别是:部署人工智能的目标、内部治理结构和措施、确定人类参与人工智能增强决策的程度、开发部署运营管理、利益相关者互动和沟通策略。新加坡希望通过这套指南帮助组织机构以系统的方式评估其人工智能治理过程,识别潜在差距并加以改进,以确保企业的AI 方案符合人工智能治理模型框架。

新加坡认为,建立可信生 态是发展数字经济的关键。

发布实践优秀案例,开展示范引导和对标学习

为了帮助各类机构更好地理解人工智能治理框架,新加坡在出台的治理框架文件中,用专栏等方式列出了一些企业在某些方面的实践做法。例如在内部治理结构方面,列举了几家公司较为详细的架构设置和职责分工。另外,还发布了两卷人工智能治理案例汇编,较为详细地展示了不同机构如何实施与治理框架相一致的人工智能治理实践,供其他机构参考借鉴,以达到示范引领的作用。

推出测试框架和工具,促进“过程检查+技术测试”落地

新加坡推出的“A.I.Verify”人工智能治理测试框架和工具包,从评测角度提出了一个具有很强落地指导性的人工智能治理解决方案。“A.I.Verify”通过“过程检查+技术测试”的标准化方式,从透明度、可解释性、可再现性、安全性、鲁棒性、公平性、问责制、人类监督等方面验证人工智能系统是否符合声称的性能。该工具包将为开发者、管理者和商业伙伴生成报告,在一定程度上为人工智能企业提供客观和可验证方式的展示,证明其是否履行了治理责任,从而提高企业和其利益相关者的透明度,有助于建立用户信任。

新加坡认为,在全球人工智能伦理和治理中,其治理方法在促进技术创新同时,又达到保护消费者利益的目的,可以作为全球重要参考。新加坡出台非强制性的治理框架、发布有实操性的评估指南,以及建立治理评测框架和工具包等做法确实可供借鉴学习。

启示与建议:兼顾创新与安全,构建安全可信的人工智能生态

从新加坡出台的一系列人工智能治理政策指导文件和工具可以看出,新加坡政府对推动人工智能可信向善发展的行动力。新加坡认为,在全球人工智能伦理和治理中,其治理方法在促进技术创新同时,又达到保护消费者利益的目的,可以作为全球重要参考。新加坡出台非强制性的治理框架、发布有实操性的评估指南,以及建立治理评测框架和工具包等做法确实可供借鉴学习。结合当前我国人工智能治理实际,提出以下两点建议。

明确各方主体责任,从“管理+技术”两方面构建安全可信的人工智能生态

新加坡在人工智能治理实践中充分运用“管理+技术”模式,将人工智能治理原则加以落地。在管理方面,新加坡人工智能治理框架的一个重点是要求建立内部治理架构和责任体系,帮助组织机构将人工智能伦理治理原则纳入到熟悉的或已存在的治理架构中,从过程上保证履行治理框架提出的各项要求,从而更好地建立用户信任。我国可结合当前科技伦理治理和网络安全工作责任制建设等,设计建立人工智能安全风险治理责任制度。无论是融合传统的风险管理体系,还是建立新的风险管理体系,在建立人工智能安全风险治理责任制方面,需要从两个层面明确责任,一方面明确人工智能系统开发设计单位、部署使用单位、数据提供方等主体的安全责任;另一方面明确各类组织机构内部相关人员的角色和责任,把相关治理原则落实到实际工作中。

加大先行先试力度,为形成兼顾创新与安全的人工智能治理体系奠定基础

业内专家认为,当前人工智能治理面临的最大挑战是没有一套比较成熟的体系来规制其潜在的风险。从国际趋势来看,一些国家和地区正在抓紧人工智能治理的研究和探索,例如,欧盟推出人工智能立法草案;美国预计于2023 年初推出人工智能风险管理框架。新加坡不仅将人工智能治理从原则层面迈向实操层面,而且开始探索为人工智能治理提供工具化、平台化服务。我国在战略上也高度重视这一挑战,如在规范互联网信息服务算法推荐、深度合成管理,以及网联汽车数据管理、金融应用等专门领域已经开展了积极探索,但从人工智能加快与各领域融合应用的需求来看,政策指导的覆盖面和落地性还不够,亟待加强体系化设计和考虑。建议可积极鼓励我国人工智能试验区或先导区,以及相关行业领域,结合自身条件,大胆推进这方面的先行先试,探索在促进技术创新和规制潜在风险之间找到平衡点,推出类似人工智能融合应用安全风险管理指南的政策性文件,在试点基础上总结经验,从而为建立全国性规制体系提供实践参考。

猜你喜欢
工具包新加坡指南
Epigallocatechin-3-gallate exerts antihypertensive effects and improves endothelial function in spontaneously hypertensive rats
新加坡
五彩斑斓的新加坡
指南数读
酷炫的新加坡航展
我在新加坡过冬天
论碰撞的混搭指南
Microchip推出PIC32蓝牙入门工具包