人工智能治理框架及实施路径、方法研究

2021-03-08 09:39施娟萍
上海人大月刊 2021年1期
关键词:底线算法领域

施娟萍

人工智能是新一轮产业变革的核心驱动力。上海已将人工智能、生物医药、集成电路作为三大战略性新兴产业。人工智能在赋能发展的同时,也带来了诸多风险挑战,需要进行防范和应对。

一、人工智能治理的研究框架思考

我国国家和地方层面尚未出台统一的人工智能立法,人工智能治理规则散见在部分法律及近年来系列政策文件中。

国家的法律涉及信息安全、隐私保护等领域,国家的政策文件既涉及人工智能相关行动实施方案、发展规划、治理原则等总揽性领域,也关注教育、环境、智能汽车等细分场景领域。上海的政策文件则主要集中于产业发展、细分场景及试验区建设等方面。

人工智能治理应遵循两条主线:坚守底线和促进创新。一方面保留足够的弹性与包容度,防止对技术创新的不当干预;另一方面,在适度宽松的治理取向下严守监管底线,有效预防风险。

二、人工智能治理的底线规则

(一)伦理底线

尊重伦理是人工智能技术研发和应用的底线,应将相关治理提前到算法设计阶段,同时在人工智能产品适用阶段施加良性规制,防止不符合人类伦理的人工智能产品的实际应用。

(二)隱私权保护底线

知情同意、收集必要性已成为收集数据必须遵循的共识性原则,但仍需通过具体化的场景对技术和算法的应用进行规制比如,在数据收集阶段设立隐私协议合规审查制度;在数据利用阶段加强对影响杀熟程度较高的数据的管制等。

(三)信息安全底线

数据是人工智能的基本资料。在坚守信息安全底线方面,需要从宏观层面设立共通的安全标准以作为人机共存社会的治理底线,着重保障社会安全、社会公平和社会效率。

三、人工智能治理的场景规则

(一)人工智能体及其应用场景研究

人工智能体治理要重视个性化的实证治理机制,实现人工智能体安全保障的协同治理。比如,在自动驾驶汽车领域,要区分人工介入驾驶的程度,探讨产品责任的适用情形,研发针对自动驾驶的保险产品、设计保险理赔规则。

(二)人工智能算法及其应用场景研究

算法是人工智能的重要基石。当前,算法黑箱给监管带来困难。从治理角度来看,要从传统的约束负外部性转向对算法本身的制约。比如,在算法设计阶段,就要保留人工紧急干预和用户自主选择以防范算法缺陷机制;还可以明确算法的可解释性要求,特定情形下允许借助第三方认证来理解算法逻辑,判断算法的合法性。

四、人工智能治理的模式思考

(一)综合治理方案

人工智能治理涉及法律、技术、行政管理、技术规制多层次,以及政府、市场、研发者、消费者多主体,必然是综合治理。包括以下四个方面:一是主体维度的多元治理。构建合理的商谈机制和利益表达机制,实现政府主导、多方协同参与的人工智能治理格局。二是效率维度的敏捷治理。一旦发现负面情形,及时发出信号提醒所有相关主体注意,各有关部门立即介入对可能产生的风险和损失进行综合研判、干预防范,创建高效便捷的预警机制也是实现敏捷治理的内在要求。三是方法维度的实证治理。强调人工智能风险决策所依据的证据必须从广泛的科学研究和评估中获得,同时注重人工智能风险决策的证据在政策制定中能够被实践者和专业人员充分有效使用。四是落实路径的成长治理。比如,韩国将起源于英国金融领域的沙盒监管的思路引入到人工智能领域,为发展创新性人工智能产品提供隔离空间,是一种具有一定包容性的监管。

(二)综合责任方案的设计

随着人工智能技术的发展,由其带来的侵权行为方式也越来越复杂,亟需构建一种包括政府、企业、使用者三方在内的科学与责任相结合的综合责任方案。具体而言,责任主体方面要以实际控制作为认定标准;责任体系方面要构建“联合责任”体系;举证责任方面要保护受害人;归责原则方面要限制“严格责任”的适用领域;责任承担方式方面引入惩罚性赔偿制度并建立新型责任保险等。

(作者单位:上海市立法研究所)

猜你喜欢
底线算法领域
坚决守住廉洁底线
真相与底线
2020 IT领域大事记
领域·对峙
底线①
Travellng thg World Full—time for Rree
2018年热门领域趋势展望
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点