人工智能时代专利制度的实践挑战与应对策略

2022-11-24 09:53李明晶
科技进步与对策 2022年19期
关键词:专利制度专利算法

邓 鹏,李 芳,李明晶

(国家知识产权局 知识产权发展研究中心,北京 100000)

0 引言

目前,人工智能技术已经迈入感知阶段,从辅助工具延伸到自主创新领域。面对全球新一轮科技革命和产业变革,人工智能将发挥越来越关键的驱动作用。同时,以专利为代表的知识产权越来越成为创新发展的战略性资源和激励性要素,推动人工智能技术与产业深度融合发展。然而,人工智能与知识产权制度并不十分契合,两者间存在诸多冲突需要平衡与协调,特别是在专利、著作权领域,相关改革与实践已经成为世界各国普遍关注的焦点。

1 人工智能时代专利制度的实践特征

从全球主要国家的实践来看,各国对人工智能技术的研究、使用和保护都高度重视,同时,都在积极探索和制定相关知识产权保护体系。但鉴于人工智能技术仍在快速发展,技术和产业尚存在很大不确定性,相关制度的价值取向和政策立场将更多取决于各自的人工智能技术水平和产业需求。具体到专利制度,目前呈现出正向激励与反向约束两方面特征。

1.1 明确专利保护客体,在制度内部结构设计上追求独特性

虽然加强人工智能保护已经成为普遍共识,但因其技术的独特性,需要设计一套与之相适应的保护体系与规则,以更有效发挥专利制度的激励作用。

以美国为例,美国专利商标局(USPTO)明确承认,人工智能可以通过专利分类中的第 706 类[1]申请专利并受到保护。而且,USPTO提供了两个技术审查组专门负责审查针对人工智能算法的申请。从动因来看,USPTO的一个关键优先事项是保持美国在创新方面的领先地位,特别是包括人工智能在内的新兴技术方面。因此,在授予保护的同时,USPTO也不断地积极与人工智能领域的创新者和专家接触,一方面是为了提升对于人工智能技术相关知识产权的理解,另一方面鉴于人工智能在算法、体系结构及应用等方面的特殊性,也在努力探寻相适应的知识产权体系与激励措施,以进一步鼓励人工智能领域创新[2]。

2020年2月1日新修订实施的《中国专利审查指南》中也明确了涉及人工智能等新业态新领域专利申请审查规则,并加入了有关人工智能算法的特别案例,为涉及相关算法的可专利性提供了指引,同时,明确了相关权利要求书、说明书的撰写规范[3]。

然而,明确给予专利保护仅是一个开端,未来的道路挑战重重。学者吴汉东[4]指出,“为回应人工智能时代的法律挑战,需要对专利的客体制度、主体制度、授权制度等内部结构进行审视,或维系或调整或重构,包括扩充专利授权客体范围、保障产业主体利益、调整专利授权的‘三性’判断标准等”。

1.2 注重“正义”价值指引,探寻构建协同治理体系和安全屏障,消解潜在危害

人工智能系统具有更突出的自主性、垄断性和隐蔽性,因而引发了人们对于安全、隐私、诚信、尊严、自主权和数据权利等一系列风险和问题的关注,如何将人工智能置于安全可信体系中健康发展成为关注的焦点。这方面欧盟已经进行了一系列探索与实践,2017年2月16日欧洲议会投票通过向欧盟委员会提出的开发机器人与人工智能民事法律规范建议[5],要求制定机器人宪章(Charter on Robotics),为机器人设计和使用制定伦理框架。机器人宪章要求从事机器人研究领域的人员必须承诺遵循道德和专业行为的最高标准,包括善良原则、非恶意原则与自主权保障原则等。目前,关于宪章范围仍在进一步讨论。虽然建议中仅在介绍的段落涉及专利,但对知识产权,欧洲议会希望欧盟委员会对所有行业包括机器人和人工智能采用水平和技术中立的方式,并且在保护和促进创新的硬件、软件、标准和代码方面采用激励与约束相平衡的方式。不难看出,这份建议中针对机器人和人工智能知识产权保护的议题具有前瞻性,必将对未来知识产权制度发展产生深远影响[6]。2018年5月25日生效的欧盟《统一数据保护条例》(GDPR),不仅提供了一系列具象的法律规则,更重要的是秉持和传递出“数据正义”(data justice)理念。

从专利角度考量,专利制度对创新的激励和规范作用有助于人工智能领域的“创新”与“安全”协同发展。吴汉东强调,人工智能相比于其它技术领域,相关专利制度设计更需要秉持法律的安全价值观,从时代理性和社会理性出发,通过设置专利客体的排除领域以及适用禁止权利滥用、限制权利行使等制度规则,消解人工智能技术的潜在危害。

进一步看,安全可信的人工智能涉及3个基本议题:边界性、可回溯性和可验证性[7],其中又涉及法律、技术、规范和伦理等诸多问题[8]。虽然完全解决上述问题已经远远超出专利范畴,但是,专利制度可以发挥十分重要的积极影响。一方面,加强专利制度与道德、规范、技术、市场等不同体系间的桥梁和纽带作用,协调人工智能领域创新发展与有效治理之间的平衡,探索构建人工智能领域的协同治理体系;另一方面,通过内部制度优化与协调,促进人工智能透明化与标准化,帮助公众更好地检验、理解和监督人工智能决策及发展,形成创新与应用的安全屏障,以增进全社会公众福祉。

2 人工智能专利制度的实践挑战

为适应人工智能时代的发展,全球主要国家都对人工智能技术的可专利性、审查标准、主体资格和权利、侵权责任等开展了广泛讨论,并首先在专利保护客体方面进行了积极探索和实践。然而,由于人工智能技术和应用的特殊性,其相关专利制度在实践中仍然面临诸多困难与挑战。

2.1 技术层面的挑战

目前,以深度学习为主流的人工智能技术无论是在算法、模型还是数据方面,都对专利制度提出了新的挑战和诉求。

首先是算法,它在人工智能系统中处于最为关键与核心的地位。纵观人工智能发展历程,每次热潮的更迭都与算法息息相关。早在20世纪50年代,美国罗森布拉特发明第一款类神经网络“感知器”(Perceptron),将人工智能系统推向第一个高峰,但由于无法完成大规模数据训练和复杂任务,很快进入了低谷。20世纪80年代,霍普菲尔德神经网络被提出,使得大规模神经网络的训练成为可能,人工智能系统进入第二个高峰,但由于算力等问题仍然极大地制约了技术发展。直到2006年,Hinton提出“深度学习”神经网络,使得人工智能在性能上获得突破性进展,算法在语音和视觉识别领域取得了巨大成功。2016-2017年谷歌AlphaGo先后战胜围棋世界冠军李世石、柯洁,揭开人工智能的新篇章。

从技术角度看,深度学习算法与传统算法的主要区别在于,传统算法有着明确的指令、清晰的流程和唯一的逻辑关系,而深度学习算法大多是基于“大数据+深度神经网络”的机器学习模型系统,其实质是通过构建具有庞大神经元的“隐层”自学习模型和海量训练数据,使机器学习更有用的特征,从而提升机器的查询、分类和预测准确性。这类算法模型在高效模仿人类思维构建过程的同时,也具有无法推理、难以解释、通用性和稳定性弱等特性,极易造成黑箱、歧视、不公等问题。本质上讲,此类算法已经完全脱离传统算法的概念,打破了传统算法的约定。

从专利角度看,涉及人工智能的发明创造普遍涉及算法相关内容,在大多数情况下,算法可能也是整个技术方案中最具创造性的部分。加强涉及人工智能算法的专利保护与规范,既满足现阶段技术发展的要求,也符合时代发展的需要。但鉴于此类算法的特殊性,在给予保护的同时,也有必要加强对此类发明特性的考量与应对。

2.1.1 算法黑箱

“黑箱”是控制论中的概念。作为一种隐喻,它是指那些不为人知的不能打开、不能从外部直接观察其内部状态的系统[9]。“黑箱”问题的根源在于深度学习算法的输入数据与输出结果之间设计了众多无法洞悉的“隐层”,而这些隐层之间还存在难以推理判断的关联关系,其决策的规则已经不再是逻辑性而是相关性,相关即因果,很多时候这种相关性体现出来的可能并不是自然法则的规律,而是基于所提供“自定义数据”的规则。这也直接导致此类算法输出无法解释、推导,甚至是难以理解。人类理性的发展历程显示,如果判断或决策过程是可以被解释的,那么,更容易了解其优点、不足,也更容易评估其风险,知道其在多大程度上、在怎样的场合可以被信赖,以及可以从哪些方面不断对其进行改善,以尽量增进共识、减少风险,推动相应领域不断发展[10]。

就专利而言,算法黑箱无论是对相关技术方案的审查与授权还是保护与应用都会造成较大冲击,具体而言,可以从授予专利权的实质性条件即新颖性、创造性和实用性(三性)方面作进一步审视。

(1)导致“新颖性”瑕疵。如果一项发明的全部技术特征和方案都是明确的,或者是可被解释和推导的,那么,就能准确判断其发明获得的技术效果和解决的技术问题,也可以明晰改进方向。然而,算法黑箱使得对技术方案的评判和推导变得极为困难,特别是将人工智能系统应用于特定领域场景执行特定任务时,复杂的算法隐层和相关性使人们几乎不可能确切地了解机器的全部思考过程和细节,只知道初始输入和最终输出,难以确定系统的整个决策过程,甚至可能连发明人自己都无法对算法有全面准确的了解和掌握。Douglas教授[11]指出,人工智能专利变得越来越深刻与模糊,以至于没有人可以彻底明白;吴汉东[4]也指出,这很可能导致对专利新颖性审查的瑕疵,即对现有技术检索比对的不完全性,造成新颖性判断的不确定性,进而增加专利权的不稳定性。为此,学者们提出:一是不拘泥于某一特定技术领域,对现有技术进行扩大解释,包括算法本身及其运行所依赖的原始数据、仅靠词语替换而生成的海量技术方案等[12]。然而,扩大解释必然会增加对现有技术检索范围、文献获取和特征比对难度,在目前尚缺乏统一、标准的技术体系支撑的前提下可能很难达到预期效果。二是要求专利申请材料中完全披露其与人工智能生成发明有关的所有数据及文献,除涉及商业秘密外[12]。这种由专利申请人协助提供与发明相关一切必要信息的举措似乎更为可行,但其中还需要考虑申请人的意愿,披露的充分性、必要性和有效性,以及对相关数据的管理等,相关制度和规则设计可能十分复杂,而且必将是一个漫长曲折的过程。

(2)引发“创造性”鸿沟。其主要体现在对“创造性标准”的把握和判断上,随着人工智能在各行业更广泛和深入的应用,人工智能由特定技术向通用技术转变,算法也逐步向通用算法发展[13]。然而,就目前算法体系来讲,距离这一目标仍有很长的路要走,短期改善的可能性也很小。因此,要想进一步评估创造性,可能仍然需要本领域普通技术人员掌握较高深的算法设计、调试、数据处理等专业知识和能力,但这会无形中抬高各技术领域的整体水平和门槛,相关的“所属技术领域”、“普通技术人员”和“最接近的现有技术”可能都需要重塑。对此,学者们提出:一是采取主客观相结合的方法,引进不具有创造能力的技术分析型人工智能[14];二是提高创造性标准,将“一般技术人员标准”提升至“一般人工智能标准”[4]。然而,实践中仍然面临较大困难和阻碍。一方面,随着人工智能技术更广泛的应用,提高创造性标准会导致各领域专利的审查标准、实践都难以把握与统一,极易造成领域间“鸿沟”。究竟调整到何处才是最佳标准是一个关键问题,也是一个疑难问题[4]。另一方面,就目前完全依靠“数据训练”实现的人工智能系统来讲,其实质仍是一种主客观深度结合的技术架构,极易造成系统性偏差与垄断,这对于非人工智能领域普通技术人员或不掌握相关数据的发明人来讲显然是不公平的。

(3)造成“实用性”隐患。黑箱中的相关即因果,导致算法决策过程中的高度不可预测性,或者说不稳定,特别是在深度学习和相关适应性学习算法模型体系中,这种不确定性很可能导致发明缺乏重复再现性,不具备实用性。具体表现为以下3个方面:一是对专利审查实用性标准中的“实际效果”评价,如何把握实用性所要求的积极效果?对于人们无法理解或难以破解的技术方案,如何判断是有害的或是可再现的?学界主要观点认为应将“人类介入”纳入考虑因素,并作为判断该项发明创造是否具有积极效果的标准之一[14,15]。但是,如何有效识别和理解技术方案,进而判断“实际效果”仍然是实践中的难点。二是不确定性导致价值进一步降低,使得专利转让/许可的交易风险和交易成本徒增,制约专利技术的市场交易和产业应用,也将打击人工智能领域的投资信心[4]。三是阻碍技术应用和进步。一方面,“模糊”的技术方案无法被发明人之外的其它人借鉴和使用;另一方面,“封闭”与“复杂”的算法导致难以明晰技术问题及改进方向,这也有悖于“促进科学技术进步和经济社会发展”的专利法立法宗旨。

2.1.2 模型缺陷

目前主流的人工智能模型仍是基于大规模历史数据训练构建的技术体系,虽然其在计算能力上实现了巨大突破,但其本质上仍然无法避免稳健性、适用性方面的问题。其中,稳健性也称为鲁棒性(robustness),是指模型通过训练数据确定的各种参数对于新输入作出正确决策的能力;适用性是指模型在领域内应用的普遍适用与复用能力。

2015年谷歌推出相册服务“Google Photos”,其采用引以为傲的第二代深度学习引擎TensorFlow。这项服务背后是超1 000台计算机、16 000个芯片组成的超大型神经网络。然而,人们在实际应用中发现,它会将一些深色皮肤的人标记为大猩猩。为解决这一错误,谷歌直接从搜索结果中删除了“大猩猩、黑猩猩、猴子”等一类灵长类动物的词条标签,但至今尚未有技术层面的根本性解决方案。无独有偶,美国法院用以评估犯罪风险和量刑的人工智能系统COMPAS也被证实存在肤色歧视的现象,其针对黑人罪犯的误报率远高于白人。2018年3月15日,中国青年调查联合问卷网针对互联网消费者的调研显示,51.3%的受访者遇到过互联网企业利用大数据“杀熟”的情况[16]。

越来越多的事件表明,一方面人工智能技术还远未成熟,在适用领域和稳健决策等方面仍然存在难以解决的技术缺陷;另一方面随着人们越来越依赖人工智能,相关应用中的错误决策很容易、也很隐蔽地转变为伤害,导致更严重的社会问题。传统上,人们对于技术的认知是天然的、理性的、值得信任的工具,而人工智能时代重塑了人与技术的关系,技术不仅是制造和使用的方式,更是一种人化的自然,如果不解决目前的模型缺陷,那么,“有目的”、“不公正”仍将是系统生态的固化特征[17]。如何应对由此导致的直接或间接风险,目前法学界主要从人工智能系统致人损害的认定方面提出:一是基于行为人过失所产生的产品责任,归类于机器人制造者和销售者的过失;二是基于技术中立原则所产生的替代责任,即机器人本无对错之分,但其所有人或使用人,或不尽善良管理人之义务,或放任机器人的侵权行为,则不能以技术中立原则免除责任[18]。然而,上述两种方式更多地在于事后补救及威慑,对风险的预防效果较为有限,多数还是以“自律”的形式加以约束。因此,人工智能时代公众对于相关技术风险的防范呼声持续高涨。

另外,人工智能除受到模型架构的客观因素影响外,还在模型设计、编程、数据选取等诸多环节受到人为主观因素的叠加影响,难以避免地天然具有某种侧向,也必然导致某种偏见或不公。然而,问题的焦点是,人工智能系统模型的“封闭”与“复杂”性使得其内部既难以识别也无法判断,更难以追溯,大多数情况下只能不断依靠外部输出进行判断与识别。就专利而言,这种模型缺陷不仅使得专利的实用性大打折扣,而且可能导致严重的授权缺陷,给后续保护、运用埋下巨大隐患。

2.1.3 数据危机

目前,人工智能系统还完全依赖或受限于所提供的数据(训练数据、测试数据、验证数据等)。虽然知识产权制度已经为数据提供了多种类型的确权和保护,但主要倾向于对产出物的保护,并不会延及数据本身[19]。由于缺乏相应的保护制度和规范,多数数据权利主体倾向于采取技术秘密形式进行保护。这就导致,一方面不同行业、领域、企业间数据共享和分发都受到极大制约,相关权利主体按照自己的利益隔离各自数据,并为数据共享设置障碍,使得获取数据的难度和成本依然巨大,数据“孤岛”和“垄断”问题仍是制约人工智能发展的主要瓶颈。另一方面,低质量、不完整、非客观的数据缺陷也会直接导致系统性重大偏颇和错误。而且更致命的是这种数据缺陷往往十分隐蔽、难以察觉,大多数情况下,只有形成一定规模应用后才可能逐渐暴露出来。而此时再着手解决,往往需要付出巨大代价,甚至很可能像“Google Photos”一样是无解的。这也使得技术问题被无限放大,引发严重的社会问题。寻求人工智能公开透明、可解释、可追溯的呼声日渐高涨。

从专利角度看,虽然给予人工智能保护客体已经成为普遍共识,但对相关数据的进一步规定仍是空白。长此以往,不仅会加剧人工智能领域专利的瑕疵和争议,还会严重制约相关技术发展和应用。鉴于数据在人工智能领域的关键作用,世界知识产权组织(WIPO)、欧洲专利局(EPO)和美国专利商标局(USPTO)开展了广泛讨论,焦点主要有3个方面:一是必要性,鉴于人工智能技术的快速更新迭代,相关算法、模型、应用甚至技术体系都尚未定型,此时对数据进行规定是否为时尚早或可能阻碍技术发展;二是平衡性,出于专利申请的意愿,相关数据规则需要如何设计,既能满足专利充分公开的要求,又能保障申请人的积极性和权益;三是安全性,数据不同于技术,往往涉及大量商业秘密和个人隐私,如何保障数据在安全可信的环境下公开使用,也是需要重点考量的。

2.2 应用层面的挑战

随着人工智能技术迈入感知阶段,相关应用已经从辅助工具延伸到自主决策与创造方面。长远来看,随着知识图谱等认知技术的不断发展与完善,很可能出现更具创造力的智慧形态。人工智能创造力的跃升将对专利乃至整个知识产权生态造成巨大冲击和挑战。

2.2.1 人工智能生成物

2019年8月,名为“达布斯”(DABUS)的人工智能发明人出现在两项国际专利申请中。欧洲专利局(EPO)和英国知识产权局(UKIPO)进行了初步评估,发现申请已尽可能满足可专利性的要求,但随后欧洲、英国和美国专利局均以“发明人必须是自然人”为由驳回了申请[20]。发明团队介绍Dabus时称其是具有自主设计能力的系统,可根据提供的信息自主进行综合分析,设计具有新颖性的产品方案。虽然发明申请被驳回,但Dabus的创建者斯蒂芬·泰勒(Stephen Thaler)博士表示未来通过完善Dabus在场景应用方面的抽象概念,可以让Dabus成为真正具有独立设计能力的智能系统,他坚信人工智能自主发明总有被接受的时候。英国知识产权局随后发表声明称“基于目前的专利制度,人工智能的发明可能并不适用,但或许未来的专利制度将会进行相应修改”。随着时代的进步,未来许多行业由于人工智能的出现会产生新的矛盾,甚至一些竞技项目会因为人工智能的加入而发生根本性改变,或许需要提早制定一些共同规则来应对未来变化。

发明创造的动机是出于解决问题和获得收益的需要。在这个过程中,可以借助智能工具提供先验知识、经验和试错,以供开发出独特的解决方案。但如果人工智能工具已经达到一定智力水平,可以创造出被认为是独立开发的、具有与人类同等质量的发明时,将对现行专利制度体系产生巨大冲击和影响。学者们提出“类职务发明的保护路径”,但实践中仍然存在权利主体、人格要素等难以克服的障碍[21]。也有学者认为,目前讨论人工智能权利还为时过早,当务之急应是确定人工智能诸多参与者之中谁最有资格成为权利人,这关系到侵权责任的认定[22]。

针对人工智能生成发明,首先面临的问题是如何有效识别发明是由人工智能自主完成的。虽然目前出现了署名人工智能发明人的专利申请,但大部分申请人仍然是“自然人”身份,以便主张权利。从相关专利的表现形式上看,人工智能生成的发明与一般发明没有本质上的区别,因此,在没有使用者提供相应信息的情况下很难进行有效辨识。而且,目前各国在专利申请程序中没有明确规定必须提交相关材料或声明。

从发展角度看,有效辨识人工智能生成发明对于规则制定或监管都是十分必要的。如果无法进行有效识别,就无从下手,也无法作进一步规范和管理。从监管角度看,建立一种适合人工智能的制度似乎存在一定合理性。着眼于未来,甚至可能需要某种与人工智能发明系统相适应的激励制度或程序,以鼓励对人工智能生成物的声明或公开。

2.2.2 人工智能发明人

进一步看,人工智能发明人的出现将对传统的发明创造要素和环境产生颠覆性影响。以往的知识、经验、领域、工具间鸿沟很可能被迅速填平,使得仅掌握人工智能技术的人与传统的发明家处于同等地位。正如AlphaGo训练40天就战胜了人类顶尖围棋选手一样,众多高科技公司越来越普遍地利用人工智能实现跨界发明创造。试想一下,人类发明家通过结合几种现有技术教导发明而可能具备的创造性,利用人工智能可能变得极为轻松,它甚至可以轻松产生包含数种甚至十余种现有技术的发明创造。未来这一趋势很可能会对传统人类发明家的权利乃至制度本身造成冲击,悲观者甚至认为很可能会对人类创造力产生破坏性影响。

人们的忧虑不无道理,知识产权制度既要保护财产权也要维护人权。世界上大多数国家的知识产权法律都规定对个人拥有的知识产权保护应考虑与一定公共利益之间的平衡[23]。人工智能生成发明可能混淆知识产权所赋予“自然人”的精神权,削弱道德秩序。促使人工智能使用者将本不属于自己的创造性工作归功于自己,并通过改变或降低发明家创造的意义来贬低其成就。换言之,这可能将本领域人类创造性工作等同于那些简单的机器系统的输出,对于大多数人类发明家来说显然是极不公平的[24]。

另外,从专利的创造性看,无论是理论上还是实践中,创造性或非显而易见性的评估都是以人类发明家衡量的,而且是最为困难的环节。但是,随着人工智能发明的普及,很可能使得大部分脑力劳动转移到机器上,导致人类整体发明活动变得更容易。这不仅使得评估发明和授权变得更加困难,而且长远来看甚至可能影响专利制度对人类创新的正向激励作用。

2.2.3 技术与市场垄断

从理论上讲,人工智能可以瞬间产生无数新创意与新发明,这一过程几乎无需人工过多参与,加之算法共谋、支配地位滥用等问题,人们对于人工智能加剧垄断的忧虑愈发强烈[25]。

从技术角度看,目前主流的深度学习算法天然具有垄断倾向[26]。大公司可以利用资金与平台优势,掌握更多数据资源,而算法模型接触到的特定数据资源越多,就越能准确选择模式,更好地识别现实世界中的事物[27]。如果某公司使用的人工智能技术比竞争对手更好,那么,对手就很难打破这种垄断局面,使得创新与竞争环境变得恶劣。同时,还极易造成信息茧房,阻碍更广泛的技术创新发展。

从专利实践看,人工智能自主发明创造很可能被专利权人用于增强自身技术垄断,也可能被非专利人用于降低专利技术效力[28]。2019年6月26日,谷歌对解决基础算法Dropout(在深度学习、训练神经网络时被普遍使用)的过度拟合问题提出的专利申请US14015768正式生效,在人工智能领域引起轩然大波。乐观者认为谷歌没有对算法进行限制或者收费的先例,此次谷歌申请专利很可能是为了防止被其它公司起诉,是一种自我保护行为。悲观者认为谷歌对深度学习底层算法进行专利申请,握住了整个深度学习领域的命脉,所有Dropout算法使用者都面临“卡脖子”风险。谷歌对于业界的争议并没有给出正面回应,但事实是2032年12月24日专利到期前,使用Dropout算法的企业、科研机构、从业人员都可能面临专利收费和被限制的风险。另外,人工智能自主发明创造还可能被“非专利实施实体(NPE)”或“别有用心的人”当作大肆敛财的工具,造成系统性的创新生态危机。

可见,无论是微观层面还是宏观层面,人工智能技术的应用都对专利制度形成了巨大挑战。微软首席执行官萨蒂亚·纳德拉(Satya Nadella)明确指出,“人工智能可以增强人类的才能和能力,但是涉及知识产权的创造和保护时,人工智能应该被允许与人类发明家站在同一立场上吗?”他认为要慎重对待人工智能相关知识产权问题,在没有进行充分讨论的前提下,人工智能不应享有同等权益。

2.2.4 安全与可信

目前人工智能技术在医疗、交通、生产、金融等风险敏感型领域出现了越来越多的发明创造,能否有效降低人工智能技术在这些敏感领域的系统性风险,实现安全可信的人工智能,一定程度上决定人工智能应用的广度和深度[7]。

安全可信的人工智能主要涉及3个基本问题:边界性、可回溯和可验证。其中,“边界性”称为适用性,指人工智能可以自主判断可解与不可解问题的范围,只有明确适用边界,才能真正确定安全可信的使用场景。从专利角度看,主要涉及技术领域和应用场景,以及相关技术方案的实用性等方面,目前人工智能技术尚未形成统一、规范的标准,致使实践中的判断与评价都较为困难和模糊。“可回溯”是指人工智能系统在运行中出现问题或错误时,能否对出错原因进行回溯,其目的是进行追责以便设计出约束人工智能系统应用的规范和技术。目前在机器学习类技术的专利中,相关算法会随时间演进和数据可及性的改善自主发生变化,考虑到漫长的专利生命周期,仅在申请阶段进行公开是否足够?如何确保技术方案的稳定?如何有效管理以便追溯?这些问题都亟待探索与研究。“可验证”即第三方保障和背书,一方面设计者需要对发明的改进提供反馈和指导,另一方面第三方需要衡量指标和评测标准。专利法第五条规定:“对违反法律、社会公德或者妨害公共利益的发明创造,不授予专利权”,专利制度肩负的是技术排他保护和技术信息传播责任,并不为其产品质量和使用背书。然而,一再发生的产品危机蔓延影响专利声誉和公信力的事件表明,公众对专利还存在较大误解,相应地,对专利承载的内容也提出了更高期望,这一现象在人工智能时代或将更加凸显与尖锐。从公共利益的角度考虑,加强涉及人工智能算法发明的公开、透明和可追溯,使其置于安全可信环境中运行和发展,不仅有利于人工智能产业发展,而且有助于公众利益平衡与维护,满足社会的殷切期望。

3 应对策略及建议

人工智能时代,以专利为代表的知识产权越来越成为创新发展激励性要素、市场竞争战略性资源,推动人工智能技术与市场、产业融合发展。但鉴于人工智能技术仍处于快速迭代期,专利制度乃至整个知识产权体系由“仅人系统”过渡到“人与人工智能系统”需要一个循序渐进的过程。现阶段,不宜在“保护客体”、“机器发明人”等方面“大刀阔斧”,应采取“小步快跑”策略,基于现有制度框架,持续进行“点穴式”优化完善。

进一步,可以从相关专利的申请流程入手优化影响发展的“短板”问题,从公开规则入手解决制约发展的“瓶颈”问题,从审查方面入手破除高质量发展的“软肋”问题,充分发挥专利制度对人工智能创新和应用的激励作用。同时,积极探索推进各领域相关专利审查、标准的完善,稳步推进“智能介入”的手段和方式,为最终实现与技术规制、法律控制、伦理准则相衔接的综合治理体系积累经验。

3.1 完善专利公开规则,促进人工智能技术的创新、应用和流动

专利制度的根本作用是促进技术创新、应用和流动,这就要求发明者以“公开换取保护”,而对技术方案的公开披露也是发明获得授权的先决条件。世界各国都对专利公开有明确规定,中国专利法第二十六条三款规定“说明书应当对发明或实用新型作出清楚、完整的说明,以所属技术领域的技术人员能够实现为准”。然而,目前主流的深度学习人工智能技术无论是在清楚、完整还是可实现方面都存在较大阻碍。而且,就目前申请人普遍采用的“功能性描述”撰写方式而言,问题愈加突显。

从积极的角度考量,专利制度理应在“公开”方面发挥更积极的作用,促进人工智能技术流动和应用。然而矛盾的是,加强公开可能压制一部分发明人申请专利的积极性和主动性,导致发明人出于利益考量,更多采取技术秘密的方式进行保护。但鉴于目前人工智能技术的复杂程度和数据获取难度,未进行“适当”公开的技术方案可能很难被“外人”借鉴和使用,造成公开与保护方面的失衡,长此以往甚至会造成严重垄断,更不利于技术创新。因此,从公共利益角度考虑,加强涉及人工智能相关发明的公开、透明和可追溯,不仅有利于人工智能技术发展,而且有助于公众利益的平衡与维护。

解决问题的思路在于“探寻一种既符合现阶段人工智能技术发展和保护需求,又适度满足专利公开要求的平衡方案”。就深度学习人工智能技术而言,或许可以从算法架构、目标函数、训练数据3个方面入手进行探索。

为了促进人工智能技术的应用,并避免过度调试,算法相关模型架构与目标函数对技术人员来说都是十分关键和必要的。如果将算法比作人,则“目标函数”是大脑,“架构”是骨骼,而“数据”是血肉。

3.1.1 架构体系

算法的模型架构就像是人的“骨骼”。针对不同任务的算法模型可能存在较大差异,例如,适合处理可视信息、图像、感知等任务的“卷积神经网络(CNN)”,其层数和排列虽然是任意的,但每层都会设置不同高度、宽度和深度,隐层的设计往往都具有独特性。如果未披露这些特征,技术人员只能被迫进行漫无边际的实验,从近乎无限的可能中寻找正确方案,这无异于大海捞针。而目前广泛使用的“深度神经网络(DNN)”更适合处理较复杂的任务,通常情况下此类算法中隐层越多越有利于任务的执行,然而这也意味着,执行过程将变得更加复杂和不稳定,实现起来也更为困难。因此,不同类型算法的发明可能还需要针对性的额外信息披露,以便指导技术人员将算法模型置于适当范围内,避免大量、漫无边际的调试与验证。

3.1.2 目标函数

算法的目标函数就像是人的“大脑”。它从数学上定义了模型执行任务的方式,以及度量任务“成功”的级别。对于目标函数来说,任何变化都意味着算法模型在设计上针对不同任务进行的优化。因此,为了确保发明按照预期的效果执行,目标函数是必不可少的特征。目前,已有很多通用函数可供基本的任务需求,但由于专利技术方案往往都是在特定领域执行特定任务,自定义函数可能也会大量出现。是否应该或有必要对目标函数进行披露,如何披露以实现申请人、发明人与社会公众间权益平衡,这些问题都值得进一步探索与研究。

3.1.3 数据

“数据是新的石油”已经成为人们普遍的共识,而数据对于人工智能来讲就如同“血肉”,至关重要。要想实现一个有效的系统,如果没有合适的数据相匹配,那么,其仅是一具“没有灵魂的躯壳”,不具有任何“实用性”。

目前,各国专利制度对于数据相关披露要求还是空白,大多数申请人都采用技术秘密的方式不愿主动公开相关内容。对于具体实施来说,仅能通过领域、应用等信息猜测或推断相关数据的特征,再考虑到算法的不确定性,发明实施难度被无限放大。

另外,数据的结构特征以及准备数据所进行的收集、整理、处理等各种操作都可能对算法产生决定性影响。例如,针对成百上千个维度的数据集进行特征抽取、随机采样、标准化等操作,即使发明人自己也可能难以明确哪些操作对于算法优化是必不可少的以及影响如何。鉴于此,为了满足发明的实施要求,有必要对相关数据特征或信息进行适当披露。

然而,从可操作的角度考虑,人工智能数据集往往规模庞大,而且多涉及个人隐私、商业秘密等信息,实践中很可能面临较大困难和阻碍。另外,过度的公开要求可能促使发明人转向技术秘密等更隐秘的保护形式,也不利于技术进步。因此,有效且适度的信息披露制度显得十分重要。

按照披露的程度至少有3种方式可供选择:

一是公开数据收集或处理过程相关信息。例如,数据来源、收集时间与范围、处理手段及要求等外围信息。此类信息可以提供基本的方向指引和评估。

二是公开数据集相关特征信息。例如,人脸图像数据集,其特征可能包括人物范围、人物分类、采集方式、结构特征、过滤和采样情况等。这些信息有助于指导技术人员重新创建类似数据集,避免随意猜测和实验。

三是直接公开脱敏后的数据集或样本数据,类似于MNIST、WikiText、LibriSpeech等知名开源数据集,进一步还可能涉及仅使用开源数据集、包含部分定制的数据集、完全定制的数据集3种情形。

另外,为了有效管理和保护数据,可能还需要建立某种统一的数据存储或保藏体系,这可能也是一个巨大挑战。

虽然困难重重,但是,从操作与收益的角度考量,加强对相关数据的公开披露不仅有利于技术发展和应用,还有利于全社会对数据的收集、处理和流动。在数据作为核心生产要素的新时代背景下,其值得积极探索与实践。而且,就专利制度而言,已经有化学、医药领域补充实验数据的先例可供借鉴,具备一定基础和可操作性。

3.2 健全顶层设计,优化申请流程和审查手段,满足创新保护的迫切需求

目前,专利申请、审查和授权周期已经大幅压缩,但要适应人工智能技术的创新步伐还需加大力度,进一步优化相关专利申请程序和审查手段。除利用电子网络等现代化手段外,在相关制度和机制上也需要配合完善。一方面,虽然依托国内各地方建设的知识产权保护中心和快速维权中心可以满足一部分人工智能技术创新主体、市场主体的需求,但仍然存在技术领域、管辖范围等诸多方面的条件制约。而面向国家层面、行业层面的快速预审、快速确权、快速维权“一站式”知识产权综合服务尚处于空白,导致缺少统筹规划,各自为战,难以形成合力。健全和完善人工智能领域的知识产权创、运、保、管、服的顶层设计应是首要任务。另一方面,在优先审查的基础上,还应积极探索人工智能技术辅助审查的方法和途径,并通过不断累积实践数据和经验,逐步构建相关专利审查的技术图谱、审查标准和操作规程,为进一步缩短审查周期提供技术保障和支撑。同时,有助于明确相关专利与技术标准之间的制约和依存关系,推动人工智能关键技术专利进入国际和国内标准,也推动各领域标准体系建设,为全球人工智能综合治理体系创新贡献中国智慧和中国方案。

3.3 建立人工智能生成物标识制度,为有效辨识和管理提供基础保障

虽然专利领域已经出现人工智能生成物的发明创造,但受限于人工智能技术水平和能力,现阶段讨论其法律地位、权利义务等为时尚早。目前,更重要的是如何对其进行有效辨识或区分,确保其始终在安全可控范围内运行,并为后续政策制定与协调管理提供基础。从专利角度看,为了进行更有效的辨识,可能要提供某种激励措施,鼓励申请人对其进行标识或声明。基于现有专利发明人制度框架,有以下4种处理方式:

(1)暂时搁置,仍然维持“自然人”作为发明者的规定,待时机成熟再处理。一方面,人工智能发明人与“自然人”仍然处于混淆的状态;另一方面,可能导致各国在专利法中对发明人的概念作出不同定义或解释。另外,究竟怎样才算时机成熟,可能永远也没有一个定论,随着时间的推移,管理、协调难度可能越来越大。

(2)一步到位,直接允许人工智能发明人。这种方式虽然可以最大限度地鼓励创新和商业化,但是,仍然会导致人工智能发明权利不清等问题,而且,会造成严重“垄断”。在目前人工智能未被承认具有独立法律人格的情况下,“人工智能”不应与“自然人”发明家具有同等地位。

(3)相关发明不具有专利权或增设一类有限专利权予以保护。一方面,拒绝人工智能自主创造的发明获得专利权会直接导致申请人转而采用商业秘密形式,从而限制人工智能技术发展和商业化使用,甚至造成垄断;另一方面,增设一类有限专利权只会增加制度的复杂性,并不能带来明显的益处。

(4)相关发明可以视为“一般发明”,在现有专利制度框架内获得授权,但需要进行额外声明或标识。可以在保留“自然人”发明家的前提下,增设相应人工智能发明的声明或标识项,并要求设置至少一位“自然人”发明者承担相关权利和义务。这样既可以避免人工智能发明人与“发明家”相混淆,也可以避免相关权利冲突。

考虑到对现有专利制度框架的冲击与影响,第4种处理方式可能更为温和,操作难度也较低,效果也较明显,综合来看可能更符合现阶段发展需要。

3.4 发挥纽带作用,助力构建技术规制与法律控制为主导的风险防控长效机制

人工智能时代的风险防范和治理需要采取技术规制与法律控制的综合治理体系[16]。专利制度作为科技创新向现实生产力转化的重要桥梁和纽带,理应在构建人工智能风险防控的长效机制上发挥积极作用。

(1)发挥“审查”之问,助力事前预防。例如,通过对人工智能发明实用性审查中“可实施性”、“实施效果”等方面的强化,促进相关技术方案的透明、控制与监管,进而规制技术研究,预防技术产生的负面效应或副作用。有害发明的“可专利主题排除”与专利申请案中的无害实用性审查,共同组成防范人工智能发明技术风险的安全阀[4]。

(2)发挥“规则”之尺,明确权责配置。专利是具有公、私双重属性的商品,通过重塑或明确人工智能领域发明的使用、分配和利益分享等权责配置,有利于明确从技术研发到应用过程的各方责任规制,确保人工智能始终在科学、道义、伦理和法律的体系下安全运行。

(3)发挥“公正”之基,推动技术民主。例如,通过对人工智能发明申请、审查中的程序优化,推动技术信息公开、公众积极参与和决策。同时,结合反垄断、反不正当竞争等监管手段,推动各利益主体间平衡,确保公平正义,以实现社会利益最大化。

4 结语

人工智能从辅助工具到自主决策的发展已经不再局限于技术层面,而是向着新生产要素的方向迈进,不断融入整个社会生态系统中。虽然全面解决人工智能问题已经超出专利的范畴,但是,专利制度本身仍然可以发挥十分重要的积极影响,通过相关制度的优化与协调,帮助公众更好地检验、理解和监督人工智能创新与发展,进而增进全社会公众的福祉。

本文主要侧重专利制度实践,通过分析人工智能时代专利制度面临的冲击和挑战,提出我国现阶段人工智能相关专利制度优化、完善的对策建议。具体包括:完善专利公开规则,促进人工智能技术的创新、应用和流动;健全顶层设计,优化申请流程和审查手段,满足创新保护的需求;建立人工智能生成物标识制度,为有效辨识和管理提供基础保障;构建技术规制与法律控制为主导的风险防范控制机制。

未来以专利为代表的知识产权将越来越成为创新发展的战略性资源和激励性要素,推动人工智能技术与产业深度融合。坚持包容审慎的态度,在安全可控的范围内积极探索,不仅有助于我国人工智能技术发展,而且有助于促进全社会高质量发展。

猜你喜欢
专利制度专利算法
哪种算法简便
Travellng thg World Full—time for Rree
EPO发布欧盟专利、贸易及对外直接投资研究报告
算法框图的补全
算法初步知识盘点
供给侧改革与专利制度的创新契合
改进专利理论模型之试构建
促进中药产业发展的专利制度研究
2007年上半年专利授权状况统计