人工智能生成物独创性标准再探讨

2021-10-22 02:01何炼红,邓韬

何炼红,邓韬

摘要:人工智能生成物的独创性标准直接影响到其作品资格的认定,具有重要意义。应该以“独立创作、源于本人”和“最低限度创造性”作为独创性构成要素,采用独创性主观标准,以人类干预引领和保障科技向善。司法实践中,构建人类干预评价模型,将案例抽象为人类干预情形组合,可解决独创性主观标准之客观化问题;构建人类干预条件模型,归纳人类干预情形组合与著作权保护之间的关系,可解决独创性主观标准之门槛问题。

关键词:人工智能生成物;独创性主观标准;人类干预;司法判断模型

中图分类号:D923.4        文献标识码:A

文章编號:16738268(2021)05005514

近年来,学界对人工智能生成物的著作权保护问题予以了高度关注,纵观现有成果,对人工智能生成物是否具备独创性,肯定者有之,否定者也有之。争论原因正是学者们对人工智能生成物独创性的判断方法或判断标准不一致[1]197。这种不一致与独创性本身争议、人工智能主体资格分歧均有联系。“独创性标准”对判断作品资格极为重要,是人工智能生成物可版权性问题的破题核心,故有必要对人工智能生成物“独创性标准”争议予以再探讨,以利于理论和实务界统一判断方法和适用标准。在当前的技术背景下,人工智能生成物区别于传统的作品,其所蕴含的人格因素在其他文章里,也被表述为“思想”“人格”因素、人格要素、个性特征等,本文统一称呼为人格因素。被大大冲淡,但著作权法的内核依然是鼓励和奖赏人类创作,独创性仍包含着对作品人格因素的期待,故有必要采用独创性主观标准,通过构建人类干预之司法判断模型,筛选出人格因素达标的人工智能生成物予以著作权保护。

一、人工智能生成物独创性标准之论争

(一)人工智能生成物独创性标准探讨的意义

当前,人工智能生成物是否应纳入著作权法保护得到了广泛讨论。支持者认为,可以防止机器人创作中的抄袭之风[2],以产权化方式降低市场交易成本[1]199。反对的理由是,贸然纳入不符合要求的人工智能生成物会破坏著作权法的内在统一性和合理性,其利益可以通过其他法律规则保护;保护基于同一算法逻辑得到的不同生成物会滋生人类创造惰性而背离立法宗旨[3]。但无论是否要纳入著作权法保护,都要从法释义学上寻找一个合理的解释。受著作权法保护的“作品”要件通常包括:(1)属于文学、艺术和科学领域内;(2)具有独创性;(3)能以一定形式表现;(4)是智力成果;(5)是思想的表达参照《著作权法》第3条和《著作权法实施条例》第2条、第3条以及《与贸易有关的知识产权协定》第9条。。人工智能生成物显然满足第(1)、(3)条,但是否满足“独创性”“智力成果”属性、是否为“思想的表达”则存在争议。

在上述三个争议要素的判断当中,又属独创性判断最为重要。因为独创性是确定“作品”的必要条件如,吴汉东教授主编、北京大学出版社出版的《知识产权法学(第六版)》将独创性、可复制性作为作品受著作权保护的两个实质条件。又如,王迁教授著、中国人民大学出版社出版的《知识产权法教程(第六版)》认为应该从三个方面理解作品:(1)作品必须是人类的智力成果;(2)作品必须是能够被他人客观感知的外在表达;(3)只有具有独创性的外在表达才是作品。,且讨论独创性在一定程度上也有利于探讨“智力成果”属性和“思想的表达”要件。“智力成果”属性强调的是“作品”源于人类,不是纯粹的自然产物[4]2526。而独创性之“独”通常解释为“独立创作、源于本人”,也有作品源于人类之意。对于“思想的表达”要件,可以拆分为表达对象是思想,以及思想已表达出来。而独创性主观标准说认为,独创性判断应延及创作过程中是否体现人格因素,人格因素即思想的表征。

虽然独创性在判断作品资格时如此重要,然而,在国际社会并无统一的标准。通常认为大陆法系的作者权制度更注重人格因素的参与,而英美法系下的版权制度独创性要求相对要低。我国的著作权制度虽然深受大陆法系的影响,但是现行《著作权法》和《著作权法实施条例》也并未直接规定独创性的法律含义和认定标准。2002年出台的《最高人民法院关于审理著作权民事纠纷案件适用法律若干问题的解释》第15条该条规定,由不同作者就同一题材创作的作品,作品的表达系独立完成并且有创作性的,应当认定作者各自享有独立著作权。被认为可能和独创性的含义有关。实际上,这一条意在说明独立创作是侵权抗辩事由之一,并未试图展示独创性的含义和标准。即使认为“独立完成并且有创作性”是独创性的解释,但也因“创作”概念直接产生文学、艺术和科学作品的智力活动。本身依赖于“作品”和“独创性”,陷入循环解释[5],未给司法实践带来太多参考价值。

(二)人工智能生成物独创性标准论争的焦点

学界有关人工智能生成物独创性标准论争的焦点,主要集中在以下几个方面:一是独创性包括何种要素;二是独创性之“独”应如何判断;三是独创性之“创”的程度要求应否提高;四是独创性应采纳客观标准还是主观标准。

1.关于独创性的构成要素

在独创性标准中,独创性所含要素是研究起点。主流观点认为,独创性构成要素包含“独”和“创”两方面,“独”指“独立创作、源于本人”,“创”指“最低限度创造性”。这种观点的支持理由似浑然天成:一来,独创性这一词汇译自英语“originality”,其英文本意包含“独”和“创”两层意思[4]2728;二来,这和独创性的中文造词法(含“独”“创”)相吻合。

但近年来也不乏学者质疑。一方面,有学者认为独创性仅包含“独立创作”。如吴汉东教授援引世界知识产权组织解释作品须具独创性,即“作品是作者自己的创作,完全不是或基本上不是从另一作品抄袭来的”。,指出人工智能生成物“只要由机器人独立完成”,就构成作品[2]。另一方面,有学者认为独创性仅包含“最低限度创造性”。“独立创作”是独创性内涵的伪概念,应回归其原来功能[67]。

2.关于独创性之“独”的判断

假设同意“独”是独创性要素之一,就要考虑独创性之“独”如何判断。学界存在以下两点争议:一是“独”是否排斥基于已有素材整合。有学者认为,人工智能生成物的“创造性”是在已有逻辑和数据模式下的排列组合[8],所以,从本质上就不算一种独立创作的作品。也有学者认为,独立创作不排斥摄入、整合已有作品创作,只需要新作、原作间存在可以被客观识别的差异[9]24。二是如何认定独立“创作”行为的观察主体。有的学者主张使人工智能成为著作权法上的新主体,享有人工智能作品的著作权[10]。有学者在此基础上进一步论证,人工智能具有自主性、主动性,已非纯受支配之客体,在法律上應设定为“电子人”[11]。有的学者认为,只有人才是创作主体,独创性来源是人的行为,必须从人的行为出发判断人工智能生成物独创性[12]。

3.关于独创性之“创”的高低

“创”指“最低限度创造性”。假设同意它为独创性要素之一,亦要考虑如何判断。最低限度创造性来源于美国的Feist案参见Feist Publications,Inc. v. Rural Telephone Company,Inc.111 S.Ct.1282。。该案中法院认定,Rural公司虽为电话目录付出了劳动,但其遵循户主姓名字母顺序的编排方式是一种古老、传统的习惯和做法,仅是机械性工作,无创造性可言,故以缺乏“最低限度创造性”为由否决了Rural公司的保护要求。在人工智能时代,有学者主张提高人工智能生成物的创造性高度标准。理由是,人工智能具有深度学习能力,已非人类活动机械延伸,提高创造性标准利于与其较人类更高的创作能力和创作效率相适应等[13]141。也有学者反对,认为提高创造性标准只会徒增交易、执行成本,没有良好的法律效果,仍应采用传统标准[14]106107。

4.关于独创性之客观标准与主观标准

这是近来围绕人工智能生成物独创性标准产生的最大争议,即除去考虑作为创作结果的表达本身是否具有独创性,是否也应考虑创作过程中有无体现人格因素[1]197[14]102103。支持只考虑创作结果是否具有独创性的学说,被称为客观标准说[15][13]139[14]102108。认为独创性判断延及创作过程中是否体现人格因素的学说,被称为主观标准说[16]150[17]。也有学者将人格因素抽出,与独创性并列作为作品要件[7][9]2425,因为此种观点亦考虑了创作过程中的人格因素,本文也归类为主观标准说的一种。

二、人工智能生成物独创性构成要素的重新阐释

(一)独创性构成要素:兼采“独”与“创”

本文认为,人工智能生成物独创性要素包含“独立创作”和“最低限度创造性”两个方面。

1.证伪“独立创作”之反驳

有学者提出,“独立创作”是独创性内涵的伪概念,将“独立创作”作为独创性的内涵有诸多不妥。具体来说,一是形式逻辑上,“独立创作”描述的是作品和作者的关系,不是作品与其他事物的关系,不适宜用来定义作品的法定属性;二是法律逻辑上,“独立创作”指向的是作品著作权的来源和归属,强调的是著作权人基于创作行为(或者受让)对作品享有著作权,但这一强调显得“特殊”“奇怪”,例如,《民法典》物权编也没有将所有者基于原始取得或继受取得定义为“物”的基本内涵;三是价值论上,“独立创作”承担了过多的法律功能负担;四是制度实践上,剔除“独立创作”有利于著作权法接受新客体[6]。

本文认为以上观点有失偏颇。其一,“独立创作”描述作品与作者关系的结果,就是描述了作品与其他事物的关系。正如德国学者雷炳德所言,“作品体现了作者的独特性格,这种独特性格是作品的标志,也就是独创性”[18]。因为作品源于作者本人,不同作者创作的作品才带有不同的个性特征,每件作品自身的个性特征构成与其他事物的区别。作品的法定属性包含“独立创作”,正是因为作品中蕴含的个性特征是大陆法系著作权法保护的核心内容,将其证伪、只留下“最低限度创造性”的观点,忽视了这一重要的立法意图。

其二,著作权法的法律逻辑不能直接和物权法类比。知识产权法调整的客体是无形的知识产品,相较于有形物,更难划分其与公有领域的边界。将“独立创作”设定为作品独创性的内涵,有利于避免创作者侵占公有领域资源,对源于作者自身的智力创造成果进行精确保护。

其三,“独立创作”虽然承担了“确定作者的权利主体地位”等使命,但这并不是“过多的法律功能负担”。时至今日,我国著作权保护环境虽有改善,但侵权盗版的现象尚未形成根本性扭转,此时仍需要“独立创作”要件引导著作权严格保护,激励创作者创作更多带有独特个性的作品,弘扬尊重知识产权的社会主义法治文化。

其四,不宜以有利于著作权法接受新客体为由剔除“独立创作”。一方面,人工智能生成物等新事物尚处于发展之中,著作权法如何予以回应尚未得到充分论证;另一方面,我国受大陆法系影响,不仅注重作者的主体地位,而且强调法律内部体系完整、严密,为了接受新客体而贸然修法,有可能造成法律体系的混乱。

2.“最低限度创造性”同样不可割舍

人工智能生成物独创性要素包含“最低限度创造性”,符合司法实践需求和著作权法立法宗旨。最高人民法院曾经明确指出,独立完成和付出劳动本身并不是某项客体获得著作权法保护的充分条件参见最高人民法院民事裁定书(2012)民申字第1392号。。从法理上看,著作权法的立法宗旨是鼓励作品创作传播、促进文化繁荣。这背后是功利主义激励论的逻辑。而按功利主义的“成本收益”计算方法,并不是所有作品都值得花大力气保护,只有那些具备最低限度创造性的作品被区分出来,才能提高激励效率。国际趋势也肯定“最低限度创造性”作为独创性要件之一。德、法等大陆法系国家自不必说,美国自Feist案后也增加了最低限度创造性的要求。

(二)独创性标准中“独”之释义

1.独立创作不排斥基于已有素材整合

该问题实质上是一个老问题,不应因披上人工智能外衣就成为争议。在我国,“独立创作”通常与“源于本人”连用,指劳动成果源于劳动者本人,也即作品是由作者独立完成的,并非抄袭结果[19]。日本法律中的解读也具有借鉴意义,在日本法中,一部作品必须是原创的(original),而不仅仅是模仿别人的作品。如果一部人工智能创作的作品不依赖于其他作者的作品,那么,这个作品可以被认为是原创的[20]。本文将其概括为“非模仿、不依赖”标准。由此观之,“独立”主要从反面界定为非抄袭、非模仿、不依赖,比较对象是一作品与另一作品。某些人工智能生成物确实是数据库中已有数据通过算法进行重新排列组合的结果,例如,人工智能生成的新闻系套用系统设定模板、嵌入扒取后依规律排列的数据形成,但如果最终产物源于人类独立的劳动,并非抄袭或模仿他人作品形成,即可满足独立创作要件。

2.独立创作应当以“人的行为”为研究基础

一些研究在考察“独立创作”要件时经常出现一个问题——以人工智能的“行为”为基础来分析创作行为是否独立。该做法默认人工智能存在“行为”且该“行为”可能产生权利,将人工智能视作潜在的权利主体,致使人工智能生成物可版权性的研究基础陷入了迷障。

这一观点忽视了人工智能技术发展有从弱到强这一阶段性、递进性的客观情况。在不同的技术发展阶段,人工智能技术有着不同的功能定位,其政策和法律的供给需求也不一样。应该以正确的技术法学分析方法,客观评估技术变化对法律制度所产生的影响[21]。从产业发展的现状来说,人工智能领域取得的进步尚局限于弱人工智能阶段。人工智能作为一种辅助创作的工具,“看似具有仿人学习、推理和适应能力,但是缺乏常识、智慧以及进行自我维护和复制的广泛方法”[22]。目前尚无迫切需要去研究强人工智能时代如何赋予人工智能生成物著作权。因为若从“弱”转“强”,“人工智能系统会对人类的自主性、自由乃至生存造成更为直接的威胁”[23],与之相比,著作权制度受到的冲击可以忽略不计[16]155。一旦权利客体变为权利主体,伦理学和民法学应先于知识产权法学做出回应[12]。

总之,应以人的行为为独立创作的研究基础,坚持弱人工智能阶段人工智能的工具地位,以人为主体视角观察人工智能生成物的创作过程[12]。人工智能生成物独创性源于人类,体现为人的意志渗透在人工智能生成物生成过程中的各个环节。比如,算法开发、训练阶段,研发者的个性化安排以代码形式植入人工智能之中;人工智能“创作”阶段,数据库和模型本身无一不包含人类作者的创造劳动[24]。

(三)独创性标准中“创”之高度

本文认为,人工智能生成物的创造性标准应该与传统作品保持一致,依然采用“最低限度创造性”。虽然人工智能提升了人类的创作能力和效率,提高创造性标准有利于实现更好的激励,但在操作层面并不现实。随着人工智能技术越来越成熟,区分人工智能生成物和传统作品的难度将越来越大。实践中,人工智能生成物与传统作品在形式上几无差异,在不告知来源的情况下,难以辨别二者。而匿名情形下,人工智能生成物凭借其与传统作品类似的艺术性外观,已经足以得到司法上“孤儿作品”水平的保护[9]24。且人工智能使用者可能为了避开较高创造性标准,隐瞒产物为人工智能生成的事实[14]106107。虽然有学者提出给人工智能使用者施加标识义务,但缺乏监督制度恐难实现,而监督难度亦极大。此外,创造性提高到何种程度同样没有统一标准,把自由裁量空间留给法院只会带来更大的不确定性,从而造成裁判尺度不一,损害司法公信力。

不过,本文虽然不建议从独创性之“创”上提高人工智能生成物的版权保护标准,但是主张从独创性之“独”入手,采用独创性主观标准,强调只有人类干预达到一定程度的人工智能生成物才能满足独创性主观标准,实际上赋予了人工智能生成物版权主张更高的证明义务,施以了人工智能生成物更高的保护门槛。

三、人工智能生成物独创性主观标准之选择与理由

本文认为,判断人工智能生成物独创性,应采纳主观标准,即不仅考虑作为创作结果的表达是否具有独创性,而且也应考虑创作过程中有无体现人格因素。

(一)独创性客观标准说的缺陷

独创性客观标准说主张对独创性标准进行改造,宣称其不考虑生成物生成过程中是否体现人格因素。然而,这一主张远没有考虑其可能带来的逻辑矛盾与正当性隐患。其一,即使按客观标准说的思路,只关注生成物本身是否具有独创性,会不可避免地延及人格因素,因为人格因素就蕴含在独创性之“独”与“创”的要求之中。具言之,独创性之“独”意为“独立创作、源于本人”,源于本人指的就是作品与作者在人格因素上的联系;独创性之“创”即“最低限度创造性”,但此“创造”指的是智力创造,智力为人所有,智力创造中也有人格因素的体现。其二,为了使客观标准说不陷入考虑人格因素的自相矛盾之中,支持客观标准说的学者对独创性之“独”和“创”的内涵进行了改造,但改造并不成功。有学者将“独”解释为生成物在外观上不能是现有作品的复制,“创”解释为生成物比之现有作品有“明显可见”的变化,并排除显然、唯一的事实性表达[14]104。这样一来,人工智能生成物的独创性判断完全客观化,剥离了作品源于作者本人智慧这一重要强调,给予人工智能生成物著作权保护也就失去了源于劳动财产论、人格权论的正当性理论根基,势必招致外界对知识产权制度正当性更猛烈的批判。轻视人类干预,还难免会带来技术伦理风险,长远看来可能有害于人工智能产业的健康发展。

从实践层面分析,独创性客观标准说在主流法域里并没有实施良好、可以仿效借鉴的先例。客观标准说往往会借鉴英国1988年《版权、外观设计和专利法案》的相关条款,为保护没有人类干预的作品提供示例。实际上,英国法的上述规定并没有带来应有的法律效果,英国内部也存在着争议。其一,现实中是否存在无人类干预的人工智能生成物饱受质疑。其二,《版权、外观设计和专利法案》第178条第b款将计算机产生作品定义为“没有人类作者的参与而由计算机独立生产的作品”。无人类参与的作品,同样不符合英国原有独创性标准规定的作品是“劳动、技巧或判断”产物的要求[25]。其三,就人工智能生成物是否需要满足独创性,学者们的观点存在明显分歧。有的学者认为只是在理解人工智能生成物如何符合獨创性要求方面存在困难,也有学者根据立法过程中的一些意见建议人工智能生成物在独创性要求上可获豁免,还有学者认为人工智能生成物的独创性只要求一作品没有复制另一作品[26]。各家观点都有不妥之处,导致客观标准说内部并没有统一方案。

(二)独创性主观标准说的合理性

从理论层面而言,独创性主观标准说不仅与作者权体系下的人格权论一脉相承,而且与版权制度下的劳动财产论相衔接。黑格尔人格权论将智力成果蕴含的人格价值作为财产权取得依据[27]。比照黑格尔“人把他的意志体现于物内,这就是所有权的概念”[28],人工智能研发者或使用者将自己的意志注入人工智能生成物的生成过程,这部分意志包含了他们独特的人格、个性因素,使得最终产物也被打上了人格烙印,人工智能研发者或使用者基于此对打上了人格烙印的人工智能生成物主张著作权。而洛克创作《政府论》意在反驳当时为绝对君权辩护的理论,在论证私有财产正当性的劳动财产论中挑明劳动者、劳动和物之间的联系,即劳动者基于自我所有权,拥有劳动,只要满足充足限制和浪费限制,掺杂劳动的共有物就脱离共有状态成为劳动者的财产。与之对应,人类作者基于自我所有权,拥有自己的劳动,混杂创作劳动的作品应成为作者的财产。虽然有观点认为劳动财产论缺乏人格因素,仅能解释知识产权中的财产权部分,但不可否认的是,劳动财产论亦以“人类作为智力成果创造主体和财产权利享有主体”为理论展开的前提[27],认为人类和物之间的联系——私人劳动是私有财产正当性的源泉。也有学者直接指出,“人”通过劳动而拥有其劳动产品的所有权,是劳动者人格权的表现和扩张[29]。 “人”的地位和价值、人和作品的联系,也是独创性主观标准说所关注和强调的。

从实践层面分析,采用独创性主观标准说符合当今主流法域的通行做法。在大陆法系国家,德国《著作权法》第2条第2款规定“作品”只有在满足是“作者自己的智力创作(the authors own intellectual creation)”的情况下才受到保护。只有源于人类头脑的作品才能被认为是“智力创作”,这显然考虑了作品生成过程中有无体现人格因素。“作品”这一概念内涵已经得到了欧盟法律的协调。根据欧盟法院在2018年Levola案中的说理,“作品”需要满足两个条件:其一,作品必须是独创的,即它是作者自己的智力创作;其二,它必须是作者自己智力创作的表达,无论它的表达方式或形式是什么参见CJEU, dec. of 13112018, docketno. C310/17, Levola Hengelo BV/Smilde Foods BV (at no. 36 et seq.)。。欧盟法院在说理中将“作者自己的智力创作”和独创性等同起来,由此观之,德国法“作者自己的智力创作”概念指向的正是德国版独创性内涵,其又蕴含作品源于人类头脑之意,可见德国采用的就是独创性主观标准[30]5。日本《著作权法》中“作品”定义“作品”,是指用创作方法表现思想或者感情的属于文艺、学术、美术或者音乐范围的东西。要求作品“表现思想或者感情”,证明日本采用的也是独创性主观标准。

即使在独创性要求较低的英美法系国家,同样认可独创性主观标准。根据美国法律,满足独创性需要作品为“独立创作”(independent authorship),“独立创作”意味着一方面不得复制先前存在的作品,另一方面“创作”必须包含来自自然人的投入[31]。在Bleistein案中参见Bleistein v. Donaldson Lithographing Co.188 U.S.239。,美国最高法院指出,“一定程度的艺术总具有由人独立完成的不可约减的内容,其可以对这些内容享有版权”,在司法实践中体现了对自然人投入的严格要求。

值得关注的是,2019年9月,国际保护知识产权协会(AIPPI)就“人工智能生成物的著作权”问题通过了一项决议(以下简称“AIPPI决议”)[32]14。AIPPI决议第3条意即,人类干预是人工智能生成物独创性的来源;第2条第1款意即,只有生成过程包含人类干预,且满足其他条件的人工智能生成物才能受著作权法保护。这两条强调了人类干预对独创性和著作权法保护的必要性,显见AIPPI所持的也是独创性主观标准。查阅AIPPI就同一议题披露的调查报告,接受调查的协会成员里有85%都赞成人类干预应该成为一项人工智能生成物受到著作权保护的条件[33]。AIPPI决议的立场反映了最新的国际趋势,具有重要借鉴意义。

(三)独创性主观标准说的政策意义和可行性

1.政策意义:智能技术中的人类干预是引领科技向善的关键因素

近年来,告别技术中立主义、技术无罪论,加强人工智能伦理建设、促进科技向善的风潮席卷全球。例如,联合国举办了“AI向善国际峰会”,推动建立“AI伦理国际对话”;OECD和G20一起推出了人工智能指导原则2019年5月,OECD成员国批准了全球首个由各国政府签署的AI原则——“负责任地管理可信AI的原则”,包括包容性增长、可持续发展和福祉原则,以人为本的价值观和公平原则,透明性和可解释性原则,稳健性和安全可靠原则,以及责任原则。这些原则已被G20采纳,今后有望成为AI领域的国际准则。;2019年,欧盟提出了人工智能领域系统的伦理框架;2019年2月,美国正式出台了AI战略,提出制定AI监管指南并设定AI治理标准,2020年1月,又发布了《人工智能应用的监管指南》,提出管理人工智能应用的十大原则等;中国也先后推出关于人工智能发展、自律、治理的系列政策文件政策文件如《新一代人工智能发展规划》《人工智能行业自律公约(征求意见稿)》《新一代人工智能治理原则——发展负责任的人工智能》。[3435]。以上政策文件多次提到“以人为本”,这揭示了科技向善(tech for good)的根本追求。科技向善的含义可以从三个层面思考:一是哲学层面上,人应该是唯一的主体和目的;二是道德和伦理层面上,必须谨防新技术割裂人类社会,致使人类建立的基本价值观和伦理体系崩塌,技術必须有利于提升人类福祉;三是实践层面上,应当遵循两个认知,即“人类共同体”和“人是文明最高、唯一的尺度”[36]。换言之,我们需要的不是“中立的科技”,而是“向善的科技”,且“向善”应该表现为增进人类福祉。

而实现科技向善,显然不能期待技术未来“自发”产生保护人类的效果(例如,技术中立主义下算法放大了人类歧视,产生了更精准、隐蔽的算法歧视),而唯有靠人类在设计、使用时“自觉”限定技术目的、运行方式,将技术受保护的标尺定在促进人类福祉上——实质上是以人类干预引领和保障科技向善。“我们应当意识到,Artificial Intelligence一词,关键的不是Intelligence,而是Artificial,是人类的自我反省意识和对科技的主动干预。”[37]

智能技术中的人类干预是引领科技向善的关键因素。采用独创性主观标准有利于倒逼产业界重视、解释、合理化人工智能技术中的人类干预(生成物中有人格因素正是人类干预的结果),防范技术风险,引领科技向善。未来,“‘善意应成为技术产品的商业竞争力”[38]。

2.可行性:算法黑箱不妨碍解释外观上的人类干预

有学者担心采用独创性主观标准会陷入人格因素解释不清的困境。事实上,这是被人工智能的算法黑箱误导了。算法黑箱指的是某些人工智能算法的技术原理存在黑箱。例如,典型的黑箱算法——神经网络算法的原理是“给定一个带有正确答案的训练数据集,它们可以通过调整每个连接的强度而逐渐优化它们的行为,直到它们的顶层输出是正确的”[39]。限于神经网络算法中数据排布和数学表达都十分复杂,人类在利用算法输出结果时难以理解算法内部结果如何产生。

然而,对内部技术原理的不解并不妨碍释明外观上的人类干预,外观上的人类干预是可以被观察、记录、讲述和监管的,也是独创性主观标准的关注对象。今日头条资深算法架构师曹欢欢博士曾在交流会上公开今日头条的算法原理,直言“算法分发并非是把所有决策都交给机器,我们会不断纠偏,设计、监督并管理算法模型”[40]。在本文随后讨论的两起案件“菲林诉百度案”和“腾讯诉盈讯案”中,技术上的算法黑箱并未影响法官从中提取司法裁判所需要的人类干预;判决书概括性地公开了人类干预,也不同于算法本身的透明化,没有导致源代码泄露等算法透明化的争议后果。这是对人工智能工作原理可行、必要和适当的公开。

人工智能生成过程中的人类干预并非不能被解释,更多情况下是因为缺乏监管文件、保護商业秘密等原因不愿被公开,或即使公开了,普通公众缺乏算法素养也难以读懂。随着机器伦理学的发展,产业界渐起算法公开呼声,未来以“可知”人工智能换取人类对人工智能的信任会慢慢成为潮流。我国2017年《新一代人工智能发展规划》明确提出要“实现对人工智能算法设计等程序的全流程监管”,在监管倒逼下,算法公开也会明朗化。独创性主观标准建立在此基础上,具备可行性。

四、主观标准下人类干预之司法判断模型的构建

相比于传统作品,人工智能生成物的人格因素被机器智能大大冲淡,即使法院认同主观标准而要求生成过程中体现人格因素,分辨人工智能生成物的生成过程体现了哪些人格因素(客观化问题)、认定人工智能生成物受著作权保护时人格因素应达到何种程度(门槛问题)亦成为困扰法院的难题。尽管我国两起涉人工智能生成物著作权保护的案例“菲林诉百度案”参见北京菲林律师事务所诉北京百度网讯科技有限公司著作权侵权纠纷案,北京知识产权法院(2019)京73民终2030号民事判决书。和“腾讯诉盈讯案”参见深圳市腾讯计算机系统有限公司诉上海盈讯科技有限公司侵害著作权及不正当竞争纠纷案,广东省深圳市南山区人民法院(2019)粤0305民初14010号民事判决书。的判决书均长篇分析了涉案材料的独创性问题,然而,目前在司法实践中主观标准的适用仍较为模糊,容易导致类案异判。在产业界推进算法黑箱透明化的同时,法学界有必要就主观标准的细化做出努力,促进司法统一化。本文就此提出人工智能生成物中人类干预之司法判断模型,从个案评价和类案保护门槛两方面切入,分别构建了针对客观化问题的人类干预评价模型和针对门槛问题的人类干预条件模型。

(一)客观化基准:构建人工智能生成物人类干预评价模型

“人类干预”指人类在人工智能研发、使用全过程中实质性参与、介入的行为总称。实际上,生成物中有人格因素是人类干预的结果,而人类干预是具象的行为,将度量人格因素转化为分析人类干预所涉环节、情形,构建人类干预评价模型,即可化抽象为具象,解决人工智能生成物人格因素之客观化问题。通过该模型,实践中个案均能找到其人类干预在模型给定环节和情形上的定位,不同案件会有不同定位,即完成各个案件在同一标准下的客观化区别评价。因为该模型旨在解决个案人类干预的客观化评价,故名为人类干预评价模型。以下详细阐述了该模型的构建过程。

参考AIPPI决议使用的人工智能工作步骤示例(以下简称“决议示例”)[32]2,人工智能生成物的生成过程可以简化为三个环节:其一,创建人工智能系统,该系统能接收、分析、学习自外界输入的内容,以及灵活采取相应行动,以便在一段时间内实现特定目标(简称“环节一:系统创建环节”);其二,选择输入人工智能系统的数据,该数据可以是已有作品,也可以是基于特定筛选标准而获得的来自传感器、摄像机或其他渠道的内容(简称“环节二:数据选择环节”);其三,将所选数据输入系统,系统通过生成区别于任何先前作品的“新生成物”以达成目标(简称“环节三:制造生成物环节”)。

人类干预渗透于以上环节之中。本文在参考决议示例AIPPI在决议示例中根据环节二、环节三人类干预的有无分别设定了情形2a(环节二中数据或数据的筛选标准由人类确定)、2b(环节二中数据或数据的筛选标准不由人类确定)和3a(环节三中人类基于质量或审美要求从若干“新生成物”中选出一件“最终生成物”)、3b(环节三从若干“新生成物”中选出“最终生成物”的过程不涉及人类干预)。(参见:AIPPI,Resolution—Copyright in artificially generated works,AIPPI,2019p2)和AIPPI流程图AIPPI决议与AIPPI就同一决议的学习指南有些许差异。指南提供了一张总结人工智能生成过程中人类干预的流程图(简称“AIPPI流程图”),该图里,情形2a、2b、3a、3b都有对应的、相同或实质相同的情形,但AIPPI流程图较决议示例还多出一种特殊情形——决议示例的环节三被一分为二,当“人工智能制造生成物”步骤没有任何人类干预时,才进入“生成物选择/公布”步骤,出现情形3a和3b;当“人工智能制造生成物”步骤有人类干预时,直接生成最终生成物,本文将该种特殊情形命名为情形3c。(参见:AIPPI,Study Guidelines—Copyright in artificially generated works,AIPPI,2019p89)的基础上,尝试归纳出人工智能生成物的生成环节及人类干预情形流程图(见图1)本文除了创造性地综合决议示例中的情形2a、2b、3a、3b和AIPPI流程图中的情形3c外,为了研究的全面,还根据环节一人类干预的有无增加了情形1a(环节一里要实现的特定目标由人类选择)和1b(环节一里要实现的特定目标不由人类选择),并最终得到图1。。

人工智能生成物生成环节中人类干预的情形阐释如下。

(1)系统创建环节,根据人类干预有无分为:情形1a(人工智能要实现的特定目标由人类选择);情形1b(人工智能要实现的特定目标不由人类选择)。

(2)数据选择环节,根据人类干预有无分为:情形2a(数据或数据的筛选标准由人类确定);情形2b(数据或数据的筛选标准不由人类确定)。

(3)制造生成物环节,有两种运行路径:其一,如果“环节三之一”没有人类干预,则进入“环节三之二”,根据人类干预的有无分为情形3a(人类选择和公布最终生成物)和情形3b(人工智能在没有任何人类干预的情况下选择最终生成物),此后产出最终生成物,宣告全流程结束;其二,如果“环节三之一”有人类干预,指向情形3c(人类通过向人工智能发出指令以修改生成物方式或径直修改生成物方式直接参与生成物的创建),此后亦产出最终生成物,宣告全流程结束。

司法实践中,单个案例均可被抽象为上述情形的组合,由此完成人工智能生成物人格因素的客观化评价和统一度量。

(二)门槛问题:构建人工智能生成物人类干预条件模型

1.人工智能生成物“源于本人”的重新解读

“源于本人”指劳动成果源于劳动者本人、作品人格因素源于作者本人人格,它与“独立创作”共同构成独创性之“独”的内涵。人工智能生成物欲受著作权保护,同样应符合“源于本人”的要求。重新审视“源于本人”的含义,有利于更好地解决主观标准中人格因素的门槛问题。

其一,是否“源于人”是人工智能生成物受版权保护的边界。传统作品完全来自于人类贡献,独创性之“独”的使命是认定作品源于作者本人而非其他人,“源于本人”的重点在于“本”字。在人工智能时代,作品产生还有人工智能的贡献,这些贡献人类难以预测、难以操纵。独创性之“独”的使命还在于认定作品源于人类而非人工智能,“源于本人”的重点转移到“人”字。

换言之,原先已“预设了该创作行为由人类完成”,所以独创性之独的判断更关注创作是否独立;现在作品不再单纯源于人类,“强调人类作者身份以指明创作行为由人类完成,这对界分人类作品与人工智能生成物尤为必要”[17]。

从逻辑上说,生成物是否有不“源于人”的可能,构成了传统作品到人工智能生成物的本质跨越。是否“源于人”也是能否依据传统作品的逻辑去保护人工智能生成物的边界。边界以外的人工智能生成物与传统作品有本质差异,拒绝对其予以保护具有著作权法上的正当性。边界以内的人工智能生成物“源于人”是出于何种条件,则需要进一步判断。

其二,“源于本人”的程度即人工智能生成物人类干预程度的高低。在传统理论中,“独”是一种“有和无”的判断,“创”是一种“高和低”的判断[4]34。在人工智能时代,这种认识应该被更新,“独”同样具有“高和低”的判断标准。人类干预程度越高的生成物,在独创性之“独”中“源于人”的程度越高,受著作权法保护的理由也就越坚实。人类干预的程度并不抽象,可以根据人类干预情形的组合情况进行度量。

2.人类干预所涉环节、情形与著作权保护可能的关联性分析

解决人格因素门槛问题,可以转化为分析人工智能生成物生成过程中人类干预应达到的程度。就此,有必要分析人类干预所涉环节、情形与著作权法保护可能之间的关系。针对上述关联性AIPPI已经达成了部分共识参见AIPPI决议第2条:“AI生成物只有在其生成过程有人类干预的情况下,且在该生成物符合受保护作品应满足的其他条件的情况下,才能获得版权保护。对于生成过程无人类干预的AI生成物,其无法获得版权保护。上述原则也适用于研究示例中各个步骤所描述的情形,具体结论如下。

针对步骤1,AI生成物不应仅仅因为其是人类创建的AI系统的输出内容而获得版权保护;

针对步骤2的情况2a,若用以输入AI的数据筛选标准系人类选择确定的,则AI生成物可获得版权保护;

针对步骤2的情况2b,若用以輸入AI的数据或该数据的筛选标准完全不由人类选择确定(或仅仅由非人类选择确定),则AI生成物不能获得版权保护;

针对步骤3的情况3a,AI生成物不能仅因为人类从“新生成物”中选出最终生成物而获得版权保护;

针对步骤3的情况3b,AI生成物不能仅因为从“新生成物”中选出最终生成物的过程不涉及人类干预而获得版权保护。,本文尝试在其基础上更进一步构建完整的司法判断模型,以期为主观标准的适用提供司法裁判指引。因为本部分讨论旨在通过梳理人类干预所涉环节、情形与著作权法保护可能性之间的关系,筛选出人工智能生成物在满足独创性主观标准时人类干预应当达到的条件,故命名为人类干预条件模型。下面将详细阐述模型构建过程。

(1)针对系统创建环节,情形1a应为人工智能生成物受著作权保护的必要条件之一。这是科技向善、加强人工智能风险管控的必然要求。智能技术中的人类干预是引领科技向善的关键因素,而科技向善的重要目标之一即限制人工智能运用目的、增强人类福祉导向。在机器人伦理学领域,广泛运用的“机器人三定律”由美国科幻小说家阿西莫夫于1950年在其科幻小说《我,机器人》中首倡,在科技哲学领域被普遍承认。包括:“规律一:一个机器人不能伤害人类,也不能够在人类面临受伤害风险时袖手旁观;规律二:一个机器人必须服从人类的命令,除非这种服从会导致机器人违背定律一;规律三:一个机器人必须尽力自我保护,除非这种自我保护会导致它违背前两条定律。”暗含人类福祉才是机器工作的最终目的之意。由人类确定人工智能系统实现目标与人类发明机器人的初衷相吻合,有利于将技术发展方向限制在增进人类福祉上。倘使一件生成物的目标脱离人类掌控,考虑到伦理风险,著作权法不宜予以保护。但必要条件不意味着唯一条件,好比AIPPI决议第2条第2款指出,人工智能生成物不应仅因为是人类创建的人工智能系统之输出内容而获得著作权保护[32]3。

(2)针对数据选择环节,人工智能生成物若想获得著作权保护,情形应为2a,且此时人类干预应构成关键的数据处理,而非创作的准备活动(preparatory action)。

其一,人工智能生成物若想获得著作权保护,在环节二上情形应表现为2a。根据AIPPI决议第2条第2款[32]3的规定,环节二人类干预之存在与否和著作权保护之可能与否完全一致。AIPPI“人工智能生成物版权问题”德国工作组分析了德国在决议示例下的各种情况该段中文翻译如下:将德国著作权法下的独创性要求应用于工作实例:(1)累计包含步骤1(笔者注:此处步骤1在本文中指情形1a,参见本文第9页脚注①)、2a和3a的人工智能生成物可以被称为独创作品,因为人类对结果作品的指导和控制影响很大,并且在使用人工智能创作作品的所有决定性阶段都存在;(2)累计包含步骤1、2b和3b的人工智能生成物不符合独创作品的资格,因为该作品是算法的产物,并且人类作者对结果作品的指导影响太小;(3)累计包含步骤1、2b和3a的人工智能生成物将不符合独创作品的资格,因为人类作者根据步骤3对作品的最终选择不能补偿人类作者在创建所选作品时缺乏指导影响;(4)累计包含步骤1、2a和3b的人工智能生成物可以由于数据选择而符合独创作品的资格:人类作者通过选择输入数据对作品的指导影响越大,结果被限定为独创作品的机会就越大。。由观察可知,德国工作组列举的第一种情形组合“1a+2a+3a”和第四种情形组合“1a+2a+3b”中人工智能生成物能获得著作权保护,而第二种情形组合“1a+2b+3b”和第三种情形组合“1a+2b+3a”中人工智能生成物不能获得著作权保护。能获得著作权保护的情形组合在环节二上均表现为2a,不能获得著作权保护的情形组合在环节二上均表现为2b,证明了情形2a对著作权保护有关键影响。与此呼应,德国工作组解释道,“1a+2a+3b”情形组合下人工智能生成物可以由于(人类的)数据选择而符合独创作品资格[30]6,证明该情形组合受保护的关键原因就是情形1a和2a中情形2a的存在。

其二,单独就情形2a而言,人类的数据选择行为还需要根据干预深度进一步细分。一种是人类干预仅构成创作的准备活动,对最终生成物没有显著贡献(significant contribution);另一种是人类干预构成关键的数据处理,对最终生成物有显著贡献,以至于人工智能只能被当作工具看待[30]4。恰如德国工作组对情形组合“1a+2a+3b”的解释,人类作者通过选择输入数据实现的指导影响越大,生成物获得作品资格的机会就越大[30]6。之所以情形2a如此重要,是因为人类干预构成关键数据处理时,人类对生成物的指导影响足够大,能强力证明生成物“源于本人”。例如,研发者将毕加索在19151920年的画作作为人工智能系统的输入内容,指令人工智能生成类似风格的画作,该选择个性色彩鲜明,带有一定的创作意图,对最终生成物的风格影响巨大,就构成关键的数据处理,能支持生成画作源于研发者本人。

值得注意的是,情形组合“1a+2a+3b”受著作权保护,还证明了仅凭“1a+2a”即足以构成人工智能生成物通过独创性主观标准考验的充分条件,不需要情形3a来补强人类在结果作品上的指导影响。

(3)针对制造生成物环节,情形3a或3b不构成人工智能生成物受著作权保护的条件之一,但情形3c可以替代情形2a,使情形组合“1a+3c”也构成人工智能生成物通过独创性主观标准考验的充分条件。

其一,情形组合“1a+2b+3b”的人工智能生成物不符合独创作品的资格,因为该作品是算法的产物,并且人类作者对结果作品的指导性影响太小。情形组合“1a+2b+3a”的人工智能生成物也不符合独创作品的资格,因为人类作者对作品的最终选择不能补偿人类作者在创建所选作品时所缺乏的指导性影响[30]6。所谓人类作者对作品的最终“选择”不能补偿人类作者在“创建”所选作品时所缺乏的指导性影响,指的就是情形3a不能补偿情形2a的缺失。

其二,与情形3a、3b只涉及人类对生成物的“选择”或“公布”不同,情形3c中人類直接参与了生成物的“创建”。本文认为,情形3c于一定程度上近似2a,情形组合“1a+3c”亦可构成人工智能生成物通过独创性主观标准考验的充分条件。情形3c、2a和情形3a、3b的区别,在于人类干预是否导致最终生成物“本身”的变动。独创性的判断对象也应该是最终生成物本身,因为只有最终生成物本身的变化才能反映出人类的“直接”贡献。

综上,人工智能生成物通过独创性主观标准考验的充分条件包括以下两种情况:其一,符合情形组合“1a+2a”,即在系统创建环节由人类确定人工智能要实现的特定目标,以及在数据选择环节由人类确定数据或数据筛选标准,且此时人类干预应构成关键数据处理,而非创作的准备活动。其二,符合情形组合“1a+3c”,即在系统创建环节由人类确定人工智能要实现的特定目标,在制造生成物环节,人类通过向人工智能发出指令以修改生成物方式或径直修改生成物方式直接参与生成物的创建。

(三)人工智能生成物人类干预之司法判断模型的实例检验

目前,我国法院判决的“菲林诉百度案”和“腾讯诉盈讯案”,均涉及了人工智能生成物著作权保护问题的判断。本文尝试根据前述人类干预评价模型和人类干预条件模型(合称人工智能生成物人类干预之司法判断模型)对涉案内容进行分析。

在“腾讯诉盈讯案”中,腾讯公司组织包含编辑团队、产品团队和技术开发团队在内的主创团队运行Dreamwriter软件生成包含涉案文章在内的财经新闻类文章。腾讯主创团队设定了Dreamwriter软件工作的特定目标——生成财经新闻类文章,符合情形1a;选择、安排了数据类型、数据格式、触发条件、文章框架模板、语料等,符合情形2a,且行为属于关键数据处理。由此,涉案文章属于情形组合“1a+2a”,且在情形2a上行为构成关键数据处理,符合模型条件,能达到独创性主观标准。实践中,法院亦认定文章的表现形式源于创作者个性化的选择与安排,具有独创性,属于著作权法保护的文字作品。

在“菲林诉百度案”中,菲林律所根据法律统计数据分析软件“威科先行法律信息库”(以下简称“威科先行库”)自动生成了《影视娱乐行业司法大数据分析报告——电影卷·北京篇》(以下简称“分析报告”)。从研发者角度分析,研发者设定了威科先行库的工作目标——生成法律数据分析报告,符合情形1a。但研发者没有参与确定分析报告的数据或数据筛选标准,也没有就分析报告进行任何修改,不符合情形2a或3c,研发者的干预不符合模型条件,人格因素没有达到独创性主观标准门槛,这与实践中法院认定分析报告“并未传递研发者思想、感情的独创性表达”一致。从使用者角度分析,其采用了研发者设定的威科先行库工作目标——生成法律数据分析报告,符合情形1a。使用者提交了检索关键词,符合情形2a,然而,仅仅几个关键词的贡献不能构成关键数据处理,而仅属创作准备活动。因为使用者输入的关键词仅仅限定了案件范围,而案由分布、行业分布、程序分类、裁判结果、标的额等分析报告的主要数据还需要威科先行库自行提取法院勘验笔录显示,在输入关键词“电影”,限定审理法院为北京市法院,审判日期为1995年1月1日至2017年12月31日后,威科先行库生成的大数据报告1内容包括了数据来源、检索结果可视化(整体情况分析、案由分布、行业分布、程序分类、裁判结果、标的额可视化、审理期限可视化、法院、法官、律师律所、高频法条)和附录。。使用者也没有证据证明自己修改了分析报告,故不符合情形3c。使用者的干预不符合模型条件,其人格因素没有达到独创性主观标准门槛,这与法院认定分析报告“并非传递软件用户思想、感情的独创性表达”一致。综上,分析报告既不源于研发者的干预,也不源于使用者的干预,也就如判决所言不能构成著作权法上的作品。

对比两起案件,显然异曲同工,法院均采用了独创性主观标准。前者因人工智能生成物体现了主创团队个性化的安排与选择,人格因素达标,肯定了生成物的作品资格;后者因分析报告并未传递研发者或使用者思想、感情的独创性表达,人格因素不达标,否定了生成物的作品资格。可见,我国法院对独创性主观标准的应用并不存在本质上的分歧。

五、结论

一切新技术的发展,终将服务于人类对美好世界的追求。“独立创作、源于本人”和“最低限度创造性”仍然是人工智能生成物独创性的基本构成要素。

在独创性之“独”上,我们不应排斥人工智能生成物基于已有素材整合,且应强调以“人的行为”为研究基础。在独创性之“创”上,建议维持原有的创造性高度标准,但可以通过赋予人工智能生成物著作权主张更高的人类干预证明义务,施以其更高的保护门槛。

通过建立人工智能生成物人类干预之司法判断模型,可以实现人工智能生成物独创性标准的科学化、客观化。其中,人类干预评价模型将单个案例抽象为人类干预情形组合,解决的是独创性主观标准之客观化问题;人类干预条件模型归纳人类干预情形组合与著作权保护之间的关系,解决的是独创性主观标准之门槛问题。在此基础上,凝聚共识,推进裁判尺度统一,必将对司法实践起到更好的指导作用。

參考文献:

[1]孙正樑.人工智能生成内容的著作权问题探析[J].清华法学,2019(6).

[2]吴汉东.论人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017(5):131.

[3]何炼红.人工智能自主生成成果“作品观”质疑与反思[J].贵州省党校学报,2018(5):1523.

[4]王迁.知识产权法教程[M].北京:中国人民大学出版社,2019.

[5]金渝林.论作品的独创性[J].法学研究,1995(4):59.

[6]乔立春.“独立创作”作为“独创性”内涵的证伪[J].知识产权,2011(7):3738.

[7]刘影.人工智能生成物的著作权法保护初探[J].知识产权,2017(9):4647.

[8]王小夏,付强.人工智能创作物著作权问题探析[J].中国出版,2017(17):3336.

[9]黄玉烨,司马航.孳息视角下人工智能生成作品的权利归属[J].河南师范大学学报(哲学社会科学版),2018(4).

[10]袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):5057.

[11]郭少飞.“电子人”法律主体论[J].东方法学,2018(3):3849.

[12]熊琦.人工智能生成内容的著作权认定[J].知识产权,2017(3):7.

[13]易继明.人工智能创作物是作品吗?[J].法律科学(西北政法大学学报),2017(5).

[14]卢炳宏.论人工智能创作物独创性判断标准之选择[J].内蒙古社会科学, 2020(4).

[15]孙山.人工智能生成内容著作权法保护的困境与出路[J].知识产权,2018(11):6063.

[16]王迁.论人工智能生成的内容在著作权法中的定性[J].法律科学(西北政法大学学报),2017(5).

[17]何培育,蒋启蒙.人工智能生成物的著作权保护路径探析——兼评人工智能生成物著作权第一案[J].重庆邮电大学学报(社会科学版),2020(4):30.

[18]M.雷炳德.著作权法[M].张恩民,译.13版.北京:法律出版社,2004:53.

[19]王迁.著作权法[M]. 北京:中国人民大学出版社,2015:20.

[20]HENRY G. Japan Report—Copyright in artificially generated works[C].London:AIPPI,2019:4

[21]何炼红,王志雄.人工智能医疗影像诊断侵权损害赔偿法律问题[J].政治与法律,2020(3):32.

[22]中国信息通信研究院,Gartner Group.2018世界人工智能产业发展蓝皮书[R].上海:世界人工智能大会组委会,2018:44.

[23]RUSSELL S J, NORVIG P.人工智能:一种现代的方法[M]. 殷建平,祝恩,刘越,译. 北京:清华大学出版社,2013:878.

[24]吴汉东.人工智能对知识产权法律保护的挑战[J].中国法律评论,2018(2):14.

[25]GRIFFITHS J, BENTLY L, CORNISH W R. UK, §2〔b〕〔i〕[M]//GELLE RP E. International Copyright Law and Practice.  Miamisburg: Matthew Bender & Company,Inc,2015.

[26]HENRY G. UK Report—Copyright in artificially generated works[C]. London: AIPPI,2019:7.

[27]MERGES R P, MENELL P S, LEMLEY M A. Intellectual Property in the New Technological Age[M]. 6th ed. Alphon annden Rijn: Wolters Kluwer Law and Business,2012:6.

[28]黑格尔.法哲学原理[M].范扬,张企泰,译.北京:商务印书馆,1961:59.

[29]彭立静.伦理视野中的知识产权[M].北京:知识产权出版社,2010:58.

[30]HENRY G. Germany Report—Copyright in artificially generated works[C].London: AIPPI,2019.

[31]Henry G. USA Report—Copyright in artificially generated works[C]. London: AIPPI,2019:4.

[32]AIPPI. Resolution—Copyright in artificially generated works[C].London: AIPPI,2019.

[33]JONATHAN P. OSHA Summary Report—Copyright in artificially generated works[C].London: AIPPI,2019:89.

[34]曹建峰. 2019年全球人工智能治理报告:从科技中心主义到科技人文协作[EB/OL].(20200206) [20210308] https://www.sohu.com/a/371067151_455313.

[35]中国信息通信研究院.全球人工智能战略与政策观察(2019)[R].北京:中国信息通信研究院,中国人工智能产业发展联盟,2019:153.

[36]马旗戟. 人类为什么思考技术善恶的问题&怎样做? [EB/OL].(20190529)[20210330].https://mp.weixin.qq.com/s/3BtgKfFNcW6FRWWWdyqoqQ.

[37]贾平凡. 用“科技向善”理念引领人工智能发展[N].人民日报(海外版),20190506.

[38]腾讯研究院. 曼纽尔·卡斯特:“善意”应成为技术产品的商业竞争力[EB/OL].(20191015)[20210530].https://baijiahao.baidu.com/s?id=1647456602680452756&wfr=spider&for=pc.

[39]CASTELVECCHI D. Can we open the black box of AI?[EB/OL].[20210530].https://www.nature.com/news/canweopentheblackboxofai1.20731?from=singlemessage&isappinstalled=0.

[40]曹歡欢.今日头条推荐算法原理全文详解[EB/OL].(20180116)[20210530].https://36kr.com/p/1722189037569.

The Originality Standard of Artificial Intelligence  Products and the

Construction of Human Intervention Judicial Judgment Model

HE Lianhong1, DENG Tao2

(1. School of Law, Central South University, Changsha 410083, China;

2. Intellectual Property Research Center, Zhongnan University of Economics and Law, Wuhan 430073, China)

Abstract:

It is of great significance that the originality standard of artificial intelligence products directly affects the identification of their work qualification. We should take “independent creation, selforigin” and “minimum creativity” as the constituent elements of originality, adopt the subjective standard of originality, and guide and ensure the good of science and technology with human intervention. In judicial practice, constructing the evaluation model of human intervention and abstracting the case into the combination of human intervention situations can solve the objective problem of the original subjective standard. Constructing the human intervention condition model and summarizing the relationship between the combination of human intervention and copyright protection can solve the threshold problem of originality subjective standard.

Keywords:

artificial intelligence products; subjective criterion of originality; human intervention; judicial judgment model

(编辑:刘仲秋)

收稿日期:20210412修订日期:20210531

基金项目:国家社会科学基金项目:人工智能知识产权法律问题研究(17BFX012);湖南省教育厅创新平台开放基金项目:网络服务平台知识产权保护义务体系研究(18K002);中南财经政法大学中央高校基本科研业务费专项资金:闲置商标清理问题研究(202111516)

作者简介:

何炼红(1970),女,湖南韶山人,教授,博士生导师,主要从事知识产权法学研究;邓韬(1998),女,湖南郴州人,硕士研究生,主要从事知识产权法学研究。