军用无人系统的合法性及未来挑战

2018-06-13 02:27陈会斌曾杨智
军事文摘 2018年6期
关键词:致命性军用国际法

陈会斌 曾杨智

2017年,联合国在日内瓦举行《特定常规武器公约》框架下可致命性自主武器系统第二次正式专家会议,来自联合国《特定常规武器公约》缔约方的几十个国家、地区和国际组织(包括如联合国裁军研究所、国际红十字委员会等)参加了会议,其中包括中国外交部和国防部也派遣代表参会,与会人员对可致命性自主武器系统特别是其定义以及对伦理道德和国际法的冲击进行了激烈讨论。

军用无人系统因其零伤亡和对复杂任务的良好适应性,被认为将是继火药和核武器发明之后的革命性武器,它的广泛使用将完全改变现有的战争形态和格局,甚至改变战争的本质,因而受到各国的高度重视。但是,军用无人系统自主性的发展和作战运用对伦理、道德、法律层面所带来的挑战,也引起了国际社会的广泛关注和担忧,国际舆论和立法将深刻影响和制约军用无人系统发展与运用的走向。

随着人工智能和信息技术发展,技术层面基本上已经不再是制约军用无人系统发展的瓶颈,各种军用无人系统,特别是以无人机为典型的军用无人系统已广泛应用到军事领域并在反恐领域取得实效。可致命性自主武器系统就是在无人化平台上搭载可致命性武器载荷的军用无人系统。

一些激进的和平组织和人士将自主武器系统称呼为“杀人机器人”。研究国际社会对军用无人系统发展的方向舆论,特别是其在伦理道德以及国际法层面所带来的挑战,可以对未来军用无人系统发展趋势做出有意义和有效的前瞻,对于我国和军队发展运用军用无人系统、合理规避国际争议,具有一定的战略价值。

以美国为例,美国的地面无人系统,如角斗士多用途无人战车已大量列装海军陆战队。执行侦察、战场运输和排雷等任务的专用机器人如第一眼、非洲猎豹等也投入了使用。海上方面,美国研发了多种可长时间自主巡逻海岸、港口并识别可疑船只的无人巡逻艇,正在试验的无人潜航器可执行侦察监视、探雷扫雷和攻击等任务。无人机方面,1995年7月,捕食者无人机首次加入巴尔干地区的军事行动以来,美军的无人机已被先后部署到本土以外的8个国家。特别是“9·11”事件以后,美国开始在全球部署可致命性无人机。据美国智库机构新美国基金统计,2004年—2013年,无人机在巴基斯坦和也门共执行过428次攻击任务,造成2439~3982人死亡;其中在巴基斯坦境内攻击355次,造成2003~3321人死亡。在2017年5月份召开的致命性自主武器系统专家会议上,巴基斯坦用了长达5页纸的内容表达了对未来自主武器系统的深切担忧。

现有军用无人系统的合法性问题

研究现有军用无人系统的合法性问题,有效运用和发展现有军用无人系统技术是十分必要的。对现有的军用无人系统,可将其分为非致命性军用无人系统和可致命性军用无人系统分别进行讨论。

非致命性军用无人系统的合法性问题。一般来讲,非致命性军用无人系统多应用于侦察监视、障碍物清除、搜索营救、爆炸物拆除、生物化学武器探测等非战争军事行动和反恐领域。通过应用这些非致命性军用无人系统,可以使原本需要由士兵执行的任务由无人系统来执行,有效降低士兵伤亡率;一些不适宜由人类执行的复杂环境的任务也可以交由无人系统执行,提高任务效率。很多技术专家强调机器人技术的“双重使用属性”,强调不能因为害怕致命性自主武器系统的潜在威胁就停止发展人工智能和自主系统,因为它们可以很完美地应用在民事领域以及非战争军事行动中,“可以给我们的生活带来积极的改变”。

现有可致命性军用无人系统的合法性问题。现有致命性军用无人系统都是由人类远程操控进行的,一般认为,目前尚未出现完全意义的致命性自主武器系统。对于现有致命性军用无人系统的合法性,国际社会颇有争议。“探讨致命性军用无人系统的合法性,一般是看该种新形式、新手段的武器是否严格遵守军事冲突的国际法律”。所有这些新武器都必须严格遵守国际人道主义法的基本规定,包括区分原则、比例原则、军事必须原则以及人权原则。

《1949年8月12日日内瓦公约关于保护国际性武装冲突受难者的附加议定书》(第一议定书)就区别原则和比例原则做出了规定,要求攻击行动应限于军事目标,平民和平民目标不得作为攻击目标,并且禁止实施可能给平民生命、健康、财产或三者同时造成意外损害,与预期的具体和直接军事利益相比损害过大的攻击。以攻击型无人机为例,它是由战斗人员进行操控并下达攻击命令,其本身并不能自主飞行(仅在无人机与操作人员失去联系的时候,无人机才会加载自动飞行模块进行自动返航)和攻击。其作战的军事必须性是由作战司令部或者作战指挥员决定和负责。战斗人员通过远程画面对敌方战斗人员和平民进行区分然后攻击。攻击使用的是挂载的导弹,与一般飞机无异。

因此,承担战争责任的决策者和行为主体都是明确的,武器使用的也是常规的导弹,我们可以认為现有的以攻击型无人机为典型的可致命性军用无人系统本身是合法的。

但是正如奥地利专家担忧的:“我们非常怀疑一个预先程序化的无人武器系统能够在一个人类远程的控制下,通过人类对情况的判断,做出准确而必要的决定。也就是说,如何让我们相信杀伤性的武力是否是在某个人类控制下,针对每个情况,理性而准确的做出决定,从而使该个人类能够在国际法约束下履行责任。”这种担忧是有道理的,因为比例原则的根本意义在于当保护不可能是绝对的时候,应秉承善意,用人道和军事需要这两项原则互相制约,从而达到最大程度保障无辜平民生命权的目的。

然而基于两方面的原因,可致命性无人系统可能更容易造成不必要和不成比例的平民伤亡。一是军用无人系统给攻击策划者和实施者创造一个与现实割裂的虚拟的战场环境,难以让操作人员全面掌握真实而准确的战场信息,尤其是在准确辨识攻击目标方面。二是操控者置身事外的心态不利于其以克制的情绪操控武力。有操控者在接受媒体采访时表示,按下导弹发射按钮的那一刻是他最有成就感的时候。操控者在进行操作的时候可能会形成一种进行电玩游戏的心态,其动用武力的意愿在不经意间就遭到了强化,有可能对平民等非军事目标造成不必要的伤害。

未来可致命性自主武器对国际社会带来的挑战

军用无人系统的未来发展趋势可能使其目前的合法性质出现变化,国际人道法中非常重要的“马顿斯条款”就规定:在国际人道法未包括的情况下,“平民和战斗员仍受来源于既定习惯、人道原则和公众良心要求的国际法原则的保护和支配。”随着技术的发展,无人系统必将向自主化方向发展,发展为可致命性自主武器,而可致命性自主武器系统可以自主决定行进路径、自主进行目标搜索和判别并自主进行致命攻击的机器特性,将严重挑战现有伦理道德和国际法对现代战争的约束。具体表现在以下几个方面。

严重挑战现有国际法对于战争主体的定义。无人机如果完全自主选择、识别、攻击目标,那么这种无人机很难仅仅被视为一种武器,而是具有某种程度人类才具有的“主体”地位。国际人道主义法从产生到至今,关注的一直都是人的问题,如对作战方法和手段的限制、战俘待遇、平民的保护等,所有的原则、规则和制度都是从人的角度出发,通过人来解决。机器以及人与机器之间的关系,在国际法中迄今为止未列入考虑范围。那么如果一个自主武器杀害了平民,究竟谁该承担责任,是追究自主武器自身的责任還是其设计者的责任,抑或可能存在的操控者的责任,还是或者说没有人该被追究责任?这种“反客为主”的无人机不仅对现有伦理道德构成威胁,而且对国际人道主义法存在本身也形成根本挑战。

严重挑战现有国际法的基本原则。国际人道主义法的基本规定,包括区分原则、比例原则、军事必须原则以及人权原则。杀人机器人如何在瞬息万变的战场上瞬间区分敌人和平民而不误伤平民,如何能在复杂战争环境下仍能作出在国际人权法律要求下的决定,严格遵守国际人权法都不能得到保证。机器人只能执行人类预先设定的程序,目标是否可以通过某种算法结合某种生理特征而被锁定或者区分,比如“大胡子”,那么是否意味着所有的有“大胡子”的都是敌人或者恐怖分子?而且对一个机器人武器来说,判断一个人是否离开战斗、失去战斗力的评价也存在很大的问题。造成人类死亡的决定是由没有感情的机器决定的,这也是对人类生命权和生命尊严的侵犯,严重违反了国际人权法的人权原则。机器毕竟是冰冷的机器,不是有血有肉的人类,不具备人类天生所具有的悲悯和善良,不具备伦理和道德的观念,他们只会严格的执行任务,残酷的杀死一切锁定目标,而不管正确还是错误,都严重违背了国际人道主义法的基本原则。

自主武器发展还将加剧损害不发达国家及其人民的人道主义权利,引发全人类的生存危机。正如联合国法外处决、即决处决或任意处决问题特别报告员克里斯托夫·海恩斯所说:“人们不应当忘记,飞机最初在武装冲突期间使用时也只是用于侦察目的,不考虑为进攻性目的使用。后来的经验表明,一旦相关技术日臻完善,最初的考虑和保证往往被抛掷脑后。”当发达国家自主武器发展到一定程度,他们未必能阻止甚至可能乐见投入使用致命性自主武器,因为使用机器人意味着“零伤亡”,但是这是一场非对称战争,是一场一边是机器人而另一边是人类的战争,这严重损害了不发达国家及其人民的人道主义权利,必将促进各个国家展开新一轮军备竞赛,成为引发全球战争威胁的诱因,带来全人类的生存危机。

自主武器泛滥将会导致全球恐怖主义泛滥。致命性自主武器将如同核武器一样,同样带来扩散的威胁,放任致命性自主武器的发展和泛滥,恐怖组织和不法分子必将大肆利用致命性自主武器,从而导致全球恐怖主义的乱潮。2015年11月,“伊斯兰国”在巴黎和马里的恐怖主义行动造成了大量无辜平民的死亡。各个国家和国际社会应该仔细考虑这项技术落入如“伊斯兰国”等激进的恐怖组织手中的后果。这些群体大量依赖于自杀性爆炸事件达成其战术和战略目的。落入这些团体的手中的致命性自主武器将造成比他们使用自杀性爆炸更大的影响后果。此外,这还可以防止他们招募的新兵的死亡。

国际社会如何应对未来可致命无人武器系统

现阶段军用无人系统仍属于合法武器的范畴,其对国际法的挑战主要集中在可能违反比例原则、造成过分平民死伤或民用物体毁损上,以及由此产生的责任问题。但是从现实来看,美国等军事强国仍将继续大力推进致命性无人系统研发,致命性自主武器也有可能落入恐怖分子手中,研究军用无人系统发展的伦理道德困境和国际法理发展具有重要意义。国际人道主义法以及联合国《特定常规武器公约》一直设法将武装冲突带来的影响限制在一定范围内的规则,国际法未来可能会从以下方面应对军用无人系统对伦理道德和现有国际法的挑战。

有可能会颁布一个预先禁令。有鉴于未来可致命性自主武器系统所带来的威胁,一些国家呼吁对致命性自主武器颁发一个预先禁令,正如日内瓦公约第一附加议定书第36条规定:“在研究、发展、取得或采用新的武器、作战手段或方法时,缔约一方有义务断定,在某些或所有情况下,该新的武器、作战手段或方法的使用是否为本议定书或适用于该缔约一方的任何其他国际法规则所禁止。”在统一的监督、法律、应用框架建立前暂停致命性自主武器的研究、生产、部署和使用。但是一些国家有可能会利用技术的“双重使用属性”,搞表面一套背后一套,表面遵守禁令,开发自主系统的民用发展用途,但其实亦可以快速部署于军事用途。因此一旦颁发这个禁令,必须加强对这个禁令执行的监管。

在《特定常规武器公约》平台上建立统一的框架和协议,用于审查、监督致命性无人系统的发展和应用,增加致命性无人武器研发的透明性。致命性无人武器审查的目标应该是确保系统不会因系统故障或意外失控继续作用,并导致意外伤害。同时加强对致命性自主武器系统进行控制,防止致命性无人武器系统的非法获得。同时应严格测试系统应对网络攻击的坚韧性,编程错误和部署错误发生时的应对以及评估,严格遵守第36条附加协议。

为可致命性无人系统增加有意义的人类控制。各国都强调致命性无人系统对国际人道主义法原则的严格遵循,因此必须对可致命性无人系统增加有意义的人类控制,使机器人在选择、识别、攻击目标时绝对由人类控制,而不是由机器自主选择。这一点是《特定常规武器公约》致命性自主武器系统专家会议所有国家和组织的共识。正如联合国日内瓦办事处执行总干事Michael Moller所说:“人类最终的生命权应该掌握在人类自己手上。”

强调指挥链责任。作战系统的自动化并不意味着他们不是由人部署或控制的。即使是自主武器,在作出最初部署决定时,也必须有人监督和控制。无论什么情况下,使用致命武力都应该有一个负责任的人。责任和问责制是国际人道主义法的核心内容。在军事活动方面,问责是承认和对其决定、行动及其后果承担责任,因此必须有一个授权的军事目标。国际人道主义法规定,指挥官有“防止在其统率下的武装部队人员和在其控制下的其他人破坏国际人道主义法”的责任。这些人是责任最初的归属,责任会沿着指挥链往上追溯。加强指挥官责任,追究指挥链责任,并通过国际法律立法加以实现,可以有效解决可致命性无人系统的法律和责任问题。

结 论

军用无人系统作为一种新型武器,对国际政治和国际法律造成了诸多挑战。因此,国际社会特别是军事大国应尽快规范军用无人系统的研发、部署和使用规范。对此,中国也应该积极应对,主动参与相关会议讨论和法律法规制定,探讨适合中国国情和发展的军用无人系统的研发、部署和使用规范,而不应只关注于军用无人系统的技术本身,为我国发展和运用军用无人系统合理规避争议,提高军用无人系统的国际话语权做出努力。

责任编辑:彭振忠

猜你喜欢
致命性军用国际法
军用三防平板
浅议英联邦诸王国的主权沿革
试论21世纪初的中国外交保护
猜谜
个人在国际法中的地位和作用