作者:Netta Goussac, Rain Liivoja
编辑注:这篇文章是系列的一部分,该系列在今年的第17页上进行了演讲国际网络冲突会议(CYCON)在爱沙尼亚塔林。作为即将出版的书中一章的一部分,将进一步探讨其主题武装冲突中的国际法和人工智能:AI-Cyber相互作用。可以提供KuboMaäâk的入门帖子这里。
国家之间就如何进行战争进行技术发展的对话总是涉及国际法下这些技术的合法性或其他方式的讨论。在1977年《日内瓦公约》(AP I)的额外协议I的起草期间,一些州提出了创建一种特殊的国际机制来评估新武器的合法性。该提案没有得到广泛的支持。取而代之的是,AP第36条我现在义务高缔约方对新武器,手段和战争方法进行国家法律审查。
为了进行AP I谈判,政府专家的会议关心未来的发展,例如地球物理,生态,电子和放射战,以及产生辐射,微波炉,插射波,光线和激光光束的设备。他们还注意到技术变化的前景,即在战场上具有越来越重要的战场,从而扮演了越来越重要的战场。过去的几年证明了专家的先验。这也证明了技术变革伴随法律关注的模式的延续。
为军事目的采用AI的州可能必须对通常的法律审查方法做出一些变化,以说明该技术的特定特征。在这篇文章中,我们讨论了AI的特征,这些特征可能需要对法律审查进行量身定制的方法,并非不足地分享某些州可以提高AI-Spirable Sable Sippart Sorival能力的法律审查的有效性。该帖子预计即将到来武器法律审查的良好做法,与Damian Copeland博士,Natalia Jevglevskaja,Lauren Sanders博士和Renato Wolf博士一起开发,并反映了Netta Goussac在Cycon 2025上交付的演讲,这是作为A的一部分。控制板标题为“国际法关于武装冲突中AI的观点:新兴问题”。
法律审查是军事AI治理的核心
有效的法律审查很重要,因为它们可以防止开发和采用AI能力的有效保障,而AI能力无法遵守规范战争的国际法。在国家一级实施国际人道主义法(IHL)的关键机制,法律审查是AP I方的法律义务(艺术。36),但也可以成为国家一般努力的一部分,以确保有效执行其IHL义务,主要是与战争的手段和方法有关的条约和习惯规则。此外,即使无法揭示其结果,也对法律审查的方式进行开放是一种重要的透明度和建立信心的措施。
法律审查对各州如何看待军事AI的中心地位反映在最近对他们的经常参考中国家陈述,以及集体陈述,例如蓝图采取行动在2024年在军事领域(第11段)的2024峰会上通过政治宣言负责军事使用AI和自治(b)。
需要量身定制的方法
这个术语经常习惯表示执行否则需要人类智能的任务的计算技术。是一个尚不理解但无处不在的伞。而且,AI效应或者奇数悖论意味着,一旦有效执行功能,就首先(在志向上)所考虑的AI即可成为软件。因此,军队对AI能力的发展,获取和就业可能被视为一个旧问题。几十年来,军队一直在为各种任务使用软件,而对合法性无关紧要。但是,AI作为一种技术,使用的应用程序的某些特征,以及这些应用程序被军队收购和使用的方式。这对各州如何审查他们开发或获得的AI支持功能是否可以由军队合法使用。在这篇文章中,我们将重点介绍其中四个特征,尽管还有更多。
第一个特征与军队或可能使用的AI的广泛应用有关。这意味着各国需要就哪些军事AI申请进行法律审查以及评估此类能力的规则进行决定。AI为军队带来重要机会的领域包括情报,监视和侦察(ISR),维护和物流,指挥和控制(包括针对性),信息和电子战以及自治系统。尽管其中一些应用与武器类别,战争的手段和方法保持一致,以受到法律审查的状态(例如,依靠AI依靠AI来识别,选择或施加武力的自主武器系统),而其他人则不(例如,为AI-a-a-Sable船或车辆设计用于ISR,但不是为ISR设计而设计的)。
相关地,广泛的应用意味着军队使用AI的使用与更广泛的国际法规则有关。传统上,与战争的手段和方法有关的IHL规则(一般和特定的禁令)以及军备控制和解除武装法的规则一直处于法律审查的中心。当涉及军事AI应用时,IHL的其他规范可能会变得有意义(尤其是有关敌对行动的规则和原则,即区分,相称性和预防措施)以及国际法的其他分支,例如国际人权法,国际环境法,国际环境法,海洋法,太空法和对武力使用的法律。
第二个特征与军事AI应用的可靠性有关。进行法律审查的能力需要充分了解相关能力,包括在正常或预期使用情况下预见其效果的能力。但是AI功能的技术性能可能是不可靠的,并且难以评估。缺乏透明度 如何AI尤其是机器学习系统功能使传统和重要的测试和评估任务变得复杂。在没有解释系统如何从给定输入中达到其输出的解释,它可能会使评估系统可靠性并预见其使用后果的任务很难(如果不是不可能)。这使那些在雇用能力之前进行法律审查的人以及实时支持军事行动的法律顾问的任务变得复杂。
第三,基于AI的系统的开发和获取要求迭代方法。这是开发AI功能以及技术本身的行业的一个特征,该行业需要随着时间的推移而变化,以维持或提高安全性和运营效率。因此,获得和就业的某些启用AI-ai-ai-ai-ai-dipertions的军事能力更类似于军队如何采购服务,而不是他们如何采购商品,这可能会使收购/采购过程中的法律审查的线性审查过程变得复杂。
我们将在这里提到军事AI的最终特征是行业参与者所扮演的角色,即国家政府或军事的实体。合法审查新武器,手段和战争方法的义务与各州仍然存在,但是行业参与者在此过程中起着至关重要的作用,尤其是在测试,评估,验证和验证AI能力方面。正如我们在报告我们在2024年共同撰写了设计和开发特定的武器或武器系统,行业可能拥有大量可用的绩效数据,可以在法律审查中使用。我们的研究表明,各州和行业之间的信息共享存在一些障碍,包括合同和专有问题,这些障碍将需要思考。一个
通过量身定制的方法提高有效性
为了履行法律审查的潜力,以保护无法遵守国际法的AI-Sable Sable Sipparion Sipparia,并促进在制定和使用军事AI功能时遵守其国际义务,各州将需要将其方法适应AI特征。这种适应与所有正在开发或使用AI支持军事能力的州有关,无论他们是否已经进行了法律审查并希望加强其过程,或者正在考虑是否以及如何对军事AI能力进行法律审查。
在即将出版的出版物中,我们汇编了可以增强法律审查功效的良好实践清单。在这里,我们预览了一些与正在开发或获得军事AI能力的州相关的良好实践的观察结果。
法律评论是决策过程的一部分
虽然州可用的州惯例是相对有限,我们的研究借鉴了向政府致命武器系统的政府专家提交的提交,以及与政府,工业,公民社会和学术专家进行的磋商,这表明,进行法律审查的州认为,他们将其视为其更广泛的设计,开发和获得军事能力的过程的一部分。通常,法律审查的产出(实际上是法律建议)得到了其他来源的建议,包括技术,运营,战略,政策或道德建议。
如果法律审查得出结论认为,正常或预期使用AI-ai-ai-ai-ai-aim启用军事能力是违法的,则此类建议应推翻任何武装能力的建议。但是,如果法律审查得出结论认为,在某些情况或条件下,正常或预期使用AI能力是合法的,或者在某些情况或条件下合法的,则决策者在决定是否授权是否授权开发或收购阶段时考虑了其他投入。
尽管该观察结果对支持AI的军事能力并不新颖,但在开发和使用此类能力方面,将法律审查整合到更广泛的决策过程中尤为重要,并触发了某些州的新政策框架的创建。
决定以及如何进行法律审查的决定不必是合法的
国家可以对军事人工智能能力进行法律审查,因为国际法根据国际法进行审查的具体义务(例如AP I,第36条),国家对实施IHL的一般义务的解释,或国家的国家法律或政策。由于我们在这里没有空间的原因,第36条的语言仍然是国家进行法律审查的有用指南,无论国家的行为基础如何。满足第36条要求的努力可能会导致各州和专家解释文本,以确定特定的军事人工智能能力是新的,或者是战争的武器,武器,手段或方法,以及是否应限于在国际法下是否有能力的问题,是否应限于在国际法中与该法律相比,是否限制了能力的问题。
我们认为,对于是否需要法律审查以及如何进行法律审查可能会限制这种重要工具的效用。正如达米安·科普兰(Damian Copeland)写的那样战争条款在2024年,各州可以采取功能方法进行法律评论。这将意味着分析特定AI支持的功能的功能,以确定这些功能是否以任何方式受到国际法的监管,并评估确保遵守这些规则的能力。
法律评论作为加速流程的一部分
国家可能正在改编(或考虑是否适应)采购途径,以应对加速采购,部署和缩放军事AI能力的压力。国家的一个主要挑战,以及我们认为这可能是管理AI支持的军事能力的计划中的一项努力,是如何管理在难以评估可靠性的非线性和迭代发展和获取过程中将法律审查整合到非线性和迭代性开发和获取过程中所需的时间和资源。至关重要的是,仔细和系统地将法律审查作为这些途径的一部分进行,以确保此类审查可以补充和融入更广泛的政策过程,并继续有效地保障,以防止开发和采用AI-a-Sable能力,这些功能无能力用于遵守国际法。
意识到法律审查作为保障和机制的潜力
军事采用了支持AI的能力,例如采用早期战争技术,促使人们讨论了国际法下这种能力的合法性,以及如何评估是否能够符合国家义务的能力。法律审查是防止在武装冲突中使用非法能力的有效工具,并促进遵守IHL和其他相关国际法规则。
在国家一级进行法律审查并没有与在国际一级采取治理或监管措施相同的作用,也没有相同的作用。但是,法律审查可以(并且将不可避免地)支持国际层面通过的任何法律地位的政策措施的实施。尤其如此,尽管各州在其军事AI能力方面没有达成共识的验证制度。
为了充分利用该工具,各州将需要定制他们如何在国家一级进行法律审查,以表彰在进行法律审查和与AI特征相关的新挑战时的持续挑战。在国际层面上,关于如何执行对AI支持AI的法律审查(如果不是特定评论的结果)的开放性,应在管理和使用AI-Spapition Sappend Sipparial功能的倡议中考虑。
***
Netta Goussac是人工智能计划SIPRI治理计划的高级研究员。
雨liivoja是昆士兰州大学的法学教授,也是西点的Lieber法律与土地战研究所的高级研究员。
表达的观点是作者的观点,不一定反映美国军事学院,陆军部或国防部的官方立场。”
战争条款是一个专业人士分享意见和培养思想的论坛。 战争条款 不筛选适合特定社论议程的文章,也不认可发表的材料。作者身份并不表示与 战争条款,Lieber Institute或美国军事学院西点。
图片来源:通过Unsplash Getty图像