不安全,未经测试

2024-09-29 03:11:04 英文原文

人工智能(AI)作为一种使能技术,现在拥有改变军事事务各个方面的非凡潜力,这一点在乌克兰正在进行的战争以及以色列在加沙和黎巴嫩的反击中得到了充分证明。

它现在主导着军事行动,生产自主武器、指挥和控制、情报、监视和侦察 (ISR) 活动、训练、信息管理和后勤支持。

随着人工智能的发展战争中,世界主要军事强国之间正在展开激烈的竞争,以带来更多的人工智能创新。如果美国战略精英在这方面的经常性担忧有任何迹象的话,中国似乎在这方面处于领先地位。

直到最近,据说美国仍处于人工智能创新的最前沿,受益于领先的研究型大学、强大的技术部门以及支持性的监管环境。然而,现在据说中国在这一切方面已经超越了美国。凭借其强大的学术机构和创新研究,人们担心中国已成为美国的强大竞争对手。

从军事上来说,中国在自主性和人工智能武器系统方面的进步可能会影响军事平衡,同时也有可能影响美国的军事平衡。加剧对全球安全和战略稳定的威胁。

美国及其盟国似乎担心中国军队可能会仓促部署在实际作战条件下不安全、未经测试或不可靠的武器系统,以争取取得技术优势。

他们更担心的是,中国可能会在不顾战争法的情况下向美国的潜在对手出售人工智能武器。

安德鲁·希尔和美国陆军学院的两位教授 Stephen Gerras 刚刚写了一篇由三部分组成的文章,认为美国的潜在对手可能会非常积极地突破授权军事人工智能的界限,原因有以下三个:人口结构转变、对军事人工智能的控制。他们指出,俄罗斯和中国等政权正在应对巨大的人口压力,包括劳动年龄人口减少和出生率下降,这将威胁到他们的军事力量随着时间的推移的结构。人工智能驱动的系统通过抵消可用于招聘的人力资源的减少,为这个问题提供了一个令人信服的解决方案。面对日益自动化的战争,这些政权可以通过人工智能系统增强其军事能力。

此外,对于希尔和格拉斯来说,极权主义政权面临着更深层次的内部挑战,鼓励人工智能的发展所带来的内在威胁由他们自己的军队。自主系统具有双重优势,即减少对人类士兵的依赖,人类士兵有一天可能会挑战政权的权威,同时加强对军事行动的中央控制。在独裁环境中,最大限度地减少军方领导的异议或政变的风险是一项战略重点。

从地缘政治角度来看,希尔和格拉斯指出,俄罗斯和中国将感到有必要开发强大的军事人工智能,因为他们担心如果美国在这一领域获得技术领先,就会处于战略劣势。这就是为什么他们将始终通过积极追求这些能力来努力保持竞争优势。

美国陆军学院的两位教授大声疾呼,我们低估了人工智能,我们需要自担风险,并希望获得无限制和无条件的支持

然而,还有其他分析师和政策制定者,也许是大多数,他们同时意识到人工智能带来的军事能力增强可能是一把双刃剑,因为同样的人工智能可能会导致难以想象的后果。他们似乎赞成制定规则,以确保人工智能遵守国际法,并建立机制,防止自主武器在没有适当人类监督的情况下做出生死攸关的决定。他们的论点是,人工智能应用的法律和道德考虑是当前的需要。而且它们似乎得到了越来越多的全球支持。

事实上,美国政府正在发起全球努力,建立强有力的规范,以促进人工智能和自主系统负责任的军事使用。

去年11月,美国国务院提出了10项具体措施,以指导负责任地开发和使用人工智能和自主军事应用。

10项措施

1.各国应确保其军事组织采用并实施这些原则,以负责任地开发、部署和使用人工智能能力。

2.各国应采取适当措施,例如法律审查,以确保其军事人工智能能力的使用符合国际法、特别是国际人道主义法规定的各自义务。各国还应考虑如何利用军事人工智能能力来加强国际人道法的实施,并改善武装冲突中对平民和民用物体的保护。

3。各国应确保高级官员有效、适当地监督具有高后果应用的军事人工智能能力的开发和部署,包括但不限于此类武器系统。

4。各国应采取积极主动的措施,尽量减少军事人工智能能力中的意外偏见。

5.各国应确保相关人员在开发、部署和使用军事人工智能能力(包括包含此类能力的武器系统)时保持适当的谨慎。

6。各国应确保军事人工智能能力的开发采用对其相关国防人员透明且可审计的方法、数据源、设计程序和文件。

7.各国应确保使用或批准使用军事人工智能功能的人员接受培训,使他们充分了解这些系统的功能和局限性,以便对这些系统的使用做出适当的基于上下文的判断,并降低自动化风险偏见。

8。各国应确保军事人工智能能力具有明确、明确的用途,并确保它们的设计和工程能够实现这些预期功能。

9.各国应确保军事人工智能能力的安全性和有效性在其明确的用途和整个生命周期内受到适当和严格的测试和保证。对于自学习或持续更新军事人工智能能力,各国应确保关键安全功能不会因监控等过程而降低。

10.各国应实施适当的保障措施,以减轻军事人工智能能力失败的风险,例如检测和避免意外后果的能力以及做出响应的能力,例如,当此类系统表现出意外行为时,通过脱离或停用已部署的系统。值得注意的是,与此同时,韩国于本月初(9 月 9 日至 10 日)在首尔召开了为期两天的国际峰会,寻求为负责任地使用人工智能(AI)制定蓝图。)在军队中。

顺便说一句,这是第二次此类峰会,第一次是去年在海牙举行的。与去年一样,中国参加了首尔峰会。

首尔峰会由荷兰、新加坡、肯尼亚和英国共同主办,主题为军事领域负责任的人工智能(REAIM)。据介绍,此次会议吸引了来自96个国家的1952名与会者,其中包括38名部长级官员。

会议通过的蓝图共20条,分为三个关键部分:人工智能对国际和平与安全的影响、负责任的人工智能在军事领域的实施,以及人工智能在军事应用中的未来治理设想。

它警告说,人工智能在军事领域的应用可能与人道主义方面的一系列挑战和风险有关。需要确定、评估和解决的法律、安全、技术、社会或道德观点。

该蓝图特别强调需要防止人工智能技术被用来促进大规模武器的扩散该文件还强调,人工智能技术支持但不阻碍裁军、军控和防扩散努力;尤其重要的是,在不妨碍实现无核武器世界的最终目标的情况下,保持人类对所有行动的控制和参与对于通报和执行有关核武器使用的主权决定至关重要。

该蓝图强调在军事领域以负责任的方式在其整个生命周期中应用人工智能的重要性,并遵守适用的国际法,特别是国际人道主义法。

顺便说一句,包括美国在内的 61 个国家,日本、法国、英国、瑞士、瑞典和乌克兰都认可了这一蓝图,中国尽管派出了政府代表团与会并参加了部长级对话,但选择不支持。

<值得注意的是,该蓝图不具有法律约束力,这意味着支持它的人可能不会实际实施它。不过,这似乎并没有影响中方不认可首尔蓝图的决定。

在随后的记者会上,中国外交部发言人毛宁表示,中方主张秉持共同、综合、合作的理念。和可持续安全,通过对话合作就如何规范人工智能在军事领域的应用达成共识,构建开放、公正、有效的安全治理机制。

她强调,各国特别是大国在利用相关技术时应采取审慎、负责任的态度,同时切实尊重其他国家的安全关切,避免误解误判,防止军备竞赛。

她认为,中国的原则是:人工智能治理:采取审慎负责态度,坚持人工智能向善发展,坚持以人民为中心,实行敏捷治理,坚持多边主义,得到各方充分认可。

由此看来,中国似乎得出的结论是,首尔蓝图(得到61个国家的认可)或美国国务院的10项措施(顺便说一句,得到了47个国家的认可)不一定是审慎、负责任的态度还不足以尊重其他国家的安全关切,避免误解和误判,防止军备竞赛。

在某种程度上,这证明了希尔教授和格拉斯教授所写的内容是正确的。

关于《不安全,未经测试》的评论


暂无评论

发表评论

摘要

人工智能(AI)作为一种使能技术,现在拥有改变军事事务各个方面的非凡潜力,这一点在乌克兰正在进行的战争以及以色列在加沙和黎巴嫩的反击中得到了充分的体现。美国陆军学院的两位教授大声疾呼,我们低估了人工智能,我们会自担风险,并希望对人工智能给予无限制和无条件的支持。然而,还有其他分析师和政策制定者,也许是大多数,他们同时意识到军事能力的增强由于人工智能可能是一把双刃剑,因为同样的人工智能如果被滥用,可能会造成难以想象的损害。各国应确保使用或批准使用军事人工智能功能的人员接受培训,使他们充分了解这些系统的功能和局限性,以便对这些系统的使用做出适当的基于上下文的判断,并降低自动化风险偏见.8。顺便说一句,这是第二次此类峰会,第一次是去年在海牙举行的。她强调,各国特别是大国在利用相关技术时应采取审慎、负责任的态度,同时切实尊重别国安全关切,避免误解误判,防止军备竞赛。