作者:Sydney J. Freedberg Jr.
华盛顿 — 里程碑国家安全备忘录乔·拜登总统最近签署的协议要求对人工智能的许多军事和情报应用进行人工监督、安全测试和其他保障。该备忘录还对五角大楼和情报机构如何获取人工智能进行了全面审查,并提出了明年的监管改革和其他改革建议。
然而,备忘录本身和随附的风险管理框架都没有[PDF] 对人工智能控制的无人机、弹药和其他“自主武器”施加新的重大限制,这是许多人的主要担忧军控活动人士世界各地。相反,RMF 在这个问题上很大程度上遵循五角大楼现有的政策,国防部指令 3000.09 [PDF],去年进行了广泛修订限制但不禁止自主武器(其中一些已经以计算机控制的形式存在防空和导弹防御)。相比之下,新的政策文件重点关注用于分析信息和做出决策的人工智能——包括关于使用致命武力的决策。
尽管如此,该备忘录确实提到了“一份机密附件”,该附件“解决了其他敏感的国家安全问题,包括打击对手使用人工智能对美国国家安全构成风险。”已发布的文件没有具体说明附件涵盖了哪些类型的“对手使用”,以及它可能解决哪些其他“敏感”问题。
有关的:清晰的护栏意味着人工智能的更快进展:拜登签署了国防部和情报界的全面指导
当然,另一个主要问号是选举:备忘录和 RMF 中的许多任务甚至要到明年才会生效。虽然卡马拉·哈里斯政府可能会继续拜登的政策,但共和党平台已经承诺“废除乔·拜登”的危险政策行政命令[去年发布]阻碍了人工智能创新。唐纳德·特朗普总统的前顾问呼吁加速军事人工智能发展的“曼哈顿计划”方法。特朗普政府很可能会取消拜登计划中的所有限制和护栏。
现任和前任拜登政府官员都强调,新政策的目标是通过设置明确的护栏来加速人工智能的采用,而不是阻碍他们所谓的“负责任”就业。因此,备忘录和 RMF 很少施加彻底的禁令,而更常见的是允许人工智能开发和部署继续进行——当且仅当遵循广泛的最佳实践清单时。
RFM 中为数不多的全面禁令之一是禁止使用人工智能来消除对通知和执行总统启动或终止核武器使用决定至关重要的行动的“循环中”人类。重申了美国的长期政策,即不允许计算机在没有人类监督的情况下发射核武器。
该框架限制在计划潜在的军事打击时使用人工智能来预测可能的平民伤亡和附带损害。人工智能的任何此类使用都需要技术保障,例如对人工智能进行持续“严格测试”,以及由经过培训的人员进行人工监督。该框架禁止计算机生成的情报报告和分析。完全基于人工智能——除非它们向读者明确标有“足够的警告”。
然后,该框架进入更长的“高影响力人工智能用例”列表,所有这些都是允许的如果,并且只有各机构实施一套详细的护栏。
其中许多预防措施都是为了保护人权。这包括对人工智能的限制——跟踪或识别[或]将个人分类为已知或可疑的恐怖分子、内部威胁或其他国家安全威胁。该框架还要求人类对任何人工智能评估资格进行监督,范围包括从政治庇护到联邦就业。还有其他条款旨在确保人类继续控制人工智能,并对软件所做的任何事情负责,从处理核材料和其他危险材料,到在线部署恶意软件。
在首次部署新的人工智能之前(并对已经使用的人工智能进行追溯),各机构必须进行彻底的“风险和影响评估”,包括前期底线成本- 与更传统的工具相比,人工智能是否是当前问题的正确解决方案的效益分析。强制的护栏包括在现实环境中进行广泛的测试,最好包括在广泛部署之前的“试点和有限发布”;分析“可能的故障模式”和缓解措施;评估用于训练、测试和更新人工智能的基础数据是否准确、充足且可访问;以及持续不断的监控,以确保人工智能继续按预期运行。
强制性最佳实践还针对人工智能的人类用户。他们不仅必须接受培训来操作它,而且还要注意错误,而不是盲目地信任机器(所谓的“自动化偏差‐),在出现问题时提供报告渠道和举报人保护。
毫不奇怪,该政策确实可以放弃部分或全部这些保障措施。但此类豁免必须以书面形式直接来自机构指定的首席人工智能官,并且至少每年进行一次审查和更新
总体而言,《国家安全备忘录》和《风险管理框架》并不是要禁止人工智能的敏感用途,而是要对其进行监管——同时又不妨碍与中国的科技竞赛的快速进展。
“当技术和测试环境意味着您可以验证安全执行此操作的能力时,NSM 在明确不允许的内容和使国家安全界能够快速采用之间取得了很好的平衡,”说迈克尔·霍洛维茨,宾夕法尼亚大学教授直到最近,他还致力于人工智能研究副助理国防部长对于新兴能力。而且,他告诉《突破防御》,五角大楼花了数年时间研究如何测试和保护此类系统。
“国防部和其他机构在开发和使用人工智能以及安全地设计政策方面拥有数十年的经验,”霍洛维茨说。– NSM 不仅以这些经验教训为基础,而且在确保国家安全界能够以负责任的速度采用人工智能方面开辟了新天地。 –