人工智能带来的许多问题都源于对其工作原理及其所提供的数据的保密,因此让国家安全界在人工智能方面发挥带头作用只会让事情变得更糟。
乔·拜登总统的白宫最近发布了一份关于“提升美国在人工智能领域的领导地位——其中包括一项指令,要求国家安全机构成为人工智能应用的世界领导者。
在白宫的指导下,国家安全国家预计将通过从学术界和私营部门挖走优秀人才来占据这一领导地位,最令人不安的是,利用已经发挥作用的私人人工智能模型来实现国家安全目标。
由科技公司运营的私人人工智能系统已经非常不透明,这对我们不利。人们感到不舒服,这是理所当然的 使用人工智能来决定生活中各种事情的公司,从他们犯罪的可能性,到他们的工作资格,再到涉及移民、保险和住房的问题。
营利性公司正在向各种公司和雇主出租其自动决策服务,而我们大多数受影响的人永远不会知道计算机对我们做出了选择,更不用说了解如何做出选择或能够上诉那个决定。
但情况可能会变得更糟:将私人人工智能与国家安全保密相结合可能会使本已保密的系统变得更加不负责任和不透明。
组成国家安全机构的组织和机构群是出了名的保密。电子前沿基金会和其他公民自由组织 不得不在法庭上打架一次又一次地试图揭露全球拉网监控的最基本框架及其管理规则。
让这个设备主宰人工智能将会创造出一个具有秘密性、不负责任性和决策权的弗兰肯斯坦怪物。尽管行政部门敦促各机构利用私人人工智能专业知识,但越来越多有关这些人工智能模型如何工作的信息将被隐藏在几乎无法穿透的政府保密面纱中。
就像古老的计算机科学公理“垃圾输入,垃圾输出”一样,如果没有透明度,包含我们社会系统性偏见的数据将训练人工智能传播和放大这些偏见。由于秘密训练数据和公众无法分析的黑盒算法,偏见变得“被技术冲刷”,压迫性决策隐藏在所谓的代码客观性背后。
人工智能通过收集和处理大量数据来运作,因此了解它保留哪些信息以及它如何得出结论都将成为国家安全国家如何思考问题的核心。这意味着国家不仅可能会提出人工智能的训练数据可能需要保密的论点,而且还可能认为公司也需要在法律处罚下对管理算法保密。
正如备忘录所说,人工智能已经成为一种定义时代的技术,并已证明与国家安全具有重要且日益增长的相关性。美国必须引领世界负责任地将人工智能应用于适当的国家安全职能。
国家安全机构的默认做法是让公众蒙在鼓里。人工智能的默认方法应该是训练数据和算法决策中清晰的透明度和问责制。这些本质上是相互矛盾的目标,将人工智能对我们社会迅速扩大的影响转移到国家安全的阴影领域可能会在未来几十年带来灾难。
马修·瓜里格利亚 (Matthew Guariglia) 是总部位于旧金山的数字民权组织电子前沿基金会的高级政策分析师。一个