ECH公司正在投资数千亿美元来建立新的美国数据中心,如果所有这些都可以实现了根本上强大的新AI模型,将会成立。但是所有这些数据中心都容易受到中文间谍的影响。
报告周二出版。作者认为,面临风险的不仅是科技公司的资金,而且在与中国发展高级AI的地缘政治竞赛中,美国国家安全。
据其作者称,未编辑的报告最近几周在特朗普白宫内传播。
时间在其公开发行前查看了一个编辑版。白宫没有回应置评请求。
报告的作者警告说,如今,AI的最高数据中心容易受到不对称的破坏性的攻击,相对便宜的攻击可能会在几个月内将其禁用和去透明攻击,在这种攻击中,可以偷走或监视密切保护的AI模型。
作者告诉时间,即使是当前正在建设的最先进的数据中心,包括OpenAI的Stargate项目也很容易受到相同攻击的影响。
该报告的作者之一Edouard Harris说,您可能最终获得了数十个数据中心站点,这些网站本质上是搁浅的资产,这些资产可以为所需的安全级别进行改造。”这只是一个残酷的肠打。
该报告由Gladstone AI的Edouard兄弟和耶利米·哈里斯(Jeremie Harris)撰写,该公司向美国政府就AI的安全影响咨询。在为期一年的研究期间,他们访问了美国顶级技术公司经营的数据中心,并与一支专门从事网络活动的前美国特种部队团队一起经营。
作者说,在与国家安全官员和数据中心运营商进行交谈时,他们得知了一个实例,其中一家美国高级技术公司的AI数据中心受到攻击,知识产权被盗。他们还了解到了另一个实例,其中类似的数据中心是针对特定不愿透露姓名的组件的攻击,如果成功的组件,该组件将在几个月内将整个设施击倒。
该报告介绍了一些在硅谷和华盛顿的呼吁开始为AI开始曼哈顿项目的呼吁,目的是开发内部人士所说的超级智能:一种强大的AI技术,以至于可以用来获得比中国获得决定性的战略优势。所有顶级AI公司都在试图发展超级智能,近年来,美国和中国都醒来了其潜在的地缘政治意义。
尽管鹰派语调,但该报告并未主张或反对这样一个项目。相反,它说,如果一个人从今天开始,现有的数据中心漏洞就可以从一开始就注定它。报告说,不能保证我们会尽快到达超级智能。”但是,如果我们这样做,并且我们想防止[中国共产党]窃取或残废,我们需要昨天开始为此建立安全的设施。”
中国控制关键数据中心零件
报告指出,现代数据中心的许多关键组成部分主要是在中国建造的。由于蓬勃发展的数据中心行业,其中许多部分都按照多年的订单。
这意味着对正确的关键组件的攻击可能会在几个月或更长时间内将数据中心拆卸。
报告称,其中一些攻击可能是令人难以置信的不对称。一项潜在的攻击是在报告中删除的细节可能只需20,000美元进行,如果成功的话,可以将一个20亿美元的数据中心离线从六个月到一年之间。
报告指出,中国很可能会推迟解决这些攻击脱机数据中心所需的组件的运输,尤其是如果它认为美国正处于开发超智慧的边缘。报告说,我们应该期望中国产生的发电机,变压器和其他关键数据中心组件的交货时间将开始神秘地延长到今天已经超越它们。”``这将表明中国正在悄悄地将组件转移到其自身的设施上,因为毕竟,他们控制着大部分的工业基础。
内部人士警告
该报告说,现有的数据中心和AI实验室本身都没有足够的安全性,可以防止AI模型的权重:基本上是其潜在的神经网络被民族国家级别的攻击者偷走。
作者引用了与一位前Openai研究人员进行的对话,他描述了两个漏洞,这些漏洞将允许这样的攻击发生 - 其中一项在公司的内部懈怠渠道上进行了报道,但几个月来尚未解决。攻击的具体细节不包括在时间查看的报告版本中。
OpenAI发言人在一份声明中说:目前尚不清楚这些主张所指的是什么,但它们似乎已经过时了,没有反映我们安全实践的当前状态。我们有一个由董事会安全和安全委员会监督的严格安全计划。
该报告的作者承认情况正在缓慢越来越好。报告说,根据我们与之交谈的几位研究人员,在过去的一年中,Frontier AI实验室的安全性有所提高,但这完全不足以承受国家国家袭击。”``根据前内部人士的说法,许多边境人工智能实验室的控制不佳,最初是源于对安全速度的文化偏见。
独立专家认为仍然存在许多问题。“已经公开披露事件不久前,网络帮派闯入了NVIDIA的[知识产权]资产,”华盛顿智囊团战略和国际研究中心的Wadhwani AI中心主任格雷格·艾伦(Greg Allen)在一条信息中讲述了时间。“中国情报部门的能力和精致的黑帮都更加有能力。关于中国攻击者和美国人工智能公司的捍卫者,犯罪 /国防的不匹配是不匹配的。”
超级智能AI可能会断裂
报告中确定的第三个关键脆弱性是数据中心和AI开发人员对强大的AI模型本身的敏感性。
近几个月来,领先的AI研究人员的研究表明,最高的AI模型开始展现出驱动力和技术技能,以逃避开发人员对其置于的范围。
在报告中引用的一个示例中,在测试过程中,OpenAI模型的任务是从软件中检索一串文本。但是由于测试中的错误,该软件没有启动。该模型未提醒,扫描了网络,以尝试了解为什么在运行的机器上发现了一个漏洞。它使用了该漏洞(也没有提示)来拆除其测试环境,并恢复最初指示其查找的文本字符串。
报告说,随着AI开发人员在超级智能的道路上构建了更有能力的AI模型,这些模型变得越来越难以纠正和控制。”发生这种情况是因为高度能力和背景感知的AI系统可以发明危险的创造性策略,以实现其开发人员从未预料或打算追求的内部目标。”
该报告建议,任何开发超级智能的努力都必须为AI遏制开发方法,并允许领导者有责任制定此类预防措施,以阻止更强大的AI系统的开发,如果他们认为风险过高。
当然,作者指出,如果我们实际上训练了具有与我们自己的目标不同的真正超智慧,那么从长远来看可能会容易遏制。”