伟大的比赛即将开始。它不是电视上的那一幕,但它却让世界上最富有的公司陷入激烈的竞争,以确保人工智能的市场份额。
少数几家大型科技公司及其卫星可能在机器学习和数据中心基础设施上花费了高达 1 万亿美元,以从互联网上的公共和私人来源获取数十亿比特的信息来填充其人工智能系统。
这些公司——其中包括亚马逊、谷歌、Meta、微软和 OpenAI——都很富有,并且因为信息技术而让他们的创造者变得无比富有。他们面临的挑战是如何保住现在所拥有的一切,并在下一个伟大机遇(人工智能)中确保自己的未来。
疯狂争夺特许经营权的一个不幸结果是,大型科技公司——我已经向一些高级员工证实了这一点——在新产品准备好之前就匆忙将其推向市场。
赛车手们认为,所谓的幻觉(错误)带来的尴尬比让竞争对手取得领先要好。
挑战在于,如果其中一家公司(经常被提及的谷歌)不在排行榜上,它可能会失败。它可能会发生:还记得 MySpace 吗?
这场快速竞赛的缺点是安全系统没有到位或有效,这种危险可能会导致操作灾难,尤其是所谓的后门。
根据人工智能领域的两位专家德里克·雷维隆(Derek Reveron)和约翰·萨维奇(John Savage)的说法,这种对市场速度的偏好而不是防止危险后果带来了明显而现实的危险。
萨维奇是布朗大学计算机科学系的王安名誉教授,雷维隆是罗德岛州纽波特海军战争学院国家安全事务部主任。
Reveron 和 Savage 一直在对后门敲响警钟,首先是在今年年初由剑桥大学出版社出版的《网络时代的安全:政策与技术简介》一书中,后来又在一篇关于Binding Hook,一个专注于网络安全和人工智能的英国网站。
– 人工智能系统是经过训练的神经网络,而不是计算机程序。神经网络具有许多人工神经元,其神经元输入参数经过调整(训练)以实现实际输出和所需输出之间的紧密匹配。输入(刺激)和所需的输出响应构成了训练集,训练神经网络的过程称为机器学习,”合著者写道。
后门最初是由电话公司开发的,目的是协助政府处理刑事或国家安全案件。那是在人工智能出现之前。
Savage 告诉我,后门构成了严重的威胁,因为不良行为者可以通过后门将恶意信息(命令或指令)插入到一般计算机中,特别是将后门插入到基于机器学习的人工智能系统中。有些后门可能无法检测到,并且能够造成巨大的损害。
萨维奇表示,他特别担心军队过早地使用人工智能,这会让国家变得更加脆弱,而不是更安全。
他说,一个例子是,在人工智能引导下与有人驾驶战斗机一起飞行的无人机战斗机发射的武器可以被引导掉头,然后立即返回并摧毁有人驾驶的飞机。将其推断为战场或空中轰炸。
Savage 表示,研究人员最近表明,在训练过程中可以将无法检测的后门插入人工智能系统,这是一种新的、极其严重且很大程度上未被认识到的网络安全危害。
由于向大型科技公司的机器学习系统输入数十亿个单词现在是在低工资国家完成的,因此这种风险更加严重。最近的“60 分钟”节目强调了这一点,内容涉及肯尼亚工人每小时赚取 2 美元,为美国科技公司的机器学习系统提供数据。
不良行为者可以通过在肯尼亚或任何其他低工资国家插入危险的错误信息来攻击美国人工智能。当然,他们也可以在这里发起后门攻击,即使用人工智能编写代码,然后失去对该代码的控制。
在他们的《Binding Hook》文章中,Reveron 和 Savage 对人工智能提出了一个关键观点。它不仅仅是另一个更先进的计算机系统。它有着根本的不同,并且更难被人类主人所控制。它缺乏解释其异常行为的基础理论,这就是为什么训练机器学习系统的人工智能专家无法解释这种行为。
在找到弥补缺陷的方法之前,部署存在严重缺陷的技术总是存在风险。进来的麻烦就是出去的麻烦。
卢埃林·金是 PBS 的《白宫纪事报》的执行制片人和主持人。他写这篇文章是为了InsideSources.com。.