许多公司竞相构建更强大的人工智能,但安全措施却被抛在了后面。一个报告周三发表的文章仔细研究了公司如何包括开放人工智能和谷歌 DeepMind 正在努力应对其技术的潜在危害。它描绘了一幅令人担忧的画面:报告中所有开发商的旗舰机型均被发现存在漏洞,一些公司已采取措施增强安全性,而另一些公司则严重落后。
该报告由生命未来研究所发布,该研究所是一家旨在减少全球灾难性风险的非营利组织。这 组织 2023公开信呼吁暂停大规模人工智能模型训练的呼吁得到了 30,000 名签署者的前所未有的支持,其中包括一些最杰出的技术人士。为了撰写这份报告,未来生命研究所召集了一个由七名独立专家组成的小组,其中包括图灵奖获得者约书亚·本吉奥和斯内哈·雷瓦努尔来自 Encode Justice 的专家对科技公司进行了六个关键领域的评估:风险评估、当前危害、安全框架、存在安全战略、治理和问责制以及透明度和沟通。他们的审查考虑了一系列潜在危害,从碳排放到人工智能系统失控的风险。
“人工智能安全指数项目的调查结果表明,尽管人工智能公司有很多活动都在“安全”的标题下,但它还不是很有效,”斯图尔特·拉塞尔说加州大学伯克利分校计算机科学教授、小组成员之一在一份声明中说道。
阅读更多: 没有人真正知道人工智能系统是如何工作的。一项新发现可能会改变这一现状
尽管兜售其“负责任”的人工智能开发方法,元Facebook 的母公司、流行的 Llama 系列人工智能模型的开发商,被评为最低,总体得分为 F 级。X.AI,埃隆·马斯克 (Elon Musk)人工智能公司的表现也很差,总体评级为 D-。Meta 和 x.AI 均未回应置评请求。
ChatGPT 背后的公司 OpenAI——今年年初是被告其安全团队之一的前领导者将“闪亮产品”置于安全之上的做法获得了 D+,Google DeepMind 也是如此。两家公司均未回应置评请求。 智普AI,唯一签约中国人工智能开发商对人工智能安全的承诺在 5 月份的首尔人工智能峰会上,总体评级为 D。记者未能联系到智浦置评。
Anthropic,背后的公司流行的聊天机器人克劳德它将安全作为其精神的核心部分,排名最高。即便如此,该公司仍获得了 C 级,这凸显出即使是业内最安全的参与者也有改进的空间。Anthropic 没有回应置评请求。
特别是,该报告发现,所有评估的旗舰机型都容易受到“越狱”或超越系统护栏的技术的影响。此外,审查小组认为所有公司目前的策略不足以确保与人类智能相媲美的未来人工智能系统保持安全并处于人类控制之下。
阅读更多: 在 Anthropic 内部,人工智能公司押注安全可以成为制胜策略
“我认为,如果没有人追究你的责任,那么你很容易因为善意而被误导,”该小组成员、HEC Montréal 决策科学系助理教授 Tegan Maharaj 说道。马哈拉吉补充说,她认为需要“独立监督”,而不是仅仅依靠公司进行内部评估。一个
马哈拉吉说,有一些“容易实现的目标”的例子,或者一些开发人员采取相对简单的行动来略微提高其技术安全性。“有些公司甚至没有做好基础工作,”她补充道。她认为,例如,Zhipu AI、x.AI 和 Meta 在风险评估方面均评价不佳,因此可以采用现有的指导方针。
然而,其他风险对于目前人工智能模型的生成方式来说更为根本,克服这些风险需要技术突破。– 当前的活动均未提供任何类型的安全定量保证;鉴于目前的人工智能方法是通过接受难以想象的海量数据训练的巨型黑匣子,似乎也不可能提供这样的保证。”拉塞尔说。“随着这些人工智能系统变得越来越大,事情只会变得更加困难。”研究人员正在学习深入机器学习模型黑匣子的技术。
蒙特利尔学习算法研究所创始人兼科学主任本吉奥在一份声明中强调了人工智能安全指数等举措的重要性。“它们是让企业对其安全承诺负责的重要一步,可以帮助突出新兴的最佳实践并鼓励竞争对手采取更负责任的方法,”他说。