作者:Megan Crouse
生成式人工智能在ChatGPT发布后一夜之间成为了科技界的最热门术语。两年之后,微软正在使用OpenAI的基础模型,并且客户也在询问人工智能如何改变安全格局。
微软高级云解决方案安全架构师Siva Sundaramoorthy经常回答这些问题。这位安全专家于10月14日在拉斯维加斯的ISC2会议上,向一群网络安全专业人士概述了生成式人工智能——包括其优势和安全风险。
在他的演讲中,Sundaramoorthy讨论了人们的担忧之情关于生成式AI的准确性他强调,这项技术作为一个预测工具,选择它认为最有可能的答案——尽管根据上下文其他答案也可能正确。
网络安全专业人士应从三个角度考虑人工智能的应用场景:使用、应用和平台。
“你需要理解你想要保护的是哪种使用场景,”Sundaramoorthy说。
他补充说:“许多开发者和公司里的人都会在这个中心的应用类别中,人们正在这个应用里创建应用程序。每个公司在其环境中都有一个机器人或预训练的AI。”
参见:AMD公布了其竞争对手的产品上周发布了针对英伟达强大AI芯片的竞争产品,硬件大战仍在继续。
一旦确定了使用场景、应用和平台,可以像保护其他系统一样保护AI——尽管并非完全相同。与传统系统相比,生成式AI更有可能出现某些风险。Sundaramoorthy列举了七个采用风险,包括:
AI提供了独特的威胁地图,对应于上述三个角度:
攻击者可以使用诸如提示转换器之类的策略——利用混淆、语义陷阱或明确的恶意指令来绕过内容过滤器,或者使用越狱技术。他们有可能利用AI系统并污染训练数据,执行提示注入,利用不安全的插件设计,发起拒绝服务攻击,或将使AI模型泄露数据。
“如果AI连接到另一个系统,连接到可以在其他系统中执行某些代码的API会怎样?”桑达拉莫塞瓦问道。“你可以欺骗AI为你创建一个后门吗?”
桑达拉莫orthy使用微软的Copilot经常使用它,并发现这对他的工作很有价值。然而,他说:“对于黑客来说,攻击它的价值太高了,不会放过。”
安全团队应关注的人工智能相关的其他痛点包括:
此外,桑达拉莫orthy解释说,生成式人工智能可能会以恶意和非恶意的方式失败。恶意的失败可能涉及攻击者通过假装是安全研究人员来绕过AI的安全措施,从而提取敏感信息,如密码。非恶意的失败可能是由于训练数据过滤不当,导致有偏见的内容无意中进入了AI的输出。
尽管围绕人工智能存在不确定性,但仍有一些经过验证的方法可以以相对全面的方式确保人工智能解决方案的安全。标准组织如NIST和OWASP提供了用于处理生成式人工智能的风险管理框架。MITRE发布了ATLAS矩阵,这是一个已知的攻击者针对AI使用的策略和技术库。
此外,微软提供了治理和评估工具,安全团队可以使用这些工具来评估AI解决方案。谷歌提供其自己的版本,即安全人工智能框架。
组织应通过充分的数据清理和净化来确保用户数据不会进入训练模型的数据。他们应该应用最小特权原则在微调模型时。连接模型到外部数据源时应使用严格的访问控制方法。
最终,桑达拉莫orthy表示,“网络安全的最佳实践也是人工智能的最佳实践。”
完全不使用AI呢?在ISC2安全大会开幕式主旨演讲中发言的作者兼AI研究者詹奈尔·肖恩指出,由于AI带来的风险,安全团队的一个选项是根本不使用AI。
桑达拉莫orthy采取了不同的方法。他表示,如果AI能够访问组织中应该与外部应用程序隔离的文档,“那不是AI的问题。那是访问控制的问题。”
免责声明:ISC2为我支付了前往拉斯维加斯参加于10月13日至16日举行的ISC2安全大会的往返机票、住宿费以及部分餐费。