作者:Mirko Zorz
显示如何攻击AI系统以及如何准备。从本质上讲,这是针对AI安全的进攻和防御方法的演练。
John Sotiropoulos是Kainos的AI安全负责人。John是LLM应用程序和OWASP AI交流的OWASP前十名的共同领导者,领导与其他标准组织和国家网络安全机构保持一致。他还是美国AI安全研究所财团的OWASP负责人。
这本书以机器学习的底漆开头。尽管许多高管不会自己构建模型,但早期的章节为了解这些系统的构建方式以及它们的弱点所在的位置奠定了基础。在作者转移到安全维度之前,以普通的语言来解释诸如监督学习,模型培训和神经网络之类的概念。对于需要评估供应商主张或了解其团队部署的限制的CISO,这种基础是有价值的。
接下来的部分进行动手转弯,浏览如何建立环境,建立简单的模型,然后用对抗技术对准它们。示例包括中毒数据,插入后门以及对型号代码进行篡改。这些方案是技术性的,但是它们的包容性显示了如何轻易地将漏洞引入机器学习管道中。
这本书对安全领导者最有用的地方是其防御范围。作者概述了每类攻击的缓解策略,从异常检测和对抗性培训到供应链保障和模型出处。后来的章节进入了企业主题,例如MLSecops,对AI系统的威胁建模以及设计方法的安全。这些章节证明了AI安全稍后再也不能用螺栓固定。取而代之的是,它需要嵌入开发和操作中,并通过反映其他成熟安全实践的治理和测试。
该书还涵盖了如何将生成对抗网络武器化的深击和错误的信息,以及大型语言模型容易受到促使注射和中毒的影响。这些讨论是及时的。许多组织正在尝试生成的AI,Cisos在向董事会和业务部门解释风险时会发现这些示例有用。
全面的,对抗性人工智能攻击,缓解和防御策略是那些负责保护AI系统的人的认真参考。它提供了实用的演示和战略框架,为安全领导者提供了他们提出问题并指导其组织采用更安全的AI采用的环境。