作者:Mirko Zorz
在此帮助网络安全访谈中,安全建筑与工程总监克里斯·麦格拉纳汉(Chris McGranahan)backblaze,讨论AI如何塑造进攻性和防御性网络安全策略。他谈到了AI如何改变威胁格局,它给渗透测试带来的并发症以及公司可以采取哪些措施来保持AI驱动的攻击。
麦格拉纳汉(McGranahan)还指出,人类的专业知识仍然是必不可少的,我们可以仅靠AI来保护云环境。
目前,我们正在看到AI用于新的五旬节/redteam工具和服务。在Backblaze,我们正在评估提供一个提供的供应商代理AI服务以补充我们参与的标准手册。
使用AI pentesting工具的一个问题是AI倾向于是黑匣子。因此,很难复制AI使用的成功攻击方法,并且鉴于AI的性质,它可能会再次以相同的方式进行操作,并且可能会在重试时失败。这就是为什么我们与合作伙伴谈论开发所采取的行动的笔录,以确保我们完全了解所做的事情以及如何最好地减轻。
AI驱动的行为分析(在这种情况下为ML和神经网络系统)使得在升级之前更容易检测异常和抢占攻击,并使用安全平台实时分析网络行为,并标记异常访问模式或横向移动。
AI为威胁参与者提供了一个低级别的入境者,使他们知识渊博,但能够使用云平台以更高的速度和弹性来部署和实施攻击。例如,网络犯罪论坛为AI工具的专用部分,例如欺诈和Chaosgpt,恶意演员能够以相对实惠的价格购买大型语言模型攻击更容易访问。
一个常见的缺陷是模型漂移,它发生在AI模型随着他们遇到的实际数据从训练的数据中转移,随着时间的流逝,随着时间的流逝而降低。这不仅可以导致部署的准确性降低,而且还会导致威胁检测技术的准确性,并且需要持续的监视和重新训练。
归根结底生成的AI不是智能的,而是数学确定对查询的最可能响应。在一个月前的一次培训中,我正在使用AI解决方案,该解决方案错过了一个恶意文件被添加到目录中。对于踢,我问文件是如何到达那里的,该工具提出了一个虚构的故事。在有关AI和自动化的所有讨论中,有一个普遍的共识,即循环中需要一个人。
我们对更标准的自动化或更早的ML工具也有同样的关注。一个月前在研讨会上提出的一个问题是,鉴于Genai的性质,循环中的人可能无法解析AI是如何得出结论的。经验和批判性思维将是至关重要的。
由于现在在AI的帮助下启动潜在威胁,因此威胁模型将需要认识到潜在威胁何时起源于AI,而不是从过去更容易检测到的更有机的方式。
最常见的恶意使用AI(至少来自一些来源,最常见的AI使用时,时期)是在社会工程攻击中。人工智能可用于生成令人信服的,个人的网络钓鱼尝试。对于矛盾的攻击,可以训练它以模仿特定目标信任的人的写作风格。对于捕捞攻击,可以使用AI模仿目标可能与之交谈的人的声音。当申人正在攻击AIS或使用AIS互相攻击时,这将很有趣。根据AI的随机性设置,攻击可能永远不会100%成功。相反,没有防御是完美的,但绝不是。
为了降低SaaS或IaaS环境中的AI驱动风险,企业应实施一系列主动控制和配置,这些控制和配置着重于弹性,检测和准备。AI驱动的端点检测和响应(EDR)工具是必不可少的,它们不断监视和分析跨端点的活动,自动标记和隔离异常或恶意行为。
组织还应该投资培训其团队以认识AI增强威胁,例如深击和精致的网络钓鱼尝试。经常,集中和AI意识到的安全意识会议是维持良好的劳动力的关键。部署欺骗技术,例如诱饵系统,虚假凭证和蜜罐,可以在入侵过程的早期发现并慢慢攻击者,同时还可以洞悉其策略。定期的桌面模拟,尤其是以AI为中心的漏洞场景的模拟,确保安全团队准备在压力下有效做出响应。
此外,企业必须优先考虑持续的安全投资和研究。这包括对AI模型的常规审核,以应对不断发展的最佳实践的响应以及在安全,法律和运营团队中促进协作。这些措施共同有助于增强组织在动态云环境中预测,检测和应对AI驱动的威胁的能力。
当公司不将其AI部署视为其云环境的扩展,并且不为他们提供相同的严格安全措施时,存在差距。组织必须专注于端点安全以及数据出处,访问控制以及AI使用围绕AI的细粒度权限。在AI安全性方面,监视数据流,跟踪模型版本和日志交互以识别潜在的漏洞至关重要。