英语轻松读发新版了,欢迎下载、更新

我们是否像云的其余部分一样保护AI? - 帮助净安全性

2025-06-30 06:00:43 英文原文

作者:Mirko Zorz

在此帮助网络安全访谈中,安全建筑与工程总监克里斯·麦格拉纳汉(Chris McGranahan)backblaze,讨论AI如何塑造进攻性和防御性网络安全策略。他谈到了AI如何改变威胁格局,它给渗透测试带来的并发症以及公司可以采取哪些措施来保持AI驱动的攻击。

麦格拉纳汉(McGranahan)还指出,人类的专业知识仍然是必不可少的,我们可以仅靠AI来保护云环境。

AI cloud security

我们是否看到AI被用来自动化横向运动,脆弱性链接或特权升级?如果是这样,怎么样?这些AI驱动的能力如何到达低级威胁参与者?

目前,我们正在看到AI用于新的五旬节/redteam工具和服务。在Backblaze,我们正在评估提供一个提供的供应商代理AI服务以补充我们参与的标准手册。

使用AI pentesting工具的一个问题是AI倾向于是黑匣子。因此,很难复制AI使用的成功攻击方法,并且鉴于AI的性质,它可能会再次以相同的方式进行操作,并且可能会在重试时失败。这就是为什么我们与合作伙伴谈论开发所采取的行动的笔录,以确保我们完全了解所做的事情以及如何最好地减轻。

AI驱动的行为分析(在这种情况下为ML和神经网络系统)使得在升级之前更容易检测异常和抢占攻击,并使用安全平台实时分析网络行为,并标记异常访问模式或横向移动。

AI为威胁参与者提供了一个低级别的入境者,使他们知识渊博,但能够使用云平台以更高的速度和弹性来部署和实施攻击。例如,网络犯罪论坛为AI工具的专用部分,例如欺诈和Chaosgpt,恶意演员能够以相对实惠的价格购买大型语言模型攻击更容易访问。

组织通常会错过特定于云的错误配置或AI模型部署缺陷吗?

一个常见的缺陷是模型漂移,它发生在AI模型随着他们遇到的实际数据从训练的数据中转移,随着时间的流逝,随着时间的流逝而降低。这不仅可以导致部署的准确性降低,而且还会导致威胁检测技术的准确性,并且需要持续的监视和重新训练。

归根结底生成的AI不是智能的,而是数学确定对查询的最可能响应。在一个月前的一次培训中,我正在使用AI解决方案,该解决方案错过了一个恶意文件被添加到目录中。对于踢,我问文件是如何到达那里的,该工具提出了一个虚构的故事。在有关AI和自动化的所有讨论中,有一个普遍的共识,即循环中需要一个人。

我们对更标准的自动化或更早的ML工具也有同样的关注。一个月前在研讨会上提出的一个问题是,鉴于Genai的性质,循环中的人可能无法解析AI是如何得出结论的。经验和批判性思维将是至关重要的。

现在,攻击者正在使用AI进行侦察和剥削,企业应该如何重新考虑威胁建模?

由于现在在AI的帮助下启动潜在威胁,因此威胁模型将需要认识到潜在威胁何时起源于AI,而不是从过去更容易检测到的更有机的方式。

最常见的恶意使用AI(至少来自一些来源,最常见的AI使用时,时期)是在社会工程攻击中。人工智能可用于生成令人信服的,个人的网络钓鱼尝试。对于矛盾的攻击,可以训练它以模仿特定目标信任的人的写作风格。对于捕捞攻击,可以使用AI模仿目标可能与之交谈的人的声音。当申人正在攻击AIS或使用AIS互相攻击时,这将很有趣。根据AI的随机性设置,攻击可能永远不会100%成功。相反,没有防御是完美的,但绝不是。

企业是否可以在其SaaS或IaaS环境中应用特定的控件或配置来降低AI驱动的风险?

为了降低SaaS或IaaS环境中的AI驱动风险,企业应实施一系列主动控制和配置,这些控制和配置着重于弹性,检测和准备。AI驱动的端点检测和响应(EDR)工具是必不可少的,它们不断监视和分析跨端点的活动,自动标记和隔离异常或恶意行为。

组织还应该投资培训其团队以认识AI增强威胁,例如深击和精致的网络钓鱼尝试。经常,集中和AI意识到的安全意识会议是维持良好的劳动力的关键。部署欺骗技术,例如诱饵系统,虚假凭证和蜜罐,可以在入侵过程的早期发现并慢慢攻击者,同时还可以洞悉其策略。定期的桌面模拟,尤其是以AI为中心的漏洞场景的模拟,确保安全团队准备在压力下有效做出响应。

此外,企业必须优先考虑持续的安全投资和研究。这包括对AI模型的常规审核,以应对不断发展的最佳实践的响应以及在安全,法律和运营团队中促进协作。这些措施共同有助于增强组织在动态云环境中预测,检测和应对AI驱动的威胁的能力。

在AI安全性方面,您是否看到云提供商中的差距共享责任模型?

当公司不将其AI部署视为其云环境的扩展,并且不为他们提供相同的严格安全措施时,存在差距。组织必须专注于端点安全以及数据出处,访问控制以及AI使用围绕AI的细粒度权限。在AI安全性方面,监视数据流,跟踪模型版本和日志交互以识别潜在的漏洞至关重要。

关于《我们是否像云的其余部分一样保护AI? - 帮助净安全性》的评论


暂无评论

发表评论

摘要

来自Backblaze的Chris McGranahan讨论了AI对网络安全策略的影响,强调了防御性和进攻用途。他强调了由于AI而不断发展的威胁格局,并强调了人类专业知识以及技术解决方案的重要性。诸如针对低层威胁参与者的AI驱动的塞特工具的可访问性以及对AI行动中透明度的需求之类的问题。McGranahan还提到了常见的缺陷,例如模型漂移,AI随着时间的流逝而降级。为了应对AI驱动的风险,企业应实施积极的控制,投资安全培训,部署欺骗技术,并优先考虑不断发展的最佳实践。他指出,云提供商中的差距分享了有关AI部署所需的严格安全性的责任模型。