英语轻松读发新版了,欢迎下载、更新

AI是数据爆发时炸弹,揭示了新的报告

2025-06-10 14:02:00 英文原文

作者:Varonis

Cyber explosion

人工智能无处不在。副驾驶帮助员工提高生产力,代理商提供一线客户支持。LLMS使企业能够从其数据中提取深刻见解。

但是,一旦释放出来,人工智能的作用就像饥饿的豆类人一样,扫描和分析它可以抓住的所有数据。如果AI表现出不属于的关键数据,则游戏结束了。数据可能会毫无意义。

而且,AI仅仅是庞大的云复杂性,未批准的应用程序,缺少MFA和更多风险,而是为企业数据创造了一个滴答滴答的定时炸弹。缺乏适当数据安全措施的组织可能会灾难性地违反其敏感信息。

为了量化AI对数据风险的影响,Varonis产生了数据安全报告:量化AI对数据风险的影响。下载完整的报告并继续阅读以了解数据的最新风险。

研究人员着手捕获人类到机器的风险因素:副本和代理人可以通过一个提示来访问或暴露多少敏感数据(员工薪水,研发信息,源代码等)。

研究人员还研究了机器对机器风险:用于喂养LLM的数据的完整性。错误的数据会触发灾难性效果。操纵的临床数据可能会破坏突破医学的发展。坏演员可以在LLM中默默嵌入恶意代码。

数据风险深入潜水

Varonis分析了来自1,000个数据风险评估的数据,以提供风险的经验证据,而不是基于AI准备调查和民意调查的结论。

数据安全报告的状态深入研究了与AI,云环境以及一些最受欢迎的SaaS应用程序和服务相关的数据风险,例如Microsoft 365,AWS,Snowflake,Box,Salesforce等。 

Varonis发现:

  • 99%的组织具有不必要的AI工具的敏感数据
  • 90%的敏感云数据(包括AI培训数据)是AI工具开放且可访问的
  • 98%的环境中有未经验证的应用程序,包括影子AI
  • 1中的1不会在SaaS和多云环境中执行MFA
  • 88%的幽灵用户潜伏在环境中

综上所述,研究人员发现没有任何组织为AI做好充分的准备。在AI时代,所有1000个检查的组织都有违反的风险。

AI正在阐明数据风险,” Matt Radolec说,事件响应和云操作的Varonis VP说。组织正在不完全了解权限模型的情况下采用AI,这意味着数据可以无意间暴露于员工,其他用户甚至外部。

该报告概述了组织可以采取主动步骤来保护其数据的三种方式:

  1. 通过主动减少损害攻击者可以用被盗的身份来减少爆炸半径。
  2. 不断监视您的数据,自动化访问治理和姿势管理,并采用主动威胁检测。
  3. 使用AI和自动化。IT和安全团队可以利用AI和自动化来补救问题和漏洞。

Varonis分析表明,绝大多数组织,无论规模或行业如何,都难以维持强大的数据安全实践。随着AI的不断发展,组织要优先考虑数据保护并实施有效的安全措施至关重要。

下载数据安全报告:量化AI对数据风险的影响。

赞助和撰写Varonis

关于《AI是数据爆发时炸弹,揭示了新的报告》的评论


暂无评论

发表评论

摘要

诸如副驾驶和代理商之类的人工智能工具正在提高生产率,但也为企业数据安全带来了重大风险,潜在地暴露了敏感信息并破坏了数据完整性。Varonis的一份报告强调,99%的组织不必要地将敏感数据暴露于AI工具,其中90%的云数据可访问这些工具。该研究还发现了诸如未经验证的应用程序和跨环境中MFA实施不足之类的问题,表明广泛的脆弱性。为了减轻风险,该报告建议采取积极的措施,例如减少违规,持续监控并利用AI进行威胁检测和修复的潜在损害。