作者:Varonis
人工智能无处不在。副驾驶帮助员工提高生产力,代理商提供一线客户支持。LLMS使企业能够从其数据中提取深刻见解。
但是,一旦释放出来,人工智能的作用就像饥饿的豆类人一样,扫描和分析它可以抓住的所有数据。如果AI表现出不属于的关键数据,则游戏结束了。数据可能会毫无意义。
而且,AI仅仅是庞大的云复杂性,未批准的应用程序,缺少MFA和更多风险,而是为企业数据创造了一个滴答滴答的定时炸弹。缺乏适当数据安全措施的组织可能会灾难性地违反其敏感信息。
为了量化AI对数据风险的影响,Varonis产生了数据安全报告:量化AI对数据风险的影响。下载完整的报告并继续阅读以了解数据的最新风险。
研究人员着手捕获人类到机器的风险因素:副本和代理人可以通过一个提示来访问或暴露多少敏感数据(员工薪水,研发信息,源代码等)。
研究人员还研究了机器对机器风险:用于喂养LLM的数据的完整性。错误的数据会触发灾难性效果。操纵的临床数据可能会破坏突破医学的发展。坏演员可以在LLM中默默嵌入恶意代码。
Varonis分析了来自1,000个数据风险评估的数据,以提供风险的经验证据,而不是基于AI准备调查和民意调查的结论。
数据安全报告的状态深入研究了与AI,云环境以及一些最受欢迎的SaaS应用程序和服务相关的数据风险,例如Microsoft 365,AWS,Snowflake,Box,Salesforce等。
Varonis发现:
综上所述,研究人员发现没有任何组织为AI做好充分的准备。在AI时代,所有1000个检查的组织都有违反的风险。
AI正在阐明数据风险,” Matt Radolec说,事件响应和云操作的Varonis VP说。组织正在不完全了解权限模型的情况下采用AI,这意味着数据可以无意间暴露于员工,其他用户甚至外部。
该报告概述了组织可以采取主动步骤来保护其数据的三种方式:
Varonis分析表明,绝大多数组织,无论规模或行业如何,都难以维持强大的数据安全实践。随着AI的不断发展,组织要优先考虑数据保护并实施有效的安全措施至关重要。
赞助和撰写Varonis。