作者:Anuj Jaiswal
尽管员工希望利用Genai和LLM的提高效率,但CISO和IT团队必须勤奋并掌握最新的安全法规。
Anuj Jaiswal,首席产品官Fortanix
2025年1月23日
3分钟阅读
资料来源:LuckyStep48通过Alamy Stock Vector
评论
人工智能(AI)的迅速崛起呈现了很长的阴影,但其巨大的承诺具有重大风险:影子AI。
Shadow AI指的是使用AI技术,包括AI模型和生成AI(Genai)工具,这些工具除了公司IT批准的治理外。随着越来越多的人使用诸如Chatgpt之类的工具来提高其工作效率,许多组织都禁止公开使用Genai供内部使用。在希望防止不必要的安全风险的组织中,金融服务和医疗保健领域的组织以及苹果,亚马逊和三星等技术公司。
不幸的是,执行这样的政策是一场艰苦的战斗。根据最近的一份报告,非公司账户占CHATGPT使用的74%,以及74%的Gemini和Bard使用。员工可以轻松地制定公司政策,以继续其AI的工作用途。 有可能打开安全风险。
其中最大的是缺乏对敏感数据的保护。截至2024年3月,输入AI工具的数据中有27.4%被认为是敏感的,从去年同时增加了10.7%。将这些信息放入Genai工具中几乎是不可能的。
阴影AI使用的不受控制的风险当员工使用AI时,揭示了对严格的隐私和安全惯例的必要性。
这一切都归结为数据。数据是AI的燃料,但它也是组织最有价值的资产。被盗,泄漏或损坏的数据造成了实际,有形的伤害,从泄漏的个人身份信息(PII),与泄漏的专有信息(如源代码)相关的成本以及严重安全漏洞(如黑客和恶意软件)的增加,对企业罚款(PII)造成了切实的伤害(PII)。。
为了减轻风险,组织必须在静止,运输和使用中确保其数据确保其数据。对风险的影子AI使用的反驳是,对员工以大型语言模型(LLM)为食的信息可以很好地控制。
确保敏感的公司数据是首席信息安全官(CISO)的一项具有挑战性的平衡法案,因为他们权衡了其组织利用Genai的感知价值的愿望,同时还保护了使这些收益成为可能的唯一资产 -。
因此,问题变成了:您如何做到这一点?您如何获得余额?在保护企业最有价值的资产的同时,如何提取积极的业务成果?
在高水平上,CISO应考虑通过整个生命周期来保护数据。这包括:
在将数据摄入Genai模型之前保护数据
确保数据输出完全确定,因为此新数据将推动业务成果并创建真实价值
如果数据生命周期不安全,这将成为关键业务的风险。
更具体地说,要保护敏感数据免于泄漏的多方面方法是必要的,尽管它始于尽可能多地限制Shadow AI,但使用一些基本最佳实践来保护数据安全和隐私同样重要:
加密:•在其生命周期中的数据加密至关重要,但是与数据本身安全和分开管理和存储加密密钥同样重要。
混淆:使用数据令牌化来匿名将可以馈送到LLM的任何敏感或PII数据。这样可以防止进入AI管道的数据被损坏或泄漏。
使用权:â将基于颗粒的,基于角色的访问控件应用于数据,以便只有授权用户才能在纯文本中查看和使用数据。
治理:致力于道德业务实践,在所有操作中嵌入数据隐私,并在数据隐私法规上保持最新。
与大多数技术进步一样,Genai的便利性和便利性带有一些后备。尽管员工希望利用Genai和LLM的工作效率提高,但CISO和IT团队必须勤奋,并掌握最新的安全法规,以防止敏感数据进入AI系统。除了确保工人知道数据保护的重要性外,通过采取所有措施从一开始加密和保护数据来减轻潜在风险。
首席产品官Fortanix
Anuj Jaiswal是Fortanixa的首席产品官。他是经验丰富的产品和工程领导者,具有令人印象深刻的纪录范围超过20年。Anuj此前曾担任Embrace.ioâ工程副总裁,并且是Arkin的一个关键人物,Arkin引起了VMware的注意,随后在2016年被收购。在他在Arkin期间,Anuj在收购过程中起着至关重要的作用,展示他的战略愿景和技术洞察力。在Arkin之前,Anuj曾在Frontrange Solutions(由Ivanti)和DBO2(由预测解决方案购买)担任高级领导者。
Anuj的域知识是广泛的,涵盖了云安全性,网络安全性,网络安全性,数据安全性和应用程序性能监控(APM)等关键领域。他对产品管理的愿景,战略,以客户为中心,路线图,合作伙伴关系和UX的方法始终导致产品在满足客户需求的同时为组织带来收入和增长的产品。Anuj拥有计算机应用程序的硕士学位和工商管理学士学位。
你也可能喜欢