英语轻松读发新版了,欢迎下载、更新

一项行动计划,使组织通过人工智能政府指示安全不足以确保与AI的安全

2025-08-25 15:41:53 英文原文

作者:By Anupam Upadhyaya, vice president of product management, Prisma SASE, at Palo Alto Networks

尽管美国AI行动计划和欧盟AI法案制定了人工智能要求和建议,但组织将做得很好,以保持领先地位。这是怎么回事。

白宫最近出版了AI行动计划,旨在有效利用人工智能在工业和政府中有效利用人工智能的推荐政策行动。它紧随欧盟AI法这是一个全面的法律框架,该框架规范了欧盟内部AI的各个方面,并执行大多数规定,该规定将于2026年8月开始。

从安全的角度来看,所有条纹的组织都会很好地记住,安全始终涉及共同的责任模型。云提供商在其协议中非常清楚,但它全面适用于本地系统。每个供应商和最终用户组织都必须对安全的某些方面负责。AI没什么不同。

因此,尽管安全和IT专业人员可以并且应该关注政府法律和指令,但他们还应该意识到,任何政府生产的任何人本质上都会落后于现实,通常是多年来的现实。这样的指令基于昨天的威胁和技术。

很难想到一种技术的发展速度比AI现在移动的速度快。新事态发展似乎是白天出现的,随着他们的新安全威胁。以下是一些建议,可以帮助您跟上。

注意,质疑一切,放置护栏

首先,请注意诸如《欧盟AI法案》等新兴法律以及美国AI行动计划的任何内容,以及您的用户和AI技术本身。深入研究您的员工实际使用AI,他们所面临的挑战以及提供的机会。考虑一下如果事情出现问题或不良行为者(无论是内部还是外部)可能会试图注射,它可能会带来什么危险。跟上AI的发展速度。是的,这本身可能是一项全职工作,但是如果您继续关注并保持联系,您可以掌握大型发展。

接下来,质疑一切。坚持使用所有AI应用程序的解释性。只有通过了解AI的工作方式,您才能开始确保您可以解决偏见,违反隐私行为和其他数据滥用。您还需要通过坚持质量数据标准并防止不可接受的风险来确保AI对攻击(包括数据中毒)具有抵抗力,例如在有保证时坚持人类判断。

您还需要围绕AI应用程序进行护栏,尤其是当Agesic AI开始使用时。如果AI系统将被信任自行做出决定,则必须像其他任何用户一样对待它们,但要受到适当的访问控件。简而言之,零信任像其他用户一样适用于AI应用程序。

合作以跟上

如果所有这些听起来像是很多工作,请知道您并不孤单。与您的同龄人合作。加入行业用户群体以保持知情并学习最佳实践。也与像这样的行业团体合作Infragard国家会员联盟(INMA),FBI的Infragard计划的私营部门组成部分。INMA专注于教育计划,培训活动和信息共享计划。

尽管毫无疑问,AI提出了许多安全挑战,但这并不是我们以前从未见过的那样。许多人会回忆起对欧盟一般数据保护监管的焦虑,并担心要遵守的困难。GDPR确实发生了强迫的改变,但是组织环境风暴,现在我们看到美国各州采用了许多相同的宗旨。期待AI也是如此,但不要等待政府强迫您的手。

阅读更多关于当天最大的IT主题在Palo Alto Networks观点页面上的想法。

订阅我们的新闻通讯

从我们的编辑直接到您的收件箱

通过在下面输入您的电子邮件地址开始。

关于《一项行动计划,使组织通过人工智能政府指示安全不足以确保与AI的安全》的评论


暂无评论

发表评论