根据 CybSafe 和国家网络安全联盟 (NCA) 的最新研究,超过三分之一 (38%) 的员工在未经雇主许可的情况下使用人工智能工具共享敏感工作信息。
报告发现,这种行为在年轻一代中尤为突出。
接受调查的 Z 世代中约一半 (46%) 和千禧一代中的 43% 承认在雇主不知情的情况下使用此类工具分享敏感工作信息。
p>
作为研究的一部分,CybSafe 对美国、英国、加拿大、德国、澳大利亚、印度和新西兰的 7000 多人进行了调查。
调查还发现,52% 的就业参与者透露他们尚未接受过任何有关人工智能安全使用的培训。
此外,58%的学生没有接受过此类培训,84%的非积极就业者和83%的退休人员没有接受过人工智能培训。
CybSafe 首席执行官兼创始人 Oz Alashe 评论道:人工智能的引入创造了 CISO 和企业领导者需要关注的全新安全行为类别。虽然安全社区非常清楚人工智能带来的威胁,但很明显,这种意识尚未转化为员工内部一致的安全行为。
Ronan爱尔兰政府人工智能咨询委员会成员 Murphy 告诉 Infosecurity,访问组织数据的人工智能工具是任何行业在网络安全、治理和合规性方面面临的最大风险。
如果您他解释说,将您的所有 IP 提供给人工智能模型,然后任何有权访问它的人都可以要求它透露秘密。
Murphy 补充道:为了拥抱人工智能并提高运营效率,组织需要确保基础层(即您的数据)在进入任何这些人工智能应用程序之前得到适当的净化。
三分之二(65%)的受访者还对与人工智能相关的网络犯罪表示担忧,例如利用这些工具创建更具说服力的网络钓鱼电子邮件。
超过一半 (52%) 的受访者认为人工智能将使检测诈骗变得更加困难,55%表示这项技术将使网络安全变得更加困难。
此外,很大一部分人表示对公司人工智能的实施和使用缺乏信任。类似数量的人表示,他们对人工智能实施的组织高度信任(36%),而信任度较低的人(35%)。
其余人(29%)持中立立场。
大约三分之一 (36%) 的人认为公司正在确保人工智能技术不存在偏见,而 30% 的人仍不相信。
受访者对自己识别人工智能能力的信心程度也存在差异- 生成的内容,36% 的人表示高度信任,35% 的人表示信任度较低。
令人担忧的是,36% 的人认为人工智能可能会影响他们在竞选期间辨别真伪的决定。