英语轻松读发新版了,欢迎下载、更新

如何在整个组织中击败“影子人工智能”

2025-01-09 07:36:43 英文原文

作者:News By Adam Wignall published 9 January 2025 The cybersecurity and governance risks of Shadow AI

Avast cybersecurity
(图片来源:Avast)

GenAI 是自互联网以来对社会最具颠覆性的技术。最受欢迎的产品推出两年后大语言模型,聊天GPT,GenAI 工具从根本上永远改变了我们消费信息、创建内容和解释数据的方式。

从那时起,人工智能工具的出现和发展速度极快,这意味着许多企业发现自己在 GenAI 的监管、管理和治理方面处于不利地位。

这种环境使得“Shadow AI”得以猖獗。根据微软, 78% 的知识工作者经常使用自己的人工智能工具完成工作,但 52% 的人没有向雇主透露这一点。因此,公司面临着无数风险,包括数据泄露、合规违规和安全威胁。

应对这些挑战需要采取多方面的方法,包括强有力的治理、清晰的沟通以及对人工智能工具的多功能监控和管理,所有这些都不能影响员工的自由和灵活性。

Kolekti 总经理。

信任至关重要,而且是双向的

无论雇主是否强制要求,员工都会使用 GenAI 工具。事实上,全面禁令或对其使用方式的严格限制只会加剧“影子人工智能”的挑战。最近的一项研究甚至表明,46%的员工拒绝放弃人工智能工具,即使它们被禁止。

GenAI 是一项非常容易获得的技术,能够显着提高效率并缩小技能差距。这些变革性工具对于时间紧迫的员工来说是触手可及的,雇主在没有合理理由的情况下不能告诉他们不允许使用这些工具。

因此,雇主在效率和真实性之间取得适当平衡的第一步是为 GenAI 能够并且应该如何在业务环境中使用建立蓝图。

订阅 TechRadar Pro 时事通讯,获取您的企业成功所需的所有热门新闻、观点、功能和指导!

因此,全面的培训对于确保员工了解如何安全、合乎道德地使用人工智能工具至关重要。

这超出了技术知识的范围,还包括对员工进行有关人工智能工具相关潜在风险的教育,例如隐私顾虑、知识产权问题以及 GDPR 等法规的遵守情况。

清楚地解释这些风险将大大有助于让员工接受这些乍一看似乎过于严厉的限制。

概述清晰的用例

在给定组织内定义明确的人工智能用例也极其重要,不仅可以告诉员工如何不能使用人工智能,还可以告诉员工如何使用人工智能。最近的一项研究实际上发现,五分之一的员工目前不使用人工智能,因为他们不知道如何使用。

因此,通过对如何使用人工智能工具进行正确的培训、认识和理解,他们可以避免可能使组织面临风险的不必要的实验,同时还能获得人工智能自然带来的效率回报。

当然,应该围绕哪些人工智能工具可以使用制定明确的指导方针。这可能会因部门和工作流程的不同而有所不同,因此组织采用灵活的人工智能治理方法非常重要。

一旦定义了用例,精确衡量人工智能的性能就至关重要。这包括设置基准了解如何将人工智能工具集成到日常工作流程中、跟踪生产力改进并确保与业务目标保持一致。通过建立监控成功的指标,企业可以更好地跟踪人工智能工具的采用,确保它们不仅得到有效使用,而且其使用符合组织目标。

解决 BYO-AI 问题

影子人工智能恶化的主要原因之一是,员工可以绕过 IT 部门,通过未经批准的人工智能工具实施自己的解决方案。许多人工智能平台的去中心化、即插即用性质使员工能够轻松地将人工智能集成到他们的日常工作中,从而导致可能不符合公司政策或安全标准的影子工具的激增。

这个问题的解决方案是通过多功能 API 管理。通过实施强大的 API 管理程序,组织可以有效地管理内部和外部人工智能工具如何集成到其系统中。

从安全角度来看,API 管理使企业能够规范对数据的访问、监控系统之间的交互,并确保 AI 应用程序仅以受控且安全的方式与适当的数据集进行交互。

然而,重要的是不要通过监控商业认可工具的特定输入和输出来跨越工作场所监控的界限。这只会迫使人工智能用户重新回到阴影中。

一个好的中间立场是配置敏感警报以防止机密数据意外泄露。例如,可以设置人工智能工具来检测人工智能模型何时不当输入或处理个人数据、财务详细信息或其他专有信息。实时警报提供了额外的保护层,确保在漏洞升级为全面的安全事件之前识别并减轻漏洞。

执行良好的 API 策略可以让员工自由高效地使用 GenAI 工具,同时保护源头数据并确保 AI 使用符合内部治理政策。这种平衡可以推动创新和生产率不影响安全或控制。

取得适当的平衡

通过定义用例建立强有力的治理,利用多功能 API 管理实现平滑集成,并持续监控 AI 使用情况以了解合规性和安全风险,组织可以在生产力和保护之间取得适当的平衡。这种方法将使企业能够拥抱人工智能的力量,同时最大限度地降低“影子人工智能”的风险,确保以安全、高效和合规的方式使用 GenAI,同时允许他们释放关键价值和投资回报。

我们编制了一份最佳网络监控工具列表

本文是 TechRadarPro 专家见解频道的一部分,我们在该频道中汇集了当今技术行业中最优秀、最聪明的人才。本文表达的观点仅代表作者的观点,并不一定代表 TechRadarPro 或 Future plc 的观点。如果您有兴趣贡献,请在此处了解更多信息:https://www.techradar.com/news/submit-your-story-to-techradar-pro

Kolekti 总经理。

关于《如何在整个组织中击败“影子人工智能”》的评论


暂无评论

发表评论

摘要

自两年前推出 ChatGPT 以来,GenAI 已经改变了信息消费、内容创建和数据解释。人工智能工具的快速发展使许多企业难以有效监管、管理和治理 GenAI,导致员工在雇主不知情的情况下使用“影子人工智能”。这会带来数据泄露和合规问题等重大风险。为了应对这些挑战,公司需要强大的治理、清晰的沟通、多功能的监控和人工智能工具的管理,同时保持员工的灵活性。雇主必须允许在规定的指导方针内使用 GenAI,以提高效率并缩小技能差距。全面的培训对于安全、合乎道德地使用人工智能至关重要。定义清晰的用例并设置精确的性能指标可确保与业务目标保持一致。安全地管理 API 可以在不影响安全性或控制的情况下实现高效的 AI 使用,从而在生产力和保护之间取得平衡。