合规功能中的人工智能|JD Supra

2025-09-26 05:10:15 英文原文

由于数字化的变革效应,尤其是AI,公司合规性正在发生地震转变。曾经是一个未来派的概念,AI迅速成为全球法律和合规性功能的主流,甚至关键的技术。随着组织应对越来越复杂的监管环境,指数数据的增长和无情的压力以更有效,有效地运作时,AI既提出了前所未有的机遇和新颖的挑战。

我们的发现揭示了一个过渡时期,其中早期采用者正在意识到有形的好处,同时也反对诸如实施挑战,政策制定差距以及部署这种变革技术的固有风险之类的痛苦。

AI采用趋势

从最基本的角度来看,AI不再是一个利基工具,而是一种获得严重吸引力的技术,尽管采用水平在不同的组织类型和规模之间发生了巨大变化。总体而言,有36%的受访者在其合规性和调查过程中使用AI报告,另有26%的人仅用于合规任务。

在某些细分市场中,这种采用率明显更高。公开上市公司的受访者与私营部门同行(23%)相比,使用AI进行AI的可能性几乎是合规性和调查的可能性的两倍(44%)。这种差异可能反映了较大的数据量和可能与公共实体相关的较高的投资能力,并且可能对监管机构在基本合规计划中使用和部署数据分析的相应更大的期望。同样,与私募股权公司(10%)相比,公司的AI采用明显更高,表明运营规模,风险食欲和/或这些不同类型业务之间对AI驱动的合规性的差异。

组织规模和收入产生与AI采用有着强烈的正相关。在最高收入的受访者中,近六个(59%)中有六个(59%)已经利用AI来进行合规和调查,这与最低收入的受访者中的14%的采用率形成了鲜明的对比。这一发现突出了一个资源差距,其中较大的组织拥有财务手段,技术专长和必要的数据基础架构,可以更轻松地投资和部署AI。

查看完整图像:您的组织是否在合规性和/或调查过程中使用AI?(PDF)

AI使用的任期表明,随着采用的增长,对于许多组织来说,这仍然是一个相对较新的现象。在目前使用AI的受访者中,最大的队列(36%)一直使用它一到两年,紧随其后的是使用它的人(34%)。在过去的两年中,人们发生了一波采用,部分原因是大流行时代的数字化趋势驱动,但更是如此,这是由于生成AI模型的快速主流和其他可扩展工具的快速主流,这些工具使技术新近可访问且适用于法律和合规团队。

同样,大型组织的受访者表现出与AI的长期参与。最高收入组织的几乎一半(46%)的受访者已经使用AI已有两到五年了,而收入组织受访者只有11%。因此,使用AI更长的组织将技术的价值视为更高的价值,并开发了更复杂的用例。

How long has your organization been utilizing AI in its compliance and/or investigations processes?*查看完整图像:您的组织在合规性和/或调查过程中使用AI多长时间?*(PDF)

推动AI采用的动机

实施AI的合规性和调查背后的基本原理是务实的,重点是效率和资源优化。对于使用这些工具的受访者来说,主要驱动力是节省时间(引用73%)和成本节省(71%)。这一发现强调了对合规职能的越来越大的压力“在较少的情况下做更多的事情”来管理不断增加的风险和数据量,而不会相称地增加员工人数或预算。正如一家美国公司的道德和合规职能的一位成员所说:“我们使用AI进行合规和调查来降低体力劳动的数量。由于法规的变化和流程的复杂性,手动工作变得耗时。因此,AI的使用在某个时刻变得不可避免。”

AI被视为自动化重复任务,加速分析并释放合规性专业人员进行高价值战略工作的关键工具。

查看完整图像:您的组织使用AI的动机是什么?*(选择所有适用的)(PDF)

如何应用AI

在检查用户在合规性和调查中AI的特定用途时,明确的重点是将AI用于涉及大规模文本分析的任务。确定的最高用例是总结文件(88%)和调查期间审查文件(85%)。这与当前自然语言处理(NLP)和大型语言模型(LLM)技术的优势相吻合,这些技术在处理和从大量非结构化文本数据中提取信息方面表现出色,这是合规性监测,适当勤奋和内部调查中通常共同的挑战。

特别是,生成AI的出现标志着一个显着的拐点。与较早的基于规则的系统或用于离散任务的机器学习算法不同,生成模型可以在一小部分时间内汇总,比较,重新显示,甚至准备合规性文档的初稿。这种多功能性虽然强大,但也带来了新的风险,包括潜在的不透明决策,意外的产出和不确定性,围绕AI生成的内容的可靠性。组织仍在努力在有用的自动化与有风险的过度依赖和潜在责任敞口之间划清界限。

尽管当前使用AI的用途可以赋予效率和成本节省,但它们代表了该技术功能的相对较窄的乐队。根据最高响应,更复杂的应用程序,例如交易数据中的高级异常检测或智能培训个性化的个性化,这表明许多组织仍处于利用AI充分潜力的早期阶段。

但是,正如一家位于墨西哥公司的法律职能的成员指出的那样,一些组织已经看到了超越基本审查的好处:“我们注意到如何通过使用AI来捕获和处理上下文信息,因此我们将其用于合规性和调查过程。在我们的活动中对日常风险有更好的了解。”

How is AI being used in your organization? (Select all that apply)*查看完整图像:组织中如何使用AI?(选择所有应用的)*(PDF)

Do you personally use AI tools within your role?*查看完整图像:您个人是否在您的角色中使用AI工具?*(PDF)

用户体验:高参与度和感知价值

令人鼓舞的是,在实施AI的地方,用户参与度和满意度似乎很高。在使用AI的组织中受访者中,几乎所有(96%)使用AI工具的角色报告。此级别和使用表明AI不仅在后台运行,而且还集成到法律和合规专业人员的日常工作流程中。

此外,感知到的效用是绝对积极的。亲自使用AI工具的受访者都没有发现他们无济于事。取而代之的是,48%的人将它们评为“非常有帮助”,而43%的人发现它们“有些帮助”。

这种有力的认可表明,一旦部署,这些工具就可以满足用户需求,并在日常任务中带来切实的好处。

这种感知的公用事业与组织规模和资源密切相关。在收入最高的受访者中,将近四分之三(73%)的用户发现了AI工具“非常有帮助”,而最低持续的受访者只有37%。这种差异可能归因于AI实施在较大公司中的成熟度,更好地与现有系统集成,更全面的培训和/或访问更复杂的,量身定制的工具,从而加强了更长的任期发现。

How helpful have AI tools been in your role?*查看完整图像:AI工具在您的角色中有多帮助?*(PDF)

What are your key concerns with the use of AI in compliance and investigations? (Select all that apply)查看完整图像:在合规和调查中使用AI的关键问题是什么?(选择所有申请)(PDF)

人工智能挑战和关注

尽管有积极的用户经验,但对AI的部署仍存在重大关注。关键问题是数据安全性和可靠性。数据保护是最关注的问题(64%),这反映了受访者对在AI系统中处理敏感的个人或公司数据的焦虑,从而确保遵守诸如欧盟一般数据保护法规(GDPR)等隐私法规并保护昂贵的违规行为。不准确性(57%)是第二个主要问题,强调了与算法中潜在偏见相关的风险,生成AI输出中的“幻觉”,以及基于潜在的AI分析的法律和合规决定的后果。

公开上市公司(55%)的受访者比在私人组织中(35%)更为明显。这一发现可能表明,在更严格的治理期望的上市公司中,人们对与不充分监督的AI系统相关的声誉和监管风险的敏锐意识具有更高的认识。

经常低估的障碍是文化的。一些法律和合规团队仍然对AI持怀疑态度,因为他们担心自动化可能会稀释其影响力,或者引入对他们承担责任的错误。

其他人则面临机构孤岛,其中AI分析所需的数据被隔离在旧系统中,或者居住在无法与法律和合规团队有效协调的部门中。没有跨职能的一致性,即使是最先进的AI模型也将难以发挥其潜力。鉴于这一现实,鼓励美国司法部检察官在评估公司合规计划(ECCP)指南中提出的一个问题之一,在评估公司的合规计划时提出了一个问题,是合规团队是否有足够的数据源可以访问相关的数据源,以及时测试和监控公司的政策,控制和交易。

Does your organization have a policy governing employee use of AI?查看完整图像:您的组织是否有有关员工使用AI的政策?(PDF)

查看完整图像:您的组织是否将使用AI和其他新技术与企业风险管理(ERM)流程相关的风险?(PDF)

政策和框架:赶上技术

随着AI采用的增长,尽管进展有所不同,但组织正在通过开发治理框架来提高组织。几乎三分之二(63%)的受访者报告了对员工使用AI的政策。但是,仍然存在一个很大的差距,其中26%的人表示他们目前没有政策,而是计划实施一项政策。政策实施显示与采用率类似的差异:79%的最高受访者具有AI使用政策,而最低的受访者中只有34%。同样,公开上市的受访者(75%)和公司(68%)领先于私营公司(44%)和私募股权公司(30%),以建立这些准则。

除了使用政策之外,将AI注意事项集成到更广泛的风险框架中至关重要。目前,有60%的受访者将使用AI和其他新技术相关的风险作为其ERM流程的一部分。AI还被证明在导航监管环境的复杂性方面很有价值。“当有监管更新时,我们需要确保对这些变化保持适应性,”美国公司的道德和合规职能的成员解释说。“ AI改变了我们适应监管变化的方式。现有的合规程序无需许多问题就会改变。对我们的合规管理能力总体上更有信心。”

与较小和私人实体相比,在较大和公共受访者中将AI集成到ERM中更为普遍。例如,有71%的上市公司的受访者将AI纳入ERM与44%的私营公司,而收入最高的受访者中有79%这样做,而最低收入的受访者中有30%。

Does your organization have controls in place to monitor and ensure the trustworthiness and reliability of AI and its use in accordance with applicable law and company policy?*查看完整图像:您的组织是否有控件来监视并确保根据适用的法律和公司政策,AI及其使用的可信度和可靠性?*(PDF)

令人鼓舞的是,在考虑到ERM中这些风险的60%的受访者中,大多数(79%)声明他们拥有适当的控制权来监控和确保AI的可信赖性和可靠性及其根据适用的法律和公司政策的使用。这一发现表明,正式解决AI风险的组织也在积极实施缓解措施。

展望未来,几个力量可能会加速AI在合规性中的集成。监管机构开始尝试AI进行执法和监督,从而增加了受监管实体的赌注。同时,特定于AI的审计框架和道德准则的出现以及由政府和监管机构开展的创新计划,可能有助于犹豫的组织获得信心。在英国,金融行为管理局(FCA)定期发布有关支持政府在AI上的“专业创新策略”所做的工作的定期更新(这项工作包括共同撰写了有关AI如何影响审慎目标和对金融机构进行监督的监管目标的讨论文件)。

随着工具的发展,我们还可能会看到从任务自动化向决策增强的转变,在这种情况下,AI不仅在进行工作,还可以帮助塑造合规专业人员如何看待风险。

[查看源]。

关于《合规功能中的人工智能|JD Supra》的评论


暂无评论

发表评论

摘要

由于数字化和人工智能的兴起,公司合规性正在经历重大变化。AI在合规性和调查中的采用已经增长,其中36%的过程将其用于流程,另外26%仅用于合规任务。与私营公司相比,公开上市的公司在AI采用方面领先,较大的组织通常显示出较高的采用率与收入的产生相关。AI使用的主要动机是效率提高和成本节省。当前的应用集中在文本分析和文档审查上,突出了NLP和LLM技术的优势。但是,对数据安全性和可靠性的担忧持续存在。组织正在开发治理框架以解决这些问题,尽管政策实施在不同类型的组织之间差异很大。