英语轻松读发新版了,欢迎下载、更新

金融犯罪合规中的AI和机器学习|JD Supra

2025-01-31 21:12:38 英文原文

作者:Joanna Munro

随着金融犯罪风险的发展,包括使用AI和其他新兴技术带来的风险,公司的金融犯罪遵守响应也必须如此。因此,AI构成问题和解决方案的一部分并不奇怪。在循环组成部分中具有人类的治理模型的伴随,AI支持的解决方案可以支持更高效,有效的系统和控制,以防止金融犯罪风险。在本文中,我们探讨了当前使用AI来应对金融犯罪的使用以及使用第三方遵守其在这一领域的义务的公司的未来。

AI支持的金融犯罪合规性

人工智能继续在专业和私人对话中占主导地位。金融服务部门已经是该技术的早期采用者,其中包括广泛的AI,包括其风险和合规功能。英格兰银行和FCA对英国金融服务中的AI和机器学习的第三次调查揭示它是金融服务中第三高用用案例,预计将在未来3年内增加。此外,客户的尽职调查和交易监控是AI可以提高运营效率的两个领域。

是什么推动了这一趋势?金融犯罪清楚地仍然是金融服务公司面临的最大风险之一,并且坚定地在监管机构的关注范围内 - 解决金融犯罪是FCA新的5年战略2025-2030的主要目标之一。公司大大有动力采用更复杂和动态的方式来防止AI-Sable Tools提供的金融犯罪风险。

在该领域使用AI的最新示例是真正的成功案例。支持AI的工具已用于:

但是,这些支持AI的工具本质上是复杂的,需要大量资源和广泛的市场数据才能开发和维护。已经出现了旨在检测​​和打击金融犯罪的AI的第三方提供者,这引发了有关治理,问责制,专业知识以及最终监管合规性的重要问题。

对第三方的依赖

当前所有AI用例中的三分之一由受访者部署到监管机构调查是第三方实施,高于监管机构同等学历的2022年调查中的17%。风险和合规性是第三方实施的第二高百分比(64%)的商业领域,仅次于人力资源(65%)。监管机构预计,随着AI模型变得更加复杂,外包成本降低,使用第三方实施将增加。

加上可能增加对第三方提供商在AI使用中的依赖,证据表明,企业对外包系统的运作方式和培训的方式不足。例如,在英格兰银行的调查中,几乎有50%的受访者报告说,对他们使用的AI技术只有部分了解,承认缺乏完全理解。比内部。

鉴于管理外包功能的监督的监管要求,这是有问题的,其中包括使用第三方AI工具。在主机公司不了解系统的情况下,无法对这种监督进行适当的行动。与算法模型相比,公司将需要考虑AI的基本差异如何影响其责任的履行。WHIST外包协议中包含的典型保障措施,即规定审计权利和业务连续性安排的规定,可能会减轻该地区的新兴风险,需要一系列新的保护解决方案和治理安排。

对于数据,这种需求尤其明显。依靠质量差或不完整数据的AI支持的工具必然会产生质量差的结果。数据治理和标准从未如此重要,并且将成为AI模型背景下的快速发展领域。

同样,公司将需要采取措施来防止产生偏见结果的第三方模型,这可能是监管问题的重点。这FCA已警告使用AI支持工具的公司应考虑由于这些技术嵌入或放大偏见而违反了消费者的责任,因此某些消费者违反了消费者的责任,应考虑是否会导致更糟的结果。从创建算法到其部署的任何时刻都可以发生偏见。不正确的问题框架或对不代表公司客户人群的数据集的依赖将导致固有的偏见学习过程和歧视性输出。在风险检测中依靠依赖市场转移学习的第三方模型(即利用在大型财务数据集中培训的现有模型)可能会加剧此问题。

使用第三方AI模型的使用也可能会提出责任挑战,即使不是赤字,尤其是开发商和提供商不在监管周边的情况下。与金融犯罪系统和控制措施的运行有关的失败已经是监管执法行动的重点。FCA发布的最终通知Metro Bank PlcStarling Bank Ltd在2024年底是鲜明的例子。但是,没有针对高级管理人员采取任何相关行动,这可能与此类案件提出的证据挑战有关。尽管建立个人问责制可能会变得更加困难,而AI系统具有重要的第三方组件,但监管机构可能会严格审查公司的治理和监督标准。

公司将需要让员工拥有必要的专业知识和培训,以确保对模型及其开发的审计和监督可以有效地监控。他们还需要评估应将循环中的人类纳入模型的操作的适当程度,即效率和保护之间的适当平衡在哪里?应该出现失败,揭开出了什么问题,最终负责的人将由于模型的复杂性和供入系统的各方的复杂性而具有挑战性。公司将需要能够以有意义的方式解释机器学习模型和任何由此产生的决定,尤其是在导致消费者伤害的情况下。企业还需要设计和实施反馈机制,以检测和防止模型漂移,并迅速对偏见或新威胁产生反应。这些是重要的问题,这将需要在董事会级别上输入。

如果出现不可接受的问责制赤字,监管机构可能会将其关注的重点转移到公司的治理安排上,而是将其外围更宽,将AI金融犯罪系统的第三方提供商包括在监管范围内。这已经对关键的第三方提供商进行了,向金融部门提供材料服务。该方法可能会在其他领域推出,在其他领域,行业对第三方提供商对复杂AI系统的依赖的依赖。

结论

毫无疑问,AI可以在打击金融犯罪的斗争中成为强大的盟友,帮助金融机构保护其客户,并减轻经常延伸的风险和合规团队的负担。当我们展望2025年时,公司需要考虑如何平衡AI的使用来增强其金融犯罪系统和控制权,并遵守核心监管义务,尤其是在依赖第三方提供者的情况下。问责制可能会证明最大的挑战,公司将需要确保对第三方AI模型的高级管理层的有意义的投入,以确保适当的治理和监督安排,以便有效地对其特定风险和新兴威胁进行微调。

[查看源]。

关于《金融犯罪合规中的AI和机器学习|JD Supra》的评论


暂无评论

发表评论

摘要

越来越多的人AI越来越多地用于金融犯罪的合规性,这是由于对金融犯罪风险的监管越来越多。金融机构正在采用AI进行欺诈检测,客户尽职调查和交易监控,旨在提高效率和有效性。但是,这些工具的复杂性需要大量资源和强大的治理模型,通常涉及第三方提供商。这种依赖引起了人们对问责制,数据质量,偏见和法规合规性的担忧。随着人工智能变得更加不可或缺,公司必须确保对外包系统的足够理解和监督以满足监管标准,从而强调了高级级别的高级治理实践的需求。