私营部门金融机构正在迅速采用人工智能(AI),这是出于大幅提高效率的承诺。尽管这些发展是广泛的积极的,但AI也构成了威胁,这些威胁对金融体系的稳定性知之甚少。
AI对金融稳定的影响是有争议的。一些评论员是乐观的,他坚持认为,AI只是一系列技术创新,这些创新正在重塑金融服务,而不会从根本上改变系统。根据这种观点,AI不会对稳定构成新的或独特的威胁,因此对于金融当局来说,这是往常的业务。采取这种观点的权限可能会将AI影响分析委托给组织的IT或数据部分。
我不同意这个。AI和以前的技术变化之间的根本差异是,AI做出自主决定,而不仅仅是告知人类决策者。这是一个理性的最大化代理,执行分配给它的任务,是AI的Norvig和Russell(2021)分类之一。与以前发生的技术变化相比,这种AI的自主权提出了新的复杂问题,以实现财务稳定。这意味着中央银行和其他当局应将AI影响分析成为其财务稳定部门的核心领域,而不仅仅是用它或数据将其容纳。
AI和稳定性
AI的风险在人工智能技术和金融系统脆弱性的传统理论的交集中出现了金融稳定。
AI擅长快速,可靠,便宜地检测和利用大型数据集中的模式。但是,它的性能在很大程度上取决于接受相关数据的训练,甚至比人类更重要。AI的能力迅速,果断地响应其不透明的决策过程,与其他发动机的勾结以及幻觉的倾向是稳定性风险的核心。
通过非常简单的任务来建立信任,通过建立信任,可以将AI嵌入到金融机构中。随着它被提升为越来越复杂的任务,我们可能最终以彼得原则的AI版本。
无论高级决策者希望什么,人工智能都将成为必不可少的。只要AI可节省大量成本并提高了效率,就不可信,我们永远不会使用AI来执行此功能,或者我们将永远在循环中拥有人类。
要确保AI在高级任务中所做的工作特别困难,因为它需要比人类更精确的说明。简单地告诉它要确保系统安全。人类可以通过直觉,广泛的教育和集体判断来填补这些空白。当前的AI不能。
AI做出重要财务决策时可能发生的事情的一个明显的例子来自Scheurer等人。(2024),在其中明确指示语言模型既遵守证券法和最大利润。当给予私人提示时,它立即从事非法内幕交易,同时将其撒谎。
财务决策者通常必须出于法律或监管原因来解释他们的选择。在雇用某人从事高级工作之前,我们要求该人解释他们在假设的情况下如何做出反应。我们无法使用AI来做到这一点,因为当前的发动机的解释性有限,可以帮助人类了解AI模型如何得出他们的结论 - 尤其是在高水平的决策中。
AI容易产生幻觉,这意味着它可以自信地给出废话的答案。当相关数据不在其培训数据集中时,这尤其普遍。这就是为什么我们应该沉迷于使用AI产生应力测试场景的原因之一。
AI促进了那些希望将技术用于有害目的的人的工作,无论是找到法律和监管漏洞,犯罪,犯罪,从事恐怖主义还是进行民族国家攻击。这些人将不会遵循道德准则或法规。
法规将私人激励措施与社会利益保持一致(Dewatripont and Tirole 1994)。但是,传统的监管工具 - 胡萝卜和棍棒不适合AI。它不在乎奖金或惩罚。这就是为什么法规将必须从根本上进行更改的原因。
由于AI学习的方式,它观察了私营和公共部门所有其他AI发动机的决定。这意味着引擎优化以相互影响:AI发动机训练其他AI的好坏,从而导致无法检测到的反馈循环,从而增强了不良行为(参见Calvano等人,2019年)。人类无法实时观察或理解的这些隐藏的AI到AI渠道可能会导致跑步,流动性蒸发和危机。
如此难以防止危机的关键原因是系统对控制尝试的反应。金融机构不会放松地接受当局告诉他们的内容。不,他们战略性反应。更糟糕的是,我们不知道他们将如何应对未来的压力。我怀疑他们甚至不认识自己。公共部门和私营部门参与者对极端压力的反应功能大多是未知的。
这就是我们几乎没有关于极端事件的数据的原因之一。另一个是危机在细节上都是独一无二的。它们也是不可避免的,因为学到的教训暗示我们在每次危机后都会改变我们操作系统的方式。不稳定性的力量在我们不看的地方出现。
AI取决于数据。虽然金融系统每天产生大量数据,但问题是,大部分是来自系统成果的分布的中间,而不是来自尾巴。危机都是关于尾巴的。
缺乏数据会驱动幻觉,并导致错误的风险。因为我们对极端财务系统成果的数据很少,并且由于每个危机都是独一无二的,因此AI无法从过去的压力中学到太多。而且,它对最重要的因果关系一无所知。确实,这样的问题与AI的好处相反。当最需要AI时,它最少知道,导致错误的风险。
AI对稳定的威胁进一步受风险单养殖的影响,这始终是繁荣和胸围的关键驱动力。人工智能技术具有重要的规模经济,这是由人力资本,数据和计算的互补性驱动的。三个供应商将主导AI财务分析领域,每个供应商在其特定领域几乎垄断。当大多数私营和公共部门中的大多数人都别无选择,只能从单个供应商那里了解金融格局时,就会出现对金融稳定的威胁。结果是风险单一文化。我们膨胀了相同的气泡,错过了同样的系统性漏洞。人类是异质的,因此面对严重的不可预见的事件,可能会更稳定。
AI速度和金融危机
面对冲击时,金融机构有两种选择:运行(即稳定)或留下(即稳定)。在这里,人工智能的力量对系统的损害有效,尤其是因为整个行业中的AI将迅速而集体地做出相同的决定。
当冲击不太严重时,吸收甚至与之交易是最佳的。随着AI发动机迅速汇聚在停留平衡时,它们通过在危机太严重之前将地板放置在市场下而成为稳定的力量。
相反,如果避免破产需要快速,决定性的行动,例如销售到下降的市场并破坏金融体系,AI发动机将集体做到这一点。每个发动机都希望通过第一个运行来最大程度地减少损失。最后一个行动面临破产。发动机将尽快销售,打电话给贷款,并运行扳机。这将使危机在恶性循环中变得更糟。
人工智能的速度和效率意味着AI危机将是快速而恶毒的(Danielsson和Uthemann 2024)。过去几天和几周的时间可能需要几分钟或几个小时。
政策选择
预防和减轻金融危机的常规机制可能在AI驱动的市场中不起作用。此外,如果当局似乎没有准备好应对AI引起的冲击,那本身就可能使危机更有可能。
当局需要五个关键功能来有效回应AI:
- 建立内部AI专业知识并建立或获取自己的AI系统。这对于理解AI,发现新兴风险并迅速对市场中断做出反应至关重要。
- 使AI成为财务稳定性部门的核心功能,而不是将AI影响分析放在统计或IT部门中。
- 获取可以直接与金融机构的AI发动机接口的AI系统。现在,大部分私营部门财务都是自动化的。这些AI-to-ai API链接允许对微观调节进行基准测试,更快地检测压力以及对自动决策的更透明洞察力。
- 设置自动触发流动性设施。由于下一个危机将如此之快,因此银行AI可能已经采取行动,直到银行首席执行官有机会接电话来回应中央银行州长的电话。现有的常规流动性设施可能太慢了,因此必要自动触发设施。
- 将关键AI功能外包给第三方供应商。这将弥合当局无法在内部发展必要的技术能力所致的差距。但是,外包会产生司法管辖区和集中风险,并可能阻碍授权人员对AI技能的必要建立。
结论
人工智能将为金融体系带来可观的收益 - 更高的效率,提高风险评估以及消费者的成本较低。但这也引入了不应忽略的新稳定风险。监管框架需要重新思考,必须调整风险管理工具,并且当局必须准备按照AI规定的速度行动。
当局如何选择响应将对下一个AI危机的可能性和严重性产生重大影响。
参考
Calvano,E,V Denicolo,G Calzolari和S Pastorello(2019),人工智能,算法定价和勾结2月3日,voxeu.org。
Danielsson,J和Uthemann(2024),人工智能金融危机7月26日,Voxeu.org。
Dewatripont,M和J Tirole(1994),银行的审慎监管,卷。6,马萨诸塞州剑桥:麻省理工学院出版社。
Norvig,P和S Russell(2021),人工智能:一种现代方法,伦敦:皮尔逊。
Scheurer,J,M Balesni和M Hobbhahn(2024),技术报告:大语言模型可以在压力下策略性地欺骗其用户。