作者:Michael AbbottEmail713.276.5571Bio and Articles
新的人工智能 (AI) 法规和潜在的信托影响
2025 年 1 月 15 日星期三
受托人应了解人工智能的最新发展,包括新兴和最近的州法律变化、州和联邦政府对监管人工智能的兴趣增加,以及人工智能在 ERISA 诉讼中的作用。尽管人们的注意力集中在人工智能对退休计划的影响上,我们之前讨论过这一点 这里,所有类型的计划受托人,包括健康和福利计划,也必须随时了解人工智能的最新发展。
许多州最近制定了针对人工智能的新法律,其中一些法律规范了雇主的人力资源决策流程。主要例子包括:
有关加州新人工智能法的更多信息,请参阅 Foley 的客户警报, 解读加州最近的一系列人工智能法律。
有关伊利诺伊州新人工智能法的更多信息,请参阅 Foley 的客户警报, 伊利诺伊州颁布立法,防止人工智能在就业活动中产生歧视性影响。
有关科罗拉多州新人工智能法的更多信息,请参阅 Foley 的客户警报, 监管就业决策中的人工智能:2025 年的前景。
虽然这些法律并不专门针对员工福利计划,但它们反映了国家广泛监管人力资源实践的趋势,旨在规范人力资源决策过程,并且是不断发展的监管环境的一部分。2024 年提出了数百项额外的州法案,以及与人工智能相关的行政命令,这预示着 2025 年即将出台更多监管。这些法律如何与员工福利计划相交叉,以及联邦 ERISA 优先权是否适用于各州的监管尝试,这些问题仍然存在。
联邦政府最近发布了旨在防止在提供某些医疗服务时出现歧视的指南,并完成了涉及金融服务行业的潜在人工智能法规的信息请求(RFI)。
第 1557 条禁止在接受联邦财政援助的健康计划和活动中基于种族、肤色、国籍、性别、年龄或残疾的歧视。OCR 的指南强调,医疗保健提供者、健康计划和其他涵盖的实体不能以对患者造成歧视性影响的方式使用人工智能工具。这包括与诊断、治疗和资源分配相关的决策。雇主和计划发起人应注意,本指南适用于一部分健康计划,包括属于第 1557 条规定的计划,但不适用于所有雇主资助的健康计划。
正在使用人工智能来识别针对计划发起人和受托人的潜在 ERISA 索赔。仅举一个例子,人工智能平台 Darrow AI 声称:
– 旨在简化对来自计划文件、监管文件和法庭案件的大量数据的分析。我们的技术可以准确查明差异、违反信托义务以及其他《雇员退休收入保障法》(ERISA) 违规行为。利用我们的高级分析功能,您可以快速识别潜在的索赔,评估其财务影响,并建立可靠的案例……您可以有效地为员工辩护,就其退休和健康福利寻求正义。
此外,该人工智能平台声称,它可以通过分析不同的数据源(包括新闻、SEC 文件、社交网络、学术论文和其他第三方来源)来发现影响多种类型雇主(无论是小企业还是大公司)的违规行为。
值得注意的是,健康和福利计划也正在成为人工智能驱动的 ERISA 诉讼的重点领域。人工智能工具用于分析索赔数据、提供者网络和行政决策,有可能识别福利确定中的歧视性做法或不一致之处。例如,人工智能可以突出显示事先授权中的偏见模式或心理健康平等法应用方面的差异。
这些工具的日益复杂化增加了受托人的风险,因为他们现在必须考虑潜在索赔人将使用人工智能以前所未有的精确度审查他们的决策和计划运营的可能性。
为了应对这一不断变化的形势,受托人应采取积极主动的措施来管理人工智能相关风险,同时利用这些技术的优势:
受托人必须对人工智能在员工福利计划中日益重要的作用保持警惕,特别是在监管不确定的情况下。采取主动措施并采用稳健的风险管理策略可以帮助降低风险并确保遵守当前和预期的法律标准。通过致力于勤勉和透明度,受托人可以利用人工智能的优势,同时维护计划参与者的利益。Foley & Lardner LLP 拥有人工智能、退休计划、网络安全、劳动和就业、金融、金融科技、监管事务、医疗保健和 ERISA 领域的专家。他们定期就与这些以及其他人工智能相关问题相关的潜在风险和责任向受托人提供建议。