英语轻松读发新版了,欢迎下载、更新

新的人工智能 (AI) 法规和潜在的信托影响

2025-01-15 21:09:17 英文原文

作者:Michael AbbottEmail713.276.5571Bio and Articles

新的人工智能 (AI) 法规和潜在的信托影响

2025 年 1 月 15 日星期三

受托人应了解人工智能的最新发展,包括新兴和最近的州法律变化、州和联邦政府对监管人工智能的兴趣增加,以及人工智能在 ERISA 诉讼中的作用。尽管人们的注意力集中在人工智能对退休计划的影响上,我们之前讨论过这一点 这里,所有类型的计划受托人,包括健康和福利计划,也必须随时了解人工智能的最新发展。

最近的州法律变化

许多州最近制定了针对人工智能的新法律,其中一些法律规范了雇主的人力资源决策流程。主要例子包括:

  • 加利福尼亚州– 2024 年,加州颁布了 10 多项人工智能相关法律,涉及以下主题:
    • 将人工智能与包含姓名、地址或生物特征数据的数据集结合使用;
    • 如何使用人工智能向患者传达医疗保健信息;和
    • 人工智能驱动的医疗决策和事先授权。

有关加州新人工智能法的更多信息,请参阅 Foley 的客户警报, 解读加州最近的一系列人工智能法律

  • 伊利诺伊州– 伊利诺伊州通过立法,禁止雇主在就业活动中以导致歧视性影响的方式使用人工智能,无论其意图如何。根据法律,如果雇主要将人工智能用于任何与工作场所相关的目的,则必须向雇员和申请人发出通知。

有关伊利诺伊州新人工​​智能法的更多信息,请参阅 Foley 的客户警报, 伊利诺伊州颁布立法,防止人工智能在就业活动中产生歧视性影响

  • 科罗拉多州– 科罗拉多州人工智能法案 (CAIA) 于 2026 年 2 月 1 日生效,要求雇主在某些应用程序中使用人工智能时采取“合理谨慎”。

有关科罗拉多州新人工智能法的更多信息,请参阅 Foley 的客户警报, 监管就业决策中的人工智能:2025 年的前景

虽然这些法律并不专门针对员工福利计划,但它们反映了国家广泛监管人力资源实践的趋势,旨在规范人力资源决策过程,并且是不断发展的监管环境的一部分。2024 年提出了数百项额外的州法案,以及与人工智能相关的行政命令,这预示着 2025 年即将出台更多监管。这些法律如何与员工福利计划相交叉,以及联邦 ERISA 优先权是否适用于各州的监管尝试,这些问题仍然存在。

最近联邦政府的行动

联邦政府最近发布了旨在防止在提供某些医疗服务时出现歧视的指南,并完成了涉及金融服务行业的潜在人工智能法规的信息请求(RFI)。

  • 美国卫生与公众服务部 (HHS) 民权人工智能非歧视指南— HHS 通过其民权办公室 (OCR) 最近发布了一封“亲爱的同事”信,标题为“通过使用人工智能和其他新兴技术确保非歧视”。该指南强调了确保人工智能和其他决策支持工具在医疗保健领域的使用符合联邦非歧视法的重要性,特别是《平价医疗法案》(第 1557 条)第 1557 条的规定。

第 1557 条禁止在接受联邦财政援助的健康计划和活动中基于种族、肤色、国籍、性别、年龄或残疾的歧视。OCR 的指南强调,医疗保健提供者、健康计划和其他涵盖的实体不能以对患者造成歧视性影响的方式使用人工智能工具。这包括与诊断、治疗和资源分配相关的决策。雇主和计划发起人应注意,本指南适用于一部分健康计划,包括属于第 1557 条规定的计划,但不适用于所有雇主资助的健康计划。

  • 财政部发布人工智能监管征求意见书– 2024 年, 美国财政部发布了一份关于人工智能在金融服务领域的使用、机遇和风险的 RFI。RFI 包括几个关键考虑因素,包括解决人工智能偏见和歧视、消费者保护和数据隐私以及人工智能第三方用户面临的风险。尽管 RFI 尚未出台具体法规,但它强调了联邦政府对人工智能对金融和员工福利服务影响的关注。ERISA 行业委员会是一个代表美国大型雇主的非营利协会,作为员工福利计划发起人,该委员会评论说,人工智能已经被用于退休准备应用程序、聊天机器人、投资组合管理、交易执行和健康计划。未来的法规可能会针对这些及相关领域。

人工智能驱动的 ERISA 诉讼

正在使用人工智能来识别针对计划发起人和受托人的潜在 ERISA 索赔。仅举一个例子,人工智能平台 Darrow AI 声称:

– 旨在简化对来自计划文件、监管文件和法庭案件的大量数据的分析。我们的技术可以准确查明差异、违反信托义务以及其他《雇员退休收入保障法》(ERISA) 违规行为。利用我们的高级分析功能,您可以快速识别潜在的索赔,评估其财务影响,并建立可靠的案例……您可以有效地为员工辩护,就其退休和健康福利寻求正义。

此外,该人工智能平台声称,它可以通过分析不同的数据源(包括新闻、SEC 文件、社交网络、学术论文和其他第三方来源)来发现影响多种类型雇主(无论是小企业还是大公司)的违规行为。

值得注意的是,健康和福利计划也正在成为人工智能驱动的 ERISA 诉讼的重点领域。人工智能工具用于分析索赔数据、提供者网络和行政决策,有可能识别福利确定中的歧视性做法或不一致之处。例如,人工智能可以突出显示事先授权中的偏见模式或心理健康平等法应用方面的差异。

这些工具的日益复杂化增加了受托人的风险,因为他们现在必须考虑潜在索赔人将使用人工智能以前所未有的精确度审查他们的决策和计划运营的可能性。

受托人的后续步骤

为了应对这一不断变化的形势,受托人应采取积极主动的措施来管理人工智能相关风险,同时利用这些技术的优势:

  • 评估人工智能工具:对用于计划管理、参与者参与和合规性的人工智能工具进行正式评估。该评估包括对所涉及的算法、数据源和决策过程的检查,包括确保其产品经过评估是否符合非歧视标准,并且不会无意中产生有偏见的结果。
  • 审计服务提供商:对计划服务提供商进行全面审核,以评估他们对人工智能的使用。要求详细披露正在运行的人工智能系统,重点关注它们如何减少偏见、确保数据安全并遵守适用的法规。
  • 审查和更新政策:制定或修订内部政策和治理框架,以监督人工智能在运营规划中的使用以及非歧视法律的遵守情况。这些政策应概述有关人工智能技术的采用、监控和合规性的指导方针,从而确保与信托责任保持一致。
  • 加强风险缓解:
    • 信托责任保险:考虑获得或加强信托责任保险,以解决因使用人工智能而产生的潜在索赔。
    • 数据隐私和安全:加强数据隐私和安全措施,保护人工智能工具处理的敏感参与者信息。
    • 减少偏见:建立程序定期测试和验证人工智能工具是否存在偏见,确保遵守反歧视法。
  • 将人工智能考虑因素纳入提案请求 (RFP):选择供应商时,请在 RFP 中包含特定的 AI 相关标准。这可能要求供应商证明或证明遵守州和联邦法规,并遵守人工智能使用的行业最佳实践。
  • 监控法律和监管动态:随时了解新的州和联邦人工智能法规,以及与人工智能和 ERISA 诉讼相关的不断发展的判例法。建立例行法律审查流程,以评估这些发展对计划运营的影响。
  • 提供培训:对受托人、管理人员和相关人员进行教育,让他们了解人工智能在计划管理中的潜在风险和好处、新兴技术以及遵守适用法律的重要性。培训应概述法律义务、实施人工智能的最佳实践以及降低风险的策略。
  • 文件尽职调查:维护评估和跟踪人工智能工具的所有步骤的全面记录。这包括审计记录、供应商沟通和内部政策更新。清晰的文件可以在发生诉讼时作为重要的辩护。
  • 评估第 1557 条对您的计划的适用性:健康和福利计划受托人应确定您的组织的健康计划是否受第 1557 条的约束,以及 OCR 指南是否直接适用于您的运营,如果不适用,请确认并记录原因。

受托人必须对人工智能在员工福利计划中日益重要的作用保持警惕,特别是在监管不确定的情况下。采取主动措施并采用稳健的风险管理策略可以帮助降低风险并确保遵守当前和预期的法律标准。通过致力于勤勉和透明度,受托人可以利用人工智能的优势,同时维护计划参与者的利益。Foley & Lardner LLP 拥有人工智能、退休计划、网络安全、劳动和就业、金融、金融科技、监管事务、医疗保健和 ERISA 领域的专家。他们定期就与这些以及其他人工智能相关问题相关的潜在风险和责任向受托人提供建议。

关于《新的人工智能 (AI) 法规和潜在的信托影响》的评论


暂无评论

发表评论

摘要

人工智能 (AI) 法规的最新发展正在影响各个部门的信托责任,特别是在员工福利计划方面。关键的州法律变化包括加利福尼亚州、伊利诺伊州和科罗拉多州的新人工智能法规,重点是禁止就业活动中的歧视性影响,并要求在使用人工智能进行人力资源决策时采取合理的谨慎态度。在联邦层面,美国卫生与公众服务部 (HHS) 的行动强调通过使用人工智能来遵守医疗保健领域的非歧视法。此外,简化《雇员退休收入保障法》诉讼的人工智能工具的兴起凸显了对受托人决策流程的更多审查。建议受托人评估人工智能工具、审计服务提供商、审查政策、加强风险缓解策略,并随时了解法律发展动态,以有效应对不断变化的形势。