作者:Jennifer Rangel
随着人工智能(AI)的迅速发展,州立法机关一直在试图跟上技术的进步激增。最近,得克萨斯州颁布了参议院法案(SB)815,这是一项法律,对使用AI在利用率审查(UR)和覆盖范围确定中施加了更大的限制。这不是第一个解决AI在UR和保险环境中使用的州,因为加利福尼亚州州长Gavin Newsom在2024年9月28日批准了类似的法案。实际上,预计加利福尼亚州法律将对保险公司的探险和覆盖范围确定效率以及其他信息的规定树立全国性的优先级,并确定覆盖率确定的效率先前报道由荷兰与骑士作者。随着2026年1月1日生效,得克萨斯州保险景观中对AI的即将限制将影响医疗保健提供者和保险公司在全州范围内采取行程。
保险公司已开始研究基于AI的算法来加快医疗必要性确定,这是健康计划通过该过程考虑,批准或拒绝特定患者服务的过程的一部分。但是,与加利福尼亚州和其他州一样,得克萨斯州已经认识到持续人类审查的重要性。
新修订的得克萨斯州法律规定,您的代理商不得使用自动决策系统整体或部分做出不利的决定。不利的确定包括确定提供或建议提供给患者的医疗服务不是医疗或适当的,或者是实验性或研究性的。
尽管如此,法律并不禁止使用算法,AI系统或自动化决策系统来进行管理支持或欺诈检测功能。取而代之的是,该修正案将AI系统定义为任何基于机器学习的系统,该系统会从输入中渗透,从而收到了如何生成可能影响物理或虚拟环境的内容,决策,预测和建议。自动决策系统是指一种算法,其中包括使用基于数据的分析来制作,建议或建议某些确定,决策,判断或结论的算法。
重要的是,提供给被保险人的有关不利确定的通知必须包括筛选标准的来源的描述和用于做出不良确定的审查程序。此外,可以随时对在UR中使用AI,以确保符合SB 815规定的严格监管标准。
与加利福尼亚法律的预测后果相似,只有时间才能证明将AI整合到UR过程中是否会被证明是有益的。尽管AI通常试图简化和加快决策,考虑到法规所施加的局限性,但由于不良测定将需要基于AI的算法和技术以外的审查程序,AI的影响可能会减少。
重要的是,必须将AI用于您的决策中,以进行行政支持,欺诈和滥用侦查,并通过人类的监督和审查进行滥用,并在被保险人的通知中披露。对于计划在德克萨斯州使用AI为UR的保险公司,可能会进行强有力的监督,并有可能对AI做出的不良决定进行审查,以确保最终确定不是技术错误的缺陷结果。在不久的将来,其他州可能会遵循德克萨斯州和加利福尼亚州制定以AI为中心的法规。
请继续关注更新,因为随着这种不断发展的监管格局的潜在能力和生成AI的保险范围审查的缺陷,继续发展。有关更多信息或问题,请联系作者。