乔·拜登总统发行安全,安全和值得信赖的人工智能订单在2023年,他的政府不仅认识到人工智能(AI)的非凡承诺,而且承认了对技术的不负责任使用的风险。总统确定的风险包括影响消费者,求职者和员工的活动中的算法歧视。
自执行命令以来,许多州提出了专注于管理AI歧视风险的法案。联邦政府还发布了几本备忘录,旨在指导其机构在新技术方面进行导航,而不必歧视这些机构的服务。在AI开发人员和部署者上。以下是2024年拟议和颁布的州法规的著名联邦指导和摘要的快照,其重点是管理AI歧视的风险。
反歧视消费者保护立法
-
颁布的州法
- 科罗拉多州:2024年5月,科罗拉多州S.B.24-205是人工智能的消费者保护措施,已签署为法律。该法律中的几项规定旨在确保AI计划的开发人员和部署者使用合理的护理来保护消费者免受因使用AI计划而引起的任何已知或合理可预见的算法歧视风险。[1]克罗威尔提供了这项立法的摘要这里。
- 新泽西州:2024年1月,新泽西州参议院第332号法案(一项消费者数据隐私法案)被签署为法律。SB 332需要确定处理个人数据的目的和手段的控制器或个人,以通知消费者(新泽西州居民),当控制者收集并向第三方披露个人数据时。法律还要求控制者为消费者提供选择退出该收集或披露其数据的能力。SB 332禁止控制者处理消费者的个人数据违反州或联邦法律,禁止对消费者进行非法歧视。[2]
-
拟议的州法
- 俄克拉荷马州:2024年2月,议员提出了《道德人工智能法》。该法案要求自动决策工具的开发人员和部署者进行年度影响评估,包括对算法的风险评估,此外,开发人员必须为操作员提供有关算法歧视风险的信息,并使公开可用的类型摘要:1)开发人员提供的自动决策工具和2)开发人员如何在其提供的工具中管理算法歧视的风险。[3]
就业和劳动立法
-
联邦指导
- 2024年4月,劳工部(DOL)联邦合同合规计划办公室为联邦承包商发布了有关在雇用和就业实践中使用人工智能的指南。该指南提醒联邦承包商和分包商,使用人工智能并不能免除他们的平等就业机会(EEO)合规性。该指南还提醒联邦承包商,他们必须采取平权行动,以确保根据种族,颜色,宗教,性别,性取向,性别认同,国民来源,残疾或身份作为受保护的退伍军人的种族,宗教,性别,性别认同,性别认同,性别认同,性别认同或地位,对员工和申请人的对待不同。。联邦承包商还必须对AI偏见计划进行常规独立评估。[4]
- 2024年10月,劳动部为开发商和雇主发布了AI最佳实践清单,旨在帮助雇主使用AI计划,同时保护雇员免受非法歧视。该指南清楚地表明,在部署之前,雇主应根据种族,颜色,国籍,宗教,宗教,性别,残疾,年龄,遗传信息和其他受保护的基础对AI系统的歧视影响进行审核,并建议公开审计结果。劳工部还建议限制AI在做出重大就业决策中的作用,并敦促公司确保对AI系统支持的任何决定的有意义的人类监督。必须对程序进行培训,以便它们可以正确解释AI输出。[5]
-
颁布的州法
- 伊利诺伊州:2024年8月,伊利诺伊州修改了他们的人权法案,指出在雇用决策中使用预测数据分析的雇主可能不会考虑申请人受保护的阶级地位。根据修正案,禁止雇主使用AI,该AI具有使雇员在招聘,雇用,晋升,出院,纪律或雇用条款,特权或雇用条件方面的歧视。此外,该修正案禁止雇主使用邮政编码作为受保护类别的代理。[6]克罗威尔提供了修正案的摘要这里。
-
拟议的州法
- 马里兰州:HB1255于2024年2月推出,限制了雇主使用自动就业决策工具来做出招聘决策。该法案允许使用该工具,如果影响评估确定该工具不会导致非法歧视或基于其实际或可感知的特征对个人产生非法不同的影响。[7]
-
- 新泽西州:A3854于2024年2月推出,旨在规范自动就业决策工具,以最终最大程度地减少使用此类工具可能导致的任何就业歧视。[8]A3854通常反映了纽约市的地方法律144,克罗威尔总结了这里。一个
2024年4月,新泽西州参议院提出了S3015,该S3015在招聘过程中调节AI在视频访谈中使用。该法案将要求雇主每年向新泽西州劳工和劳动力开发部报告申请者的种族和族裔,这些申请者有机会申请并获得职位。[9]
一般联邦指导和州立法联邦指导
-
2024年3月,管理和预算办公室发布了备忘录M-24-10,推进了用于代理人工智能的机构使用的治理,创新和风险管理。
- 该备忘录为联邦机构提供了指导,并使用影响权利的人工智能向机构出售AI计划的供应商。[10]根据备忘录,机构必须识别和评估AI计划对公平和公平性的影响,并在存在时减轻任何算法歧视。克罗威尔提供了该指南的摘要这里。
-
拟议的州法
- 伊利诺伊州:HB 5116于2024年2月推出,要求自动决策工具的部署者保护算法歧视的可预见风险,并对评估进行影响评估,并应提交给国家总检察长,后执行违反歧视法的行为。该法案适用于就业以及基于教育和住房的决定。[11]
- 纽约:2024年2月,纽约议会推出了A9149,该国会要求保险公司在纽约撰写事故和健康保险,以及其他保险公司,以通知被保险人和参与者有关在利用审查过程中使用人工智能的情况。拟议的立法要求这些实体将其基于AI的算法提交给州金融服务部,该算法必须证明该算法根据人的种族,颜色,宗教信条,祖先,年龄,性别,性别,性别,性别,性别,性别,性别,性别,使算法最大程度地降低了偏见的风险。,性别,国籍或残疾。提议违反法律的罚款包括吊销或吊销,罚款和拒绝签发新许可证。[12]
- 俄克拉荷马州:2024年2月,议员们提出了俄克拉荷马州人工智能法案。法案规定俄克拉荷马州居民不得受到根据年龄,种族,国籍,性别,残疾,怀孕,宗教信仰,退伍军人身份或其他受合法保护的阶级来区分算法或模型偏见。[13]
- 佛蒙特:在2024年1月,引入了H.710,除其他外,还要求高危人工智能系统的开发人员和部署者(AI系统做出或成为做出结果决定的控制因素),以避免合理的护理以避免算法歧视的风险,特别是施加众多披露要求。[14]
- 弗吉尼亚:2024年2月,弗吉尼亚州立法者介绍了人工智能开发商该法案使开发商或供应商出售人工智能系统而不提供有关风险评估的足够信息,这是非法的。AI计划的部署者必须采取合理的谨慎措施,以避免算法歧视的风险并实施风险管理政策。[15]