快速命中
- 使用自动化技术来做出劳动力决策,根据现有的反歧视法律(例如第七章,ADEA和ADA)提出了重大的法律风险,因为算法的偏见可以导致歧视的指控。
- 算法人力资源软件具有独特的风险,因为与人类判断力不同,它扩大了潜在伤害的规模。与偏见的个人决定相比,单个偏见的算法会影响成千上万的候选人或员工,从而呈指数增长的责任风险。
- 积极的特权软件审核对于缓解法律风险和监视AI在做出劳动力决策的有效性至关重要。
什么是自动化技术工具,AI如何联系?
在就业环境中,算法或自动化的人力资源工具是指利用预定义规则通过算法运行数据来协助各种人力资源功能的软件系统。这些工具的范围从简单的基于规则的公式系统到更先进的生成AI驱动技术。与传统算法基于固定的,明确的说明来处理数据并做出决策的传统算法不同,生成的AI系统不同,因为它们可以从数据中学习,随着时间的推移进行适应并进行自主调整,而不会限于预定义的规则。
雇主以多种方式使用这些工具来自动化和增强人力资源功能。一些例子:
- 申请人跟踪系统(ATS)经常使用算法与位置描述或等级简历相比,通过将申请人的技能彼此进行比较。
- 基于技能的搜索引擎依靠算法将基于其简历中的资格,经验和关键字的求职者匹配。
- AI驱动的访谈平台在视频访谈中评估候选人的回答,评估面部表情,语气和语言,以预测技能,健康或成功可能性之类的可能性。
- 自动绩效评估系统可以分析员工数据,例如生产力指标和反馈,以提供个人绩效的评分。
- AI系统可以在电话中聆听以评分员工和客户互动,这是客户服务和销售行业中经常使用的功能。
- AI系统可以作为招聘过程的一部分分析背景检查信息。
- 自动化技术可以纳入薪酬流程中,以预测薪水,评估市场公平或评估薪资股权。
- 自动化系统可以由雇主或候选人在招聘过程中用于调度,笔记或其他物流。
- AI模型可以分析历史招聘和员工数据,以预测哪些候选人最有可能在角色中取得成功,否则哪些新员工可能有早期营业额的风险。
根据现行法律,AI责任风险
AI驱动的劳动力决策受到各种就业法的涵盖,雇主面临着越来越多的机构调查和与他们在就业中使用AI有关的诉讼。一些关键的法律框架包括:
- 标题VII:标题VII禁止根据种族,颜色,宗教,性别或民族来歧视就业实践。在第七章中,雇主可能对对受保护阶级成员的不成比例,不利影响的面部中性实践承担责任。这包括AI系统做出的决定。即使AI系统被设计为中立,如果它对受保护的阶级具有歧视性影响,则可以根据不同影响理论承担责任。而现任政府已指示联邦机构剥夺不同的影响理论,根据联邦,州和地方反歧视法律,它仍然是可行的法律理论。如果AI系统提供的评估被人类决策者用作众多因素之一,则它们也可以促进不同的治疗歧视风险。
- ADA:如果AI系统筛选出残疾人,他们可能会违反《美国残疾人法》(ADA)。至关重要的是,基于AI的系统是可以访问的,并且雇主提供合理的住宿,以避免歧视残疾人。
- ADEA:《就业法》(ADEA)的年龄歧视禁止对申请人和40岁以上的申请人歧视。
- 同等薪酬法:考虑补偿和薪水数据的AI工具可能容易复制过去的薪水差异。使用人工智能的雇主必须确保其系统不会创建或永久性地基于性别的薪酬不平等,否则他们可能会违反《平等薪酬法》。
- 欧盟AI法案:这全面的立法旨在确保整个欧盟的人工智能安全和道德使用。它将雇主在工作场所使用AI是潜在的高风险,并施加了继续使用的义务,以及对违规行为的潜在处罚。
- 州和地方法律:尚无联邦AI立法,但是许多州和地区有通过或者建议的人工智能立法和法规,涵盖视频访谈,面部识别软件,自动就业决策工具(AEDTS)的偏见审核以及强大的通知和披露要求。特朗普政府扭转了拜登时代的指导在AI上,并强调需要最小的障碍来促进AI创新,并可能介入以填补监管差距。此外,现有的州和地方反歧视法也为雇主造成了责任风险。
- 数据隐私法:AI还暗示了许多其他类型的法律,包括国际,州和地方法律数据隐私,这为雇主创造了另一个潜在的风险领域。
算法透明度和问责制的挑战
在劳动力决策中使用AI最重要的挑战之一是算法如何做出决策缺乏透明度。与可以解释其推理的人类决策者不同,生成的AI系统作为黑匣子运作,即使不是不可能,雇主也很难理解或捍卫如何达成决定。
这种不透明会产生重大的法律风险。如果没有清楚地了解算法如何得出其结论,可能很难防御歧视主张。如果公司不能为为什么AI系统做出特定决定提供明确的理由,那么它可能面临监管行动或法律责任。
算法系统通常针对所有候选者应用相同的公式,从而在比较中产生相对一致性。对于生成的AI系统,存在更大的复杂性,因为随着系统吸收更多信息,判断和标准随着时间而变化。结果,适用于一个候选人或雇员的决策与在不同时间点做出的决策有所不同。
缓解法律风险:AI审核,劳动力分析和偏见检测
尽管潜在的法律风险很大,但雇主可能需要采取一些积极的步骤来减轻对算法偏见和歧视索赔的影响。这些步骤包括:
- 确保有强大的政策管理AI使用和相关问题,例如透明度,非歧视和数据隐私
- 对兽医AI供应商进行尽职调查,而不是使用任何AI工具,而无需透彻了解其预期目的和影响
- 培训人力资源,人才获取和经理,以适当使用AI工具
- 继续对最终劳动力决策进行人类监督,因此AI不是决策者
- 确保遵守所有申请人和员工的通知和披露要求,以及偏见审计要求
- 提供合理的住宿
- 通过特权劳动力分析定期监视AI工具,以确保对任何受保护的群体没有不同的影响
- 创建一个正在进行的监控计划,以确保人类对影响,隐私,法律风险等的监督。
在法律特权下实施常规和正在进行的审计是确保以合法辩护的方式使用AI的最关键步骤之一。这些审核可能包括监视对受保护组的不同影响的算法。如果雇用算法不成比例地将个体筛选出一个受保护的群体,则雇主可能希望采取措施纠正这些偏见,然后才能导致歧视指控或诉讼。鉴于与数量相关的风险,并确保尽快纠正措施,公司可能希望按照(每月,每季度等)进行这些特权审核。
AI景观是快速发展,因此雇主可能希望继续跟踪不断变化的法律法规,以实施政策和程序,以确保在工作场所中AI的安全,合规性和非歧视性使用,并通过进行特权,积极主动的分析来降低风险,以评估AI工具的偏见工具。
Ogletree Deakins技术实践小组和劳动力分析和合规实践小组将继续监视发展,并将提供有关就业法,,,,技术, 和劳动力分析和合规性博客作为其他信息可用。