发布日期: 8/31/2020, 1:44:17 AM
阅读量: 4962731
AI招聘的一个主要功能是它能够阻止无意识的偏见。最近的一起诉讼提醒我们为什么在招聘过程中需要避免偏见:Palantir,一家软件初创公司,向劳工部的联邦合同合规计划办公室(OFCCP)支付了170万美元,以解决种族歧视诉讼。
与EEOC准则类似,作为联邦政府承包商,Palantir不能基于种族,肤色,宗教,性别,性取向,性别认同,国籍,残疾或与退伍军人进行歧视。
劳工部指责帕兰蒂尔不合比例地淘汰合格的亚洲工程职位申请人。该诉讼称,亚裔申请人尽管具有与白人申请人相同的资格,但在简历筛选和电话面试阶段仍被常规淘汰。
作为许多人中只有一个引人注目的雇用歧视案件,这一最新诉讼使人们明白了合规性很重要的原因。
招聘期间歧视的很多责任归咎于无意识的偏见。潜意识的偏见是“ 每个人都容易受到攻击的,用于处理信息并快速做出决定的自动的,头脑敏捷的捷径 ” 。
换句话说,无意识的偏见是根深蒂固的人类特质。这就是为什么一些专家认为,消除无意识的偏见需要一种非人类的解决方案:技术。
以下是招聘用AI可以如何帮助您避免在招聘过程中无意识的偏见。
研究发现,[R esumes英语冠冕堂皇的名称收到面试40%,往往比相同的请求恢复与中国,印度,巴基斯坦或名称。
Palantir亚洲歧视案是这种偏见的现实例子。
招聘中的其他常见偏见包括:
相似吸引效应:这是人们寻找与他们一样的人的趋势。事实相反,“对立面吸引”是一个神话:我们倾向于喜欢与我们相似的人。关于雇用实践的研究发现,尽管爱好和生活经验与工作绩效无关,但雇主更喜欢在爱好和生活经历方面与自己相似的候选人。
确认偏差:当人们偏爱确认其信念的信息,而忽略或贬低不肯定的信息时,就会发生这种偏差。确认偏差是招聘经理在面试中向不同的候选人提出不同问题的原因之一。因为他们倾向于问一些问题,以确认他们对每个候选人的独特信念,所以这通常导致将苹果与桔子进行比较。
光晕效应:当我们假设人们善于做活动A而他们善于做活动B时,就会产生这种偏见。在招聘中,光环效应是在招聘经理喜欢候选人并将其用作假设他或她将胜任该工作而不是客观地评估其技能和能力的基础上发生的。
畅销书《思考,快和慢》解释了人脑的双重系统理论。系统1快速,本能且毫不费力。系统2速度慢,刻意且费力。
无意识的偏见是系统1思维的产物。由于无意识的偏见会在没有意识的情况下影响我们的思维和决策,因此会干扰我们的真实意图。
无意识的偏见是如此难以克服,因为它们是自动的,在我们不知情的情况下采取行动,并且有很多这样的偏见:Wikipedia列出了超过180种影响我们的决策,社交和记忆偏见。
用于招聘的AI是将人工智能(例如机器学习,自然语言处理和情感分析)应用于招聘功能。
人工智能可以通过两种方式减少无意识的偏见。
通过使用大量数据来招聘AI资源并筛选候选人。它使用算法将这些数据点结合起来,以预测谁将是最佳候选人。在如此大规模的处理信息时,人的大脑无法竞争。
AI客观地评估了这些数据点-摆脱了人类容易受到的假设,偏见和精神疲劳。
与人类相比,AI的一个主要优势是可以测试和验证其结果。理想的求职者简介通常包含人们认为构成成功员工的技能,特质和资格的列表。但是通常,这些资格从未经过测试以查看它们是否与在职绩效相关。
AI可以根据成功员工的实际资格创建个人资料,该个人资料提供的硬数据可以验证或否定有关应聘者所寻找内容的信念。
可以对招聘AI进行编程,以忽略有关候选人的人口统计信息,例如性别,种族和年龄,这些信息已显示出会干扰人类的决策。
甚至可以对它进行编程,以忽略细节,例如就读学校的名称和邮政编码,这些细节可能与与人口统计有关的信息(例如种族和社会经济地位)相关联。 这就是金融服务行业中AI软件的使用方式。要求银行确保其算法不会基于与受保护的人口变量(例如种族和性别)相关的数据得出结果。
训练AI可以发现先前行为的模式。这意味着AI可以了解招聘过程中可能已经存在的任何人为偏见(即使是无意识的)。
仍然必须进行人为监督,以确保AI不会根据我们提供的数据复制现有的偏见或引入新的偏见。
可以通过使用招聘软件对候选人进行排名和评分,然后评估这些候选人的人口统计数据,测试招聘的AI软件是否存在偏见。
伟大的事情是,如果AI确实在招聘中暴露出偏见,这将为您提供采取行动的机会。在AI的帮助下,我们可以利用人类的判断力和专业知识来决定如何解决任何偏见并改善我们的流程。