有心的人工智能:人工智能如何发现偏见

发布日期: 2021/09/15

当今具有前瞻性思维的企业,尤其是他们的人力资源团队,他们深谙人工智能和机器学习的好处。许多人已经开始利用这些技术,来支持他们最重要的业务需求,包括自动化流程、通过数据分析获得洞察力,以及与客户和员工互动。

在一个职位列表可以轻松吸引数千名求职者的时代,人工智能的使用,对忙碌的人力资源专业人士来说是一个福音。阅读如此多的简历是一项艰巨的任务,无论您是在只有几个职位发布的小公司,还是在拥有数百个职位的工业巨头。

利用人工智能来阅读和评估求职者,可以使这项工作更轻松、更高效。

1、招聘真的会没有偏见吗

AI 模型的好坏,取决于它们所训练的数据集。亚马逊的系统是根据他们自己的招聘数据进行训练的,但由于大多数员工是男性,该算法将成功的申请与面向男性的词联系起来。

倍罗智能能够为HR提供所需的候选人画像人才画像,并为大型企业提供新员工画像。此外,简历解析技术和知识图谱技术,可以帮助HR快速筛选候选人。

人工智能系统也经常歧视有色人种。性别识别算法最准确的是白人男性、最不准确的是黑人女性。如果我们无法准确识别性别,那么我们也无法正确识别人脸。

2、缓解挑战

人力资源专业人员必须了解人工智能系统带来的挑战,以及如何缓解这些挑战。

首先,人力资源团队需要批判性地思考人工智能系统的使用。此外,人力资源团队还需要仔细审查他们的审计,以确保他们正在收集有关受保护群体的信息,包括种族和性别。但是,即使没有有关受保护类别的明确数据,训练过程也可以产生具有性别或种族偏见的模型;可如果没有这些数据,就很难暴露这种偏见。

人力资源团队还必须了解AI可以做什么以及不能做什么。这些团队不必了解算法,但他们确实需要知道训练数据中可以反映哪些类型的偏见,它们如何被编码到机构中,以及人工智能系统如何进一步推动这些偏见。

text

3、筛选了谁的数据?

人力资源专业人员不是技术专家,但他们非常了解偏见和系统性问题。这种洞察力将帮助他们以公平和公正的方式在 HR 中利用 AI。

同时,企业开始实施AI人力资源计划时,需要牢记以下几个关键点:大多数人工智能系统都可能存在偏见和不公平;人类应该做出最终的招聘和人力资源决策,而不是人工智能系统;了解 AI 的工作原理、它如何放大偏见以及如何最好地审核其结果。

text

AI招聘助手申请试用 AI招聘助手申请试用