排名算法广泛用于LinkedIn,TaskRabbit和Fiverr等招聘平台。由于它们容易产生偏见,因此许多此类平台已采取步骤来确保它们是公平,平衡和可预测的。但是,根据哈佛大学和柏林理工大学的研究人员的一项研究,该研究检查了“公平”排名算法对性别的影响,即使表面上偏见的排名算法也不一致地对待某些求职者。
研究人员专门研究了TaskRabbit上使用的算法,该市场将用户与清洗,搬运和运送等演出相匹配。正如他们在描述其工作的论文中提到的那样,TaskRabbit利用排名算法对可用的工作人员进行排序,并生成适合给定任务的候选人的排名列表。由于它直接影响生计,因此如果对基础算法有偏见,则可能会对代表性不足的人群产生不利影响。在旧金山这样的城市,这种影响尤其严重,那里的零工很可能是有色人种和移民。
哈佛大学的合著者研究了偏见(尤其是性别偏见)如何在TaskRabbit中渗透并影响现实世界的招聘决策。他们分析了这样做的各种偏见来源,包括排名算法的类型,工作环境以及雇主固有的偏见,所有这些因素相互影响。
研究人员使用TaskRabbit的真实数据对通过Amazon Mechanical Turk招募的1,079人进行了调查。每个受访者都是“代理人雇主”,要求他们选择候选人以帮助他们完成三项不同的任务,即购物,活动人员配备和搬家援助。为此,向新兵展示了每个任务的10名排名候选人,并要求他们在每种情况下选择前4名。然后,为他们提供了由以下三种排名算法之一生成的排名列表:一种是对候选人进行随机排名(RandomRanking),一种是根据其TaskRabbit分数对候选人进行排名(RabbitRanking),一种是“公平”的排名算法(FairDet-Greedy) -或将候选人的性别从男性转换为女性,反之亦然的算法版本。
在他们的分析中,研究人员发现,尽管FairDet-Greedy之类的公平排名算法有助于增加聘用人数不足的候选人的数量,但其有效性受到雇主偏爱特定性别的工作环境的限制。例如,与男性相比,受访者不太可能选择女性出差工作,而与男性相比,雇用男性担任活动人员的可能性也较小。
研究人员还报告说,当代表性不足的候选人(例如女性)与代表性过多的候选人(例如男性)相似时,他们发现公平排名更为有效。但是他们还发现,当雇主试图代表“人口平等”时,即当他们积极尝试但有时无法做出多样化选择时,公平排名对增加代表权无效。
“我们的研究表明,公平排名可以成功地增加代表性不足的候选人获得的机会。但是,我们发现公平排名的有效性在工作环境和候选人特征之间并不一致,这表明在所有情况下提高代表性都可能不够。”“我们希望这项工作代表了迈向更好的理解的一步,算法工具如何(或不能)减少招聘环境中的性别偏见。”
聘用算法方面的偏见并不是什么新鲜事-在最近的一个例子中,亚马逊取消了招聘引擎,该引擎明显偏向女性。但是,鉴于越来越多的公司(包括希尔顿和高盛(Goldman Sachs))正在寻求使部分招聘流程自动化的事实,这一点变得越来越重要。事实上,根据人才软件公司CareerBuilder在2017年进行的一项调查,约55%的美国人力资源经理表示,人工智能将在未来五年内成为其日常工作的一部分。
布鲁金斯学会(Brookings Institution)的一份报告提出了几种减少聘用算法偏差的方法,其中包括确定可在整个人群中进行预测的一系列模型输入,并开发包含来自不同背景的成功候选人实例的各种数据集。但是报告还指出,这些步骤不一定必须通过消除模型的偏差来实现。
“算法招聘带来了新的承诺,机遇和风险。任其发展,算法可以使现有招聘实践中存在的偏见和歧视永久存在。”布鲁金斯报告说。“使用这些算法工具时,确实存在针对就业歧视的法律保护;但是,算法提出了许多未解决的政策问题,值得进一步关注。”