上方“IEEE电气电子工程师”即可订阅公众号。网罗全球科技前沿动态,为科研创业打开脑洞。
Illustration: iStockphoto
据报道,两年前,亚马逊意识到系统已经开始偏爱男性求职者,而不公平对待女性求职者,继而把大多是男性应聘者的求职信息提交给了公司时,亚马逊取消了这样一个秘密的人工智能招聘工具。这一事件引发了人们对在招聘软件中使用机器学习的担忧,这种做法会使现有的偏见永久化甚至加剧。
现在,随着“Black Lives Matter”运动引发了有关劳动力歧视和公平问题的新讨论,许多初创企业正试图表明,人工智能驱动的招聘工具实际上可以在减轻人类偏见方面发挥积极作用,并有助于使招聘过程更加公平。
这些公司声称,通过对其人工智能模型的精心设计和培训,他们能够在招聘过程中明确解决各种系统偏差的来源。这并不是一个简单的任务:人工智能算法在性别、种族和信仰方面有着悠久的“无法公平对待”的历史。这些公司采取的策略包括从申请中清除识别信息,依靠匿名面试和技能测试,甚至调整招聘启事的措辞,以吸引尽可能多的求职者。
GapJumpers就是其中之一,它为求职者提供了一个平台,让他们参加旨在评估工作相关技能的“盲审”。这家位于旧金山的初创公司使用机器学习为每个候选人打分和排名,而不包括任何个人身份信息。联合创始人兼首席执行官Kedar Iyer表示,这种方法有助于减少传统上对简历的依赖,简历作为培训数据的来源“充满了偏见”,并避免了通过自动招聘的扩大范围无意中复制和传播此类偏见。
这种刻意减少歧视的做法可能会鼓励更多的公司尝试人工智能辅助招聘。随着Black Lives Matter运动获得广泛支持,GapJumpers发现潜在客户的查询量有所上升。Iyers说:“我们看到各种规模的公司都对此越来越感兴趣,为改进其多元化努力。”
AI with humans in the loop
亚马逊性别偏见人工智能的另一个教训是,仅仅关注系统的设计和培训是不够的:人工智能软件几乎总是需要不断的人工监督。对于开发人员和招聘人员来说,这意味着他们不能盲目相信人工智能工具的结果,他们需要了解背后的过程,不同的培训数据如何影响他们的行为,并监控偏差。
北卡罗来纳州信息技术和分析学教授Fay Cobb Payton说:“意外的后果之一将是延续这一历史趋势,尤其是在科技领域。” Payton和她的同事在去年发表在《在线信息评论》(Online Information Review)杂志上的一篇论文中,重点介绍了包括GapJumpers在内的几家公司,它们采取了“有意设计公正”的方法来招聘多元化的IT人才。
根据该论文的作者所描述,人工智能招聘工具可以执行一系列可能的行动。有些工具可能只是提供关于雇用哪种候选人的一般性建议,而另一些工具可能会向人力招聘人员推荐特定的申请人,有些工具甚至会对候选人进行积极的筛选和选择决定。但无论人工智能在招聘过程中扮演什么角色,人类都需要有能力评估系统的决策,并可能推翻这些决策。
Payton说:“我认为,humans in the loop不应该像算法建议的那样走到最后。humans in the loop是指从设计到雇佣的整个循环过程,一直到组织内部的体验。”
“Human-in-the-loop should not be at the end of the recommendation that the algorithms suggest. Human-in-the-loop means in the full process of the loop from design to hire, all the way until the experience inside of the organization.”
—Fay Cobb Payton, North Carolina State University
Payton补充道,人工智能系统决策点的每个阶段都应该考虑到一个审计过程,在这个过程中,人们可以检查结果。当然,职责分离是很重要的,这样审计系统的人就不会和当初设计系统的人一样。
宾夕法尼亚州立大学信息科学与技术教授、Payton研究论文的主要作者Lynette Yarger说:“当我们谈论偏见时,在人才获取过程中有很多细微差别和点位,其中偏差和偏差的缓解发挥了作用。”她还说,“那些试图减轻这些偏见的公司很有意思,因为它们试图促使人们承担责任。”
Yarger和Payton强调的另一个例子是位于西雅图的一家名为Textio的创业公司,该公司训练了自己的人工智能系统来分析招聘广告,并预测其吸引各种求职者的能力。Textio的“Tone Meter”可以帮助公司提供更具包容性的招聘信息:像“摇滚明星”这样吸引更多男性求职者的短语可以被软件中的“高绩效”取代。
总部位于西雅图的Textio公司首席执行官兼联合创始人Kieran Snyder表示:“我们利用Textio进行招聘沟通,从一开始就有。但也许因为我们制造了软件,所以我们知道,在建立一个公平的组织时,Textio本身并不是解决问题的全部办法,它只是谜团的一部分。”
事实上,许多科技公司,包括那些开发人工智能招聘工具的公司,仍在致力于包容性和公平性。企业软件公司Workday由前PeopleSoft高管创立,总部位于加州Pleasanton,在全球拥有3700多名员工,客户包括《财富》100强中的一半。根据人力资源技术新闻网站SearchHRSoftware的数据,在6月份举行的一个关于多元化和种族偏见的公司论坛上,Workday承认黑人员工只占美国员工总数的2.4%,而硅谷公司的平均比例是4.4%。
AI hiring tools: not a quick fix
人工智能驱动的招聘工具面临的另一个挑战是,一些客户希望它们能快速解决复杂的问题,而事实并非如此。总部位于伦敦的招聘软件初创公司Headstart的产品营销主管James Doman-Pipe说,任何有兴趣减少人工智能或其他技术歧视的企业,都需要得到公司领导层和其他部门的大力支持。
Headstart的软件使用机器学习来评估求职者,并生成一个“匹配分数”,显示应聘者在技能、教育和经验方面是否符合工作要求。Doman-Pipe说:“通过产生匹配分数,招聘人员更有可能考虑到弱势群体和代表性不足的少数群体在招聘过程中向前迈进。”该公司声称,在将基于人工智能的招聘方法与传统招聘方法进行比较的测试中,使用该软件的客户发现,新员工的多样性构成有了显著改善。
尽管如此,人工智能驱动的招聘工具在获得广泛信任之前面临的最大障碍之一是缺乏公开数据,显示不同的工具如何帮助或阻碍使技术招聘更加公平。
宾夕法尼亚州立大学教授Yarger说:“我确实从对软件公司的采访中了解到,他们会进行审计,然后可以回去重新校准自己的系统。”但是,提高招聘中算法公平性的努力是否有效仍不清楚。她解释说,由于围绕公平就业和工作场所歧视的责任问题,许多公司仍然不愿意公开分享这些信息。如果人工智能工具被证明歧视某些群体,那么使用人工智能工具的公司可能面临法律后果。
对于北卡罗莱纳州的Payton来说,企业致力于解决多样性和种族偏见的承诺是否会在雇佣和留住技术工人方面产生更广泛和持久的影响,人工智能是否能够证明在帮助创造公平的劳动力方面具有重要意义,还有待观察。她表示:“建立在系统中的关联和确认偏差和网络不会一夜之间改变。所以还有很多工作要做。”
往期推荐
2020年顶级编程语言了解一下
科学家重新命名人类基因 防止微软Excel将其误读为日期
柔韧的结构使机器人手臂更具通用性
宇航员利用磁场在太空中培育人类软骨
剃须机器人了解一下?视频看如何解放双手 |