近年来,利用算法进行AI招聘已成为职场中的一大新热点,如何规避AI算法可能带来的歧视问题成为保障就业公平面临的一个新问题。近日,在上海市政协的一场重点提案督办专题调研暨办理推进会上,监管部门、行业专家以及业内人士表示,防范AI就业歧视,需要加强对算法滥用的监管、强化技术手段,多方面共同努力消除隐藏在算法背后的歧视。(9月12日《工人日报》)
当前,我国互联网招聘平台快速发展。数据显示,一些头部平台累计服务求职者已超过1亿人次,求职有效简历数超过1.5亿份,认证企业接近1000万家。利用人工智能技术进行简历筛选和人力资源开发正在成为招聘领域发展趋势,多家招聘平台纷纷探索通过AI算法为数据赋能。
与传统人力招聘相比,AI招聘可以大大提升人力资源开发效能,更好地对应聘者能力与岗位需求进行匹配。不过,任何技术都是把双刃剑。从理论上讲,AI招聘可以避免人为因素干扰,更加公平公正,但在实际操作中,倘若算法设置不够科学,反而会在客观上造成“算法歧视”,影响就业公平。更有甚者,一些人可以通过编辑算法,将对求职者的偏见和歧视巧妙地植入AI招聘中,从而逃避就业歧视责任,让系统背锅。
这种担心并非多余。事实上,在人工智能发展历程中,“性别歧视”已经不是一个新词。2014年,美国亚马逊公司开发了用于简历筛选的人工智能程序,发现该系统存在“性别歧视”,通常将男性的简历视为更合适的候选人。最终,亚马逊解散了该开发团队,弃用了这个模型。事后进一步查实,该系统选取了10年间的5万个简历,对涉及的关键词按重要程度进行排序,这些简历中大部分求职者为男性,导致AI误以为没有这类关键词的女性简历不那么重要。
避免AI招聘夹带歧视“私货”,首先要强化技术手段,确保算法公正。近年来,国家网信办等部门先后出台了《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》,持续开展企业算法排查整治专项行动。《指导意见》要求,建立算法备案制度,梳理算法备案基本情况,健全算法分级分类体系,明确算法备案范围,有序开展备案工作;组织建立专业技术评估队伍,深入分析算法机制机理,评估算法设计、部署和使用等应用环节的缺陷和漏洞,研判算法应用产生的意识形态、社会公平、道德伦理等安全风险,提出针对性应对措施。
有关部门应尽快构建算法安全风险监测、算法安全评估、科技伦理审查、算法备案管理和涉算法违法违规行为处置等多维一体的监管体系,进一步规范算法生态,确保导向正确、公平公正。
其次,加强执法监管,提高违法成本。AI招聘歧视具有一定隐蔽性,有关部门必须加强监管,打消一些企业的侥幸心理。前不久美国首起AI招聘歧视案中,我国在线教育机构麦奇教育科技与美国平等就业机会委员会达成和解。麦奇教育科技因招聘软件算法会自动拒绝55岁以上的女性和60岁以上的男性求职者,被判赔36.5万美元,用于补偿被拒的应聘者。反观国内,有关部门也应加大线上执法检查力度,对于涉嫌就业歧视的企业予以依法处罚,营造风清气正的AI招聘环境。