人工智能功能的使用和扩展已经成倍增长,仅在新兴技术方面的投资就在五年内增长了15倍
这种趋势表明组织对新兴技术寄予厚望,以帮助他们最大程度地提高产出,盈利能力,劳动生产率和参与度。但是,这种快速的增长轨迹也可能破坏使用它们所涉及的意外风险,尽管AI和ML的用例非常引人注目,并且在预测商品和服务的消费者行为方面的风险相对较低,但是当两者都用来推动公司的员工决策时,风险就更大了,这是当今时代人力资源组织面临的难题。一方面,人力资源从业者之间达成共识,即AI和ML等新兴技术有潜力帮助提高生产率,减少人为偏见并提高劳动力预测的准确性,另一方面,最新研究表明,人们也越来越关注AI和ML工具背后的道德,法律和缺乏透明度。
可以开始做什么来解决这些问题并有效地利用这些新兴技术?
1、提高透明度 –当候选人和工人不了解什么,谁,如何以及为什么时,他们会更加怀疑并担心AI和ML结果驱动的与人力资源相关的决策。因此,准备好解释用例,算法和决策过程就变得至关重要。此外,遵守不同的数据保护法规至关重要。大多数法律都要求雇主要求候选人和工人选择收集数据,能够对算法得出的决定提出上诉,并保持机密性。
2、审查数据集是否存在偏见并扩展数据源 –涉及AI和ML的最大风险之一是有限且可能存在偏见的数据集,早期对员工数据进行更深入的研究并评估绩效,潜力,晋升等方面,并进行非常彻底的负面影响分析以寻找潜在的偏见,这一点非常重要。另一个风险是数据可用性有限。当在非常大的数据集中使用AI和ML时最有效,因此探索其他数据源的使用,包括来自第三方的数据源,可以扩展这些算法的使用并确保其准确性。
3、采取跨学科的方法 –许多组织现在集中精力雇用可以构建算法并挖掘数据的数据科学家,在人力资源中使用AI和机器学习的复杂性要求召集具有多学科技能的个人团队来有效地评估这些新兴技术并将其应用到组织中,解决这一挑战的一个好方法是成立一个由法律和道德专业人士,数据科学家,人力资源从业者以及工人组成的内部AI理事会,以审查和评估上述新兴技术对用例的任何潜在不利影响。
单靠技术无法解决HR中AI和ML应用程序的缺点
需要一种以人为中心的AI方法,该方法要求在人的控制和计算机自动化之间实现更大的平衡。换句话说,应该使用技术使工作场所更人性化,而不是更少。