虽然这始终是目标但了解工具如何实际交付输出对于确保它通过其方法满足组织的目标至关重要。然而这种理解并不总是一种保证。人工智能可以成为提高组织效率同时最大限度地减少人为偏见的强大工具然而它的好坏取决于编写它的人了解每个工具的优点和缺点将帮助您针对组织需求做出更明智的决策。这对于解释这些模型的人意味着什么模型可解释性描述了某人可以合理理解模型结果的程度以及更一般地说模型如何得出这些结果。但问题是一些最准确且计算成本最高的模型并
不容易解释使用这些模型的工具也被称为黑盒模型确实往往比更简单的模型表现得更好但代价是缺乏更好地理解它们的清晰机制。在某些类型的问题例如图像分类中理解模型的内部机制可能并不是 土耳其 WhatsApp 号码数据 什么大问题我们最终可以清楚地看到狗的图像是否被正确分类。但当我们处理主观的人类数据时事情很快就会变得复杂。数据例如某人是否适合某工作。已经有很多案例表明善意的人工智能工具最终引入的偏见比其减少的偏见还要多从而造成了巨大的人力成本。为了在人力资源领域解决这一问题从年开始在纽约州和加利福尼亚州运营的为招聘决策提供人工智能服务的公司必须接受偏见审计。
将制定什么样的标准还有待观察但可以肯定的是可解释性将是一个关键组成部分。可解释的模型如何减少招聘中的偏见可解释的模型可以减少招聘中的偏见因为它具有出色的能力来传达可能存在偏见的变量是否与分析相关这可能会促使部署该模型的公司进一步检查该变量是否应该保留在模型中或者是否应该预先考虑。处理或清洁。有些变量可能是显而易见的我们不应在招聘决策中考虑种族或民族因素。但其他变量则更加棘手。例如邮政编码可能与该国部分地区的种族高度相关如果模型没有删除邮政编码它仍然隐式地将潜在的偏见信息包含在模型中。公平地说黑盒模型并非无法解释。 |