可解释模型更有可能公平的三个原因
可解释性和公平性似乎是相辅相成的。可解释性涉及理解模型如何进行预测。公平性涉及理解预测是否偏向某些群体。负责任的人工智能框架和机器学习会议始终将这两个特征一起提及。然而,可解释性并不一定意味着公平。
话虽如此,可解释的模型仍然更有可能是公平的。这种关联有 3 个主要原因。对于可解释的模型,更容易识别不公平的原因。在可解释的模型中纠正不公平也更容易。一些方法,例如证明解释,甚至依赖于可解释性。最后,这两个特征都与建立对 AI 系统的信任的目标相关。我们将深入讨论这些原因。
使用不可知论方法测量偏见
在深入探讨这些问题之前,让我们先讨论一下如何分析公平性。这也有助于我们理解为什么这不是可解释性和公平性相关的原因之一。通常,公平性的衡量标准与模型无关。这意味着它们可以用于任何模型。这包括线性回归和决策树等固有可解释的模型。它还包括随机森林甚至神经网络等不太可解释的模型。
准确度是衡量公平性的一个简单例子。具体来说,我们将比较模型对不同人群的准确度。这里的人群由种族或性别等敏感特征定义。如果某个人群的准确度明显较低,则表明该模型对该人群不公平。
要计算公平性指标,我们只需要模型的预测和实际目标变量。我们不需要研究模型本身的内部工作原理。这意味着,对于可解释的模型和不太可解释的模型,计算指标同样容易。换句话说,可解释性并不能让我们更容易理解一个模型是否不公平。问题是,这样的指标并不能告诉我们为什么一个模型不公平。
原因一:更容易识别不公平的原因
[造成不公平的原因](不公平的预测:机器学习中的 5 种常见偏见来源)各有不同其中包括用于训练模型的数据中的偏见。具体来说,历史偏见、代理变量和不平衡的数据集可能会导致不公平的预测。我们对算法的选择以及用户与模型的交互方式也会带来偏见。对于可解释的模型,识别这些来源更容易。
这是因为,对于可解释的模型,更容易理解模型的工作原理。这意味着我们清楚地了解哪些特征是重要的。我们还了解这些特征与目标变量之间的关系。通常,与神经网络等模型相比,算法和成本函数也简单得多。所有这些都让我们更容易找出导致模型不公平的原因。
与此原因相关的是模型的构建方式。通常,当您构建可解释的模型(例如线性回归)时,您最终会手工挑选 8 到 12 个模型特征的最终集合。您还将花时间使用该领域的领域知识将特征趋势与预期进行比较。实际上,在特征选择上投入了更多的思考。只要我们考虑到公平性,我们就可以在模型开发过程的早期提出问题。这意味着您甚至可以在将偏见引入模型之前识别出偏见来源。
原因 2:更容易纠正偏见
对于可解释的模型,纠正不公平现象也更容易。这部分源于上面讨论的第一个原因。我们采取的纠正不公平的方法可能取决于不公平的原因。由于更容易确定原因,因此更容易选择最佳方法来纠正它。例如,我们可以纠正不公平模型的方法之一是删除代理变量。这些特征与种族或性别等敏感特征高度相关。
随机森林等模型最多可以有 30-40 个特征。模型结构还允许特征之间的交互。这种复杂性使得很难理解任何代理变量与目标变量之间的关系。如果这种关系导致不公平的决策,就更难理解了。最终,决定删除哪些代理变量变得更加困难。
算法本身还可以进行其他修正。例如,我们可以调整成本函数以考虑公平性。这可能涉及添加惩罚参数来惩罚不公平的决策。换句话说,模型的目标不仅是做出准确的预测,而且是公平的预测。可解释模型的算法和成本函数通常更简单。这使得调整它们更容易。
确保公平的方法也可以超越上述定量方法。对抗不公平的一个重要方法是向用户提供预测的解释。然后让用户有权挑战这些预测。我们越了解模型的工作原理,就越容易以人性化的方式进行解释。换句话说,可解释性使得给出好的解释变得更容易。
原因 3:它们都是为了建立信任
最重要的原因是可解释性和公平性的共同目标。它们都是为了建立对人工智能系统的信任。这主要通过减少这些系统可能造成的伤害来实现。也就是说,我们不会相信我们认为会对我们造成伤害的东西。
我们更有可能相信我们理解的东西。此外,我们对某件事了解得越多,我们就越能确定它不会造成伤害。从这个意义上说,可解释性可以建立信任。公平的目标更直接。它旨在减少不公平决策带来的伤害。最终,一个关心人工智能系统信任的组织会同时关心可解释性和公平性。
这就是为什么您经常会在负责任的 AI框架中看到公平性和可解释性一起提及。这些治理框架旨在定义开发 AI 系统的道德准则和最佳实践。除了公平性和可解释性之外,这些框架还涵盖了安全性、保障性和隐私等主题。Google1、微软2和 IBM3 等公司都有自己的框架。他们明白,客户不会使用他们不信任的系统。
人工智能的发展为改善全球人民的生活创造了新的机会,从商业到医疗保健再到教育。它也提出了新的问题,即如何在这些系统中实现公平性、可解释性、隐私性和安全性。
— Google AI 谈 responsible AI practices4
出于类似的原因,公平性和可解释性是相关的研究主题。例如,下面您可以看到FAccT 2022会议论文的一些感兴趣领域。这是关于公平、问责和透明度的会议。公平性和可解释性是算法开发中提到的第一个主题。有兴趣减少人工智能系统危害的研究人员会对这两个主题感兴趣。
信任的需求是公平性和可解释性之间关系的真正驱动力。我们看到,可解释模型的特征也使这种关系更加紧密。在此过程中,我们触及了一些与公平相关的主题。即不公平的原因、分析公平和确保公平的方法。以下三篇文章深入探讨了这些主题。
不公平的预测:机器学习中的 5 种常见偏见来源
常见的偏见来源——历史偏见、代理变量、不平衡数据集、算法选择和用户交互
分析机器学习的公平性
进行探索性公平性分析,并利用平等机会、均等几率和不同的因素来衡量公平性……
纠正和防止机器学习中的不公平现象
预处理、处理中和处理后定量方法。以及非定量方法……
参考
Birhane, A., (2021)算法不公正:一种关系伦理学方法。https 😕/www.sciencedirect.com/science/article/pii/S2666389921000155
Pessach, D. 和 Shmueli, E., (2020),算法公平性。https 😕/arxiv.org/abs/2001.09784
Mehrabi, N.、Morstatter, F.、Saxena, N.、Lerman, K. 和 Galstyan, A., (2021),机器学习中的偏见和公平性调查。https 😕/arxiv.org/abs/1908.09635
希望这篇文章对你有所帮助!你还可以阅读我的其他文章,或者查看有关企业 AI 实战项目的教程,相信会让你拥有更多收获。
「AI秘籍」系列课程:
- 人工智能应用数学基础
- 人工智能Python基础
- 人工智能基础核心知识
- 人工智能BI核心知识
- 人工智能CV核心知识
Google, https://ai.google/responsibilities/responsible-ai-practices/ ↩︎
微软, https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6 ↩︎
IBM, https://www.ibm.com/artificial-intelligence/ethics ↩︎
Google, responsible AI practices, https://ai.google/responsibilities/responsible-ai-practices/ ↩︎