可解释人工智能(XAI):理解与应用

在人工智能技术的应用中,将现实世界的信息转化为数字以供AI模型理解并改进是一个重要步骤。然而,一个关键问题仍然存在:如何将AI的结果应用于现实世界并使其易于理解?这正是可解释人工智能(XAI)发挥作用的地方。XAI的核心在于使AI的决策易于理解和应用于现实生活情境。在本文中,将探索XAI的重要性以及它如何帮助弥合AI模型与实际应用之间的差距。

什么是可解释人工智能(XAI)?

可解释人工智能(XAI)指的是在人工智能技术应用中,结果能够被人类理解的方法和技术。在AI采纳的早期阶段,只要模型能够给出正确的输出,人们并不关心模型以何种方式进行预测。解释它们的工作原理并不是首要任务。现在,重点转向构建人类可解释的模型。

为什么可解释人工智能很重要?

可解释人工智能(XAI)之所以重要,是因为它帮助理解AI系统如何工作和做出决策。这对于几个原因至关重要:

信任:当信任一个AI系统时,更有可能使用它并根据其输出做出决策。XAI通过解释它们的决策来帮助建立对AI系统的信任。

透明度:XAI帮助理解AI系统的潜在偏见和局限性。它们可能对生活产生重大影响,需要在使用它们之前了解潜在的风险和好处。

责任:它可以帮助对AI系统的决策负责。它们通常用于执法和医疗保健等高风险应用中。

如何使用XAI解释模型?

模型的可解释性可以从两个层面进行考察:

全局解释:从更广泛的角度审视模型。例如,假设正在处理一个房价数据集并实现了一个神经网络。全局解释可能会说“模型使用平方英尺数作为预测的关键特征。”

局部解释:正如其名称所示,这种方法专注于某个观察/数据点。让继续以例子为例。一个非常小的房子的预测结果很大。局部解释查看其他特征,可能会说“模型之所以这样预测,是因为房子的位置非常靠近市中心。”

可解释AI如何工作?

解释AI工作的三个主要组成部分包括:

创建易于理解的模型:涉及选择或设计对人类来说更简单的模型。例如,当决策树通过一系列分支查询表达其逻辑时。

描述后分析:包括使用不同的技术评估当前模型并为其结果生成解释。特征重要性等方法可以识别对决策影响最大的数据输入。

集中于数据的使用:可能包括检查训练数据中的偏见或确认数据与当前任务的相关性。最终,“垃圾进,垃圾出”的概念在AI的背景下也是相关的。

准确性与可解释性之间的权衡

在行业中,经常会听到业务利益相关者倾向于偏好更可解释的模型,如线性模型(线性/逻辑回归)和树模型,它们直观、易于验证,并且可以向非数据科学专家解释。

相比之下,当查看现实生活数据的复杂结构时,在模型构建和选择阶段,兴趣大多转移到更先进的模型上。这样,更有可能获得改进的预测。

复杂模型的挑战

这些模型(集成、神经网络等)被称为“黑箱”模型。随着模型变得更加先进,解释其工作原理变得更加困难。输入神奇地进入一个盒子,然后得到了惊人的结果。但是,怎么做到的呢?

当向利益相关者推荐这个模型时,他们会完全信任它并立即开始使用它吗?不。他们会提出问题,应该准备好回答它们。

为什么应该信任模型?模型为什么做出某个决定?什么驱动模型预测?应该考虑同时提高模型的准确性,而不是在解释中迷失。两者之间应该有一个平衡。

数据在模型可信度中的作用

模型接受输入并处理它们以获得输出。如果数据有偏见,它也会使模型有偏见,因此不可信。理解并能够解释模型是重要的,这样才能信任它们的预测,甚至在向他人展示之前检测并修复问题。

模型可解释性的技术

为了提高模型的可解释性,已经开发了各种技术,其中一些已经知道并实施。传统技术包括探索性数据分析、可视化和模型评估指标。借助它们,可以了解模型的策略。然而,它们有一些局限性。要了解更多关于传统方法及其局限性的信息。

现代模型可解释性技术

为了克服局限性,已经开发了其他模型解释技术和库。其中一些包括:

LIME(局部可解释模型无关解释)

SHAP(Shapley加性解释)

ELI5(像5岁一样解释)

SKATER

这些库使用特征重要性、部分依赖图、个体条件期望图来解释线性回归、逻辑回归、决策树等不太复杂的模型。

特征重要性显示了特征对模型的重要性。换句话说,当从模型中删除特征时,误差如何变化?如果误差增加很多,这意味着特征对模型预测目标变量很重要。

部分依赖图可视化了在其他所有因素保持不变的情况下(用一个更酷的短语:ceteris paribus)某个特征变化的影响。借助这些,可以看到可能的极限值,超过这个值,它将指导模型预测向另一个方向发展。当可视化部分依赖图时,正在全局检查模型。

模型无关技术

个体条件期望图显示了某个特征变化的影响,就像部分依赖图一样。但这次,视角是局部的。感兴趣的是看到数据中所有实例的某个特征变化的影响。部分依赖图是ICE图线条的平均值。

在解释更先进的模型时,使用模型无关(不依赖于模型)的技术。

全局替代模型接受原始输入和黑箱机器学习预测。当这个新数据集用于训练和测试适当的全局替代模型(更可解释的模型,如线性模型、决策树等)时,它基本上试图模仿黑箱模型的预测。通过解释和可视化这个“更容易”的模型,更好地理解实际模型以某种方式预测。

其他可解释性工具是LIME、SHAP、ELI5和SKATER库。将在下一篇文章中讨论它们,通过一个指导性的实现。

在AI日益塑造的世界中,揭开这些复杂模型的神秘面纱是不可否认的。可解释AI的力量在于其能够弥合不透明的“黑箱”算法和人类理解之间的差距。正如本文所阐明的,整合可解释AI技术为提供了令人信服的AI模型决策解释手段。通过这样做,培养了信任,确保了责任,并使更好的决策成为可能。随着进入AI时代,通过可解释AI实现透明度不仅仅是一个选择;这是一个必要。它使能够充分利用AI的潜力,使其内部工作对所有人可访问。此外,本文还讨论了可解释AI的例子。

沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:17898875485