机器学习模型的可解释性

机器学习项目中,设计模型时是否应该信任它们?这是一个至关重要的问题,但往往在急于构建更精确模型的过程中忽视了这一点。请花点时间思考一下——有多少次为了提高模型的准确性而转向集成学习和神经网络等复杂技术,同时牺牲了可解释性?在现实世界的工业/商业环境中,这是不可接受的。

需要找到一种方法,既能利用这些强大的机器学习算法,又能使它们在商业环境中发挥作用。因此,在DataHack Radio播客第20集中,欢迎Christoph Molnar,这位受欢迎的书籍《可解释的机器学习》的。还有谁能更好地讨论这个基础而关键的话题呢?

所有的DataHack Radio播客剧集都可以在以下平台找到。立即订阅,以获取最新的机器学习发展动态!

  • SoundCloud
  • iTunes
  • Google Podcasts

统计学是数据科学的核心。不能在没有建立扎实的统计学基础的情况下直接进入机器学习世界。Christoph的背景,特别是他的大学教育,体现了这一思想。他在统计学领域拥有丰富的背景。他的学士和硕士学位都来自德国慕尼黑的Ludwig-Maximilians Universität。

在这段时间里,Christoph接触到了机器学习,并立刻被它迷住了。他开始参加在线机器学习竞赛和黑客马拉松。不久他就发现,线性回归虽然在学习方面很有用,但在这些黑客马拉松中并不适用。

因此,他更深入地研究了这个领域。决策树、随机森林、集成学习——Christoph在学习和掌握这些算法的过程中没有遗漏任何细节。完成硕士学位后,他作为统计顾问在医疗领域工作了几年,之后在其他几个组织工作。

在这段时间里,Christoph也在进行自己的研究。猜他的研究领域是什么?没错——可解释的机器学习。

对可解释机器学习的兴趣

可解释的机器学习并不是在学习这个领域(甚至在工作时)经常遇到的一个话题。每个人都知道它,但只有少数人真正讨论它。那么,是什么激发了Christoph对这个研究领域的兴趣呢?

对Christoph来说,这一切都要追溯到他的大学时代。这是他统计学教育的一部分。所以当他学习某个主题,比如线性或逻辑回归时,他从基础开始学习。这不仅包括学习如何构建模型,还包括学习如何解释产生最终输出的内部工作机制。

深入研究可解释ML的一个重要原因是Christoph与非机器学习人士的经历(相信每个人都在某个时候经历过这一点):“曾经问人们‘为什么不使用机器学习来解决正在处理的问题?’答案总是‘无法解释它是如何工作的。管理层不会接受一个黑盒模型。’”

如果这听起来很熟悉,并不孤单!这种无法理解模型工作原理的现象在行业中相当普遍。难怪很多“机器学习项目”在有机会起步之前就失败了。

所有这些学习自然转化为Christoph的机器学习探索。他开始探索使机器学习模型可解释的方法,包括查看项目、阅读研究论文等。他遇到的一个方法叫做LIME,或局部可解释模型无关解释。有一篇关于这个的优秀文章,应该去看看:

使用LIME在Python中构建对机器学习模型的信任

根据Christoph的说法,没有一篇特定的博客或教程强调了跨技术的可解释机器学习。这就是写一本关于这个话题的书的想法诞生的原因。

机器学习可解释性研究

Christoph对机器学习可解释性的研究集中在模型无关方法上(与模型特定方法相对)。前者的方法更具有通用性,而后者则深入研究手头的模型。

对于模型无关方法,它们通过改变输入数据的特征并观察预测如何变化来工作。例如,如果移除一个特征,模型的性能会下降多少?这有助于理解特征的重要性。在学习随机森林技术时,可能会接触到这个概念。

可能会想——模型特定方法不是更好吗?这是一个公平的问题。模型无关方法的优势在于它们适应机器学习模型的不断演变。这适用于复杂的技术,如神经网络,甚至那些尚未成为主流的技术。

如果是R用户,请务必查看Christoph的可解释机器学习包,名为‘iml’。可以在这里找到它。

在这里,Christoph提到了一个非常有效的观点,关于可解释性的定义。每个人似乎对概念有不同的理解。一个商业用户可能对模型工作原理的概述感到满意,另一个用户可能想要完全理解模型产生最终结果的每一步。

沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:17898875485