1、模型可解释性的应用场景

1、如何理解机器学习背后的逻辑

许多人说机器学习模型是“黑箱”,因为它们可以做出良好的预测,但你无法理解这些预测背后的逻辑。这种说法在某种程度上是正确的,因为大多数数据科学家还不知道如何理解这些预测背后的逻辑。

要加深对模型结果的理解,可以从以下几个方面入手:

  • 数据中哪些特征对模型来说最重要?
  • 对于模型的任何单一预测,数据中的每个特征如何影响那个特定的预测?
  • 每个特征如何在大范围内影响模型的预测(当考虑大量可能的预测时,它的典型效果是什么)?

2、对模型的解释为什么有价值

对模型结果的解释可应用到以下这些场景当中,包括:

  • 模型调试
  • 特征工程
  • 数据收集
  • 决策制定
  • 建立信任

2.1模型调试

世界上有很多不可靠、混乱且通常是脏乱的数据。你在编写预处理代码时增加了错误的可能性。加上目标泄漏的可能性,真实的数据科学项目中在某个时点出现错误是常态,而不是例外。

鉴于错误的频率和可能的灾难性后果,调试是数据科学中最有价值的技能之一。理解模型找到的模式将帮助你识别这些模式与你对真实世界的知识相悖的时候,这通常是追踪错误的第一步。

2.2特征工程

特征工程通常是提高模型准确性的最有效方法。特征工程通常涉及反复使用你的原始数据或你之前创建的特征创建新的特征。

有时你可以仅仅依靠对底层主题的直觉来完成这个过程。但是当你有100s的原始特征或者你缺乏关于你正在工作的主题的背景知识时,你将需要更多的指导。

一个Kaggle比赛预测贷

你可能感兴趣的:(可解释机器学习,人工智能,可解释机器学习)