可解释机器学习导论

可解释机器学习

导论

当我们去拿图片去训练模型,他能分辨出什么是真坦克假坦克,但他是靠哪些特征去分辨的呢?我们不得而知——知其然而不知其所以然。

如下图,给绘画模型输入指令:画一条在水里游的三文鱼,得到了下面的图像,显然AI没有正确的理解指令的意思。

可解释机器学习导论_第1张图片

选择人工智能的方向

来自子豪兄的建议

  • 尽可能通用,与其他方向有交叉,能为社会创造价值或商业应用价值
  • 顺应主流的发展——统计学习到深度学习到大规模学习
  • 要有高质量的数据集
  • 不能特别小众(很难将技能转化到其他方向)

为什么学可解释性机器学习

  • 研究AI的本质
  • 和所有AI方向交叉结合
  • 是研究机器学习的通用方法

可解释性分析研究思路

可解释性比较好的算法 :KNN聚类

IF-ELSE 决策树,比较符合人类的脑回路

可解释机器学习导论_第2张图片

可以通过遮挡某些部位,来找到深度学习识别的特征

用反卷积来找到是被除了哪些特征

通过可解释性分析,可以找到为什么AI在分类、识别中出现问题

通过降维可视化也可以进行分析

可解释机器学习导论_第3张图片

解释性分析的类别

  • 被动解释
  • 主动解释
    -20221213191036652" style=“zoom: 50%;” />

解释性分析的类别

  • 被动解释
  • 主动解释
  • 补充解释

你可能感兴趣的:(机器学习,人工智能,python)