可解释机器学习 Task01-导论

可解释机器学习 Task01-导论

  • 一、什么是可解释机器学习(可解释人工智能)
    • 传统人工智能的痛点
    • 可解释机器学习
  • 二、为什么要学习可解释机器学习
    • 从 MachineLearning 到 MachineTeaching
      • 例子
  • 三、本身可解释性好的机器学习算法
    • KNN分类
    • 逻辑回归
    • 决策树
    • 特征重要性
  • 四、深度学习的可解释性很差
    • 以卷积神经网络为例

一、什么是可解释机器学习(可解释人工智能)

传统人工智能的痛点

目前的人工智能与机器学习就像是一个黑盒子,我们目前大部分能够做到的就是调包、输入数据、调参,非常的难以作为。
可解释机器学习 Task01-导论_第1张图片

可解释机器学习

可解释机器学习就是研究如何打开人工智能的黑箱子,洞悉人工智能的脑回路和注意力,进而解释它、了解它、改进它、信赖它,知其然也知其所以然。

二、为什么要学习可解释机器学习

  • 研究AI的脑回路,就是研究AI的本质
  • 研究AI的脑回路,就是研究AI的本质
  • 可解释分析是机器学习和数据挖掘的通用研究方法
  • 和所有AI方向交叉融合:数据挖掘、计算机视觉、自然语言处理、强化学习、知识图谱、联邦学习。
  • 包括但不限于:大模型、弱监督、缺陷异常检测、细粒度分类、决策AI和强化学习、图神经网络、AI纠偏、AI4Science、MachineTeaching、对抗样本、可信计算、联邦学习。

从 MachineLearning 到 MachineTeaching

人工智能的算法是通过大量数据的训练完成的,可以把从海量数据中提取到的微观的、人眼不易提取的特征交给人类,辅助人类学习(AI专家)。

例子

  • 腾讯绝艺围棋AI指导棋——以指导为目的与人类选手进行围棋博弈,其中右上角的非常破空手段值得人类学习。
    可解释机器学习 Task01-导论_第2张图片
  • 百度制作的富春山居图的AI补全:


  • 人工智能帮助人类理解CT病灶所在区域

三、本身可解释性好的机器学习算法

KNN分类

可解释机器学习 Task01-导论_第3张图片

逻辑回归

可解释机器学习 Task01-导论_第4张图片

决策树

可解释机器学习 Task01-导论_第5张图片

特征重要性

可解释机器学习 Task01-导论_第6张图片

四、深度学习的可解释性很差

以卷积神经网络为例

可解释机器学习 Task01-导论_第7张图片

你可能感兴趣的:(人工智能,python)