关于模型可解释性的一点点思考

关于模型可解释性的一点点思考

  • 模型可解释性介绍
    • 关于可解释性的思考
    • 关于模型可解释性的未来思考

模型可解释性介绍

模型解释性就比如每一个特征的取值和得分权重能看到特征实际的重要性。虽然深度学习在效果上完全碾压传统的逻辑回归等模型,但逻辑回归因为具有天然的可解释性,让深度学习在这些涉及人民生命财产安全的行业举步维艰。也大大让这些传统行业无法使用现代科技的成果。

关于可解释性的思考

当然每一个函数都可以关于特征取值求导来体验特征重要性,但是这样并不可观。我们知道不管决策树,还是随机森林,深度学习,感知机,SVM,xgboost,transformer-encoder等评分模型,都可以打分后写成线性回归的模样。这样的话相当于挂羊头卖狗肉。用到了准确率更高的xgboost,lightboost,catboost,DNN,transformer等模型去干活,却挂着逻辑回归等线性模型的可解释性。

关于模型可解释性的未来思考

当今人工智能的世界,在基本结构上有CNN,RNN,attention。针对三者上面又衍生出来对应的手段和方法。矩阵特征,序列特征,图网络特征等的任务又进行一系列的改善。而三种信号又有多模态。想要更合理的解释性,本文提出的线性回归去解释。本身就属于多样本取值的回归拟合。不同的取值,每个特征的重要性随着取值的不同往往是不同的。但是进行每个取值区间赋予不同权重去拟合就可以了。当然这些方法都无法像高大上的模型效果更好。但是这也许是一种非常简单和有效的方法。

你可能感兴趣的:(笔记)