论文浅读之PIP-Net: Patch-Based Intuitive Prototypes for Interpretable Image Classification
Background深度神经网络在计算机视觉领域占据主导地位,但对理解复杂模型的推理有很高的要求。因此,可解释性和可解释性变得越来越重要。原型(Prototype)在解释可解释模型中的含义是:原型代表模型学习到的一组重要特征或模式,这些特征/模式可以用来解释和表示输入样本中的某些重要概念或特征。比如在图像分类模型中,原型可以代表某个物体的具有代表性的某个部件,如狗的耳朵或眼睛。原型具有以下特征:1