论文链接: https://arxiv.org/abs/2303.16390
代码链接: https://github.com/tangli-udel/DRE
近年来,将黑盒机器学习(ML)模型用于高风险应用的趋势日益明显。模型可解释性的缺乏可能会在医疗健康、刑事司法以及其他领域造成严重后果。与此同时,机器学习模型不可避免地会遭遇到超出其训练分布范围的未知数据分布。一个平均水平上表现出色的模型可能因为自然因素、子集群偏移、伪相关性和对抗攻击而在分布外(OOD)数据上发生灾难性的失败。例如,一个肿瘤检测模型可能会错误地预测来自使用不同数据获取协议或设备制造商的医院的样本。因此,跨数据分布的可靠解释对于机器学习模型的安全部署至关重要。然而,现有的研究主要集中在可解释方法在分布内的可靠性,而忽视了解释对于分布变化的鲁棒性。
我们针对不同的可解释方法对此问题进行了实证研究。图1中定性地展示了Grad-CAM[1]方法的解释结果。我们观察到,由于机器学习模型的黑盒属性,分布的偏移会进一步掩盖其决策过程。如图所示,现有方法训练出的模型即使预测正确,其在进行解释时不仅会突出目标对象,也会突出不相关元素(如树枝)。这些伪相关性会导致不同数据分布上的解释不一致,并最终产生在分布外数据上不可靠的解释。这种现象与人们的先验知识相悖,即最具区分性的特征应该是不变的(invariant)。
获得对分布外数据鲁棒的解释并不容易。
一方面,现有关于分布外泛化的研究主要局限于数据增强、分布对齐、元学习以及不变学习。然而,在没有对解释施加约束的情况下,模型仍会不加选择地吸收训练数据中发现的所有关联,包括伪相关[4]。
另一方面,为了约束模型的解释,现有方法依赖于人工标注或数据增强之间的一对一映射[5]。然而,它们通常不存在于自然发生的分布偏移中。此外,由于标注者的主观性,获得真实解释标注的成本极高,甚至是不可能的。
直观上,混合解释作为伪标签来指导混合样本的解释学习,无需人工标注。并且,分布之间的混合实现了简单但有效的跨分布转换。需要注意的是,g(⋅) 不是固定的,它涵盖了基于梯度的解释方法,例如Grad-CAM和Input Gradient。
我们在广泛的任务中对DRE进行了评估,包括图像和科学数据的分类与回归任务。我们将DRE与最先进的基准模型进行了分布外解释鲁棒性与泛化性能的比较,并对DRE的关键组成部分进行了消融研究。
Terra Incognita[2]数据集(约11K图像,10个类别)包含四个子数据集:Location 100、38、43和46。每个子数据集表示野外的一个相机陷阱位置,并可以被视为一个不同的分布。这些数据集中的每个图像都包含一个单一的动物类别(例如,土狼),但具有不同的照明、背景、视角等。
VLCS[7]数据集(约25K图像,5个类别)由四个子数据集组成:Caltech101、LabelMe、SUN09和VOC2007。每个子数据集可以被视为一个不同的分布。这些数据集中的每个图像都包含一个单一的图像类别(例如,汽车),并具有不同的风格和背景。
对于每一个数据集,我们逐个地把每一个分布设置为测试集,其他分布作为训练集。从每个训练集中,我们按照80%与20%的划分来分割数据,其中80%的数据用于训练,而20%的数据用于验证及模型的选择。
图3中定性地展示了我们的解释的优越性。我们在表1中定量地展示了两个数据集所有分布上的结果。结果表明,我们的DRE方法能在分布外数据上取得最佳的解释一致性与保真度。同时,分布鲁棒的解释也提升了模型的分布外泛化性能。
城市土地数据集(Global National Total Amounts of Urban Land v1,以下简称Urban Land)[8]将全球的土地分为997,022个方格区域。每个方格中都有九种地形、人口和历史城市化率的属性数据。该任务是使用过去40年的数据来预测2010年的城市化率。全球被分为九个大陆区域,每个区域可以看作是一个独特的分布。同样的,我们逐个地把每一个分布设置为测试集。
我们在表2中展示了在Urban Land数据集所有分布上的结果。结果表明,我们的DRE方法能在分布外数据上取得最佳的科学一致性(Scientific Consistency),即与领域专家的判断真值一致。同样的,分布鲁棒的解释也提升了模型的分布外泛化性能。
我们的贡献包括:
参考文献
[1] Selvaraju et al. Grad-cam: Visual explanations from deep networks via gradient-based localization. ICCV 2017.
[2] Beery et al. Recognition in terra incognita. ECCV, 2018.
[3] Sagawa et al. Distributionally robust neural networks. ICLR, 2019.
[4] Arjovsky et al. Invariant risk minimization. ArXiv, 2019.
[5] Rieger et al. Interpretations are useful: penalizing explanations to align neural networks with prior knowledge. ICML, 2020.
[6] Zhang et al. mixup: Beyond empirical risk minimization. ICLR, 2018.
[7] Fang et al. Unbiased metric learning: On the utilization of multiple datasets and web images for softening bias. ICCV, 2013.
[8] Gao et al. Mapping global urban land for the 21st century with data-driven simulations and shared socioeconomic pathways. Nature communications, 2020.
美国特拉华大学计算机和信息科学系招收AI/ML/CV方向博士生
招生信息
学校:University of Delaware
院系:Computer & Information Sciences
研究方向:Machine Learning, Scientific Machine Learning, and Computer Vision.
开始时间:2024年春季或秋季
可选研究课题
Out-of-distribution generalization;
Explainable machine learning;
Domain adaptation/generalization;
Foundation models.
申请要求
计算机,电子,或数学相关专业本科或以上学历;
良好GPA记录,专业排名靠前比如前20%;
本科同学不要求有论文,但最好有机器学习相关研究经历;
托福85分以上,免GRE成绩。
申请方式
有兴趣同学请发送下列材料到 [email protected],邮件主题/简历命名格式:博士申请+姓名
CV;
本科与研究生成绩单,以及专业排名情况;
托福或雅思成绩,GRE成绩;
其他材料比如已(将)发表论文,报告,GitHub主页等。
导师介绍:
Dr. Xi Peng joined the University of Delaware (UD) in 2019. He received the PhD degree in Computer Science from Rutgers University in 2018. Dr. Peng is holding three positions at UD:
Assistant Professor, Department of Computer & Information Sciences (CIS)
Resident Faculty, Data Science Institute (DSI)
Affiliate Faculty, Delaware Environmental Institute (DENIN)
实验室主页:
Deep-REAL (Deep Robust & Explainable AI Lab)
https://deep-real.github.io/
作者:李唐
关于TechBeat人工智能社区
▼
TechBeat(www.techbeat.net)隶属于将门创投,是一个荟聚全球华人AI精英的成长社区。
我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。
期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>TechBeat,一个荟聚全球华人AI精英的学习成长社区