最近AI公平性方面出了不少新的研究成果,如有遗漏,欢迎补充↓↓↓↓
公平性提升
- MAAT: A Novel Ensemble Approach to Addressing Fairness and Performance Bugs for Machine Learning Software, FSE, 2022. 利用模型集成的方式获得公平的预测结果,单独训练高公平性的模型和高准确率的模型,并对它们的预测结果进行集成得到最终的预测,适用于多种模型以及多敏感属性的情况。
- FairStyle: Debiasing StyleGAN2 with Style Channel Manipulations, ECCV, 2022. 图像生成模型中的偏见缓解,由于受训练集数据分布的影响,StyleGAN合成的图片数量在分布上存在不均衡的问题。对隐向量进行修改,设计channel-wise的tensor,使得生成的图片数量在指定敏感属性上接近均匀分布。
- Discover and Mitigate Unknown Biases with Debiasing Alternate Networks, ECCV, 2022. 训练过程中,提升模型在未知敏感属性上的公平性。挑选目标任务标签相同的样本,判别器对样本进行二分类划分,使得划分后的组别公平性最差。借助对抗训练的思想,训练判别器寻找这种unknown的偏见,同时分类器最小化加权的交叉熵。
- Training Data Debugging for the Fairness of Machine Learning Software, ICSE, 2022. 移除数据集proxy features中的偏见,敏感属性的proxy属性,它们带有敏感属性的信息,使用它们训练,模型会学习到偏见。识别敏感属性的proxy属性,将这些属性进行线性分解,在数据预处理的过程种去除掉与敏感属性相关的部分,从而提升公平性。
- Pruning has a disparate impact on model accuracy, NeurIPS, 2022. 模型剪枝对不同类别的准确率影响不一样,一定程度的模型剪枝可以保证模型整体准确率不发生显著下降,但是某些类别样本准确率下降明显。
- FairGRAPE: Fairness-Aware GRAdient Pruning mEthod for Face Attribute Classification, ECCV, 2022. 模型剪枝引入了偏见,提出缓解偏见的算法,模型剪枝后,有些类别能较好的保持性能,而有些类别遭受了严重的性能损失。采用group-wise的贪心算法选择神经元,找出当前性能差异最大的类别,并保留最能提升性能的神经元。
- FairVFL: A Fair Vertical Federated Learning Framework with Contrastive Adversarial Learning, NeurIPS, 2022. 纵向联邦学习中的纠偏机制,由拥有目标标签的参与方 ^ Pt提供目标任务监督信息,由拥有敏感属性标签的参与方 ^ Pa 负责公平性相关的信息移除。为了保护参与方的隐私,各方上传feature到聚合端,并且在debias前通过对比学习机制,对上传的feature进行映射,只保留和公平性属性a相关的信息。
- On the Tradeoff Between Robustness and Fairness, NeurIPS, 2022. 对抗训练中的公平性问题,防御对抗样本过程中,使用更大的,对抗训练获得的平均鲁棒性越高,不同类别间鲁棒性的差异越大。提出了减少类别间鲁棒性差异的对抗训练算法,提升鲁棒性的同时,缓解偏差。
- Gender Artifacts in Visual Datasets, arxiv, 2022. 发现gender artifacts广泛存在于图像数据集中(与gender相关的视觉信息),仅仅通过图片平均颜色、人物形状、背景等gender artifacts ,就能推测出图片中人的性别标签。gender artifacts难以进行去除,因此应该更多提出对于不同group鲁棒的算法而不是数据集纠偏算法。
- Explanation-Guided Fairness Testing through Genetic Algorithm, ICSE, 2022. 利用可解释性方法和遗传算法生成测试用例,首先利用黑盒可解释性方法,获取样本每个特征重要性,选择敏感属性重要性高的样本作为初始值;以选定的样本作为初值,运行遗传算法改变非敏感属性,挑选出违反个体公平性的测试用例。
- RULER: Discriminative and Iterative Adversarial Training for Deep Neural Network Fairness, ESEC/FSE, 2022. 利用对抗训练方法加速用例生成,并对模型纠偏,已有方法生成的反事实用例没有直接用于模型纠偏,并且生成用例耗时长、不一定是合法用例。提出基于对抗训练的用例生成方式,可以同时考虑多个敏感属性,有效提升模型公平性。
如果后面有新的会继续更新,最近签不到工作非常焦虑无心科研ing