深度学习的公正性

很多论文都谈论了训练的公平性:

Focal loss 中就对数据集作出调整,以平衡。

机器学习里的公平性到底有没有意义?其实是有多方面意义的

从实际生活中看,虽然是服从大众的社会,但是仍然需要给小众自己的空间,不能忽略他们。下面这个论文就论述了这样的情况。

论文:Fairnes without demographics in Repeated loss minimization

机器学习的公平性:

公平性在很多论文中都有讨论,其具有很多现实意义,如现实中有很多少数族,而其决定了这个项目的上线,

disparity amplification 区别放大:

Empirical approximation minimization经验近似缩小会把原本公正的模型变得不公正,其会降低少数族的比重,因为在优化过程中是机会平等的,没有对少数族的照顾,使得少数族可能被忽视,


随着训练增加,模型变得不公平,忽略右边

分布式鲁班优化 distributionally robust formulation of Duchi et al. (2016)

```

import tensorflow as tf

```

你可能感兴趣的:(深度学习的公正性)