深度学习中训练集正负样本数量不均衡问题

最近课题中遇到了这个问题,目标检测任务,anchor-free算法,一张特征图128*128,可能只有8个左右的正样本点,其他全是负样本点,训练起来效果很差。
目前只是记录一下搜集到的解决方法,真正解决之后再来更新。

  1. Focal loss
    这应该是容易想到的方法。
    https://zhuanlan.zhihu.com/p/113716961
    https://www.cnblogs.com/areaChun/p/11900799.html
    https://blog.csdn.net/sinat_28454173/article/details/106008200
    https://zhuanlan.zhihu.com/p/82148525 (这篇写得不错)
    Focal Loss 论文理解及公式推导:https://blog.csdn.net/zziahgf/article/details/83589973?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase

  2. 使用加权的损失函数
    比如MSE或者交叉熵,给正样本更多的权重,但是我自己测试的加权MSE效果一般。
    https://www.cnblogs.com/yjphhw/p/10019117.html

  3. 重采样
    没试过。

  4. 其他
    https://blog.csdn.net/fantacy10000/article/details/90552584

你可能感兴趣的:(目标检测,深度学习,python,算法)