机器学习中正负样本的问题理解分析

今天和师兄讨论一下正负样本的问题:师兄问我都已经标注好了框,不就已经告诉他这是正样本了吗,为什么还需要区分正负样本。
然后和师兄讨论半天,查了查资料,记录一下。


归根结底在于,目标分类和目标检测中的正负样本是两种不同的概念:

目标分类中,如果是简单的二分类问题,正样本就是你要检测的样本,你已经提前给这些样本标签标为1,负样本就是其他任意不是正样本的,都为0。
样本不均衡会导致:对比例大的样本造成过拟合,也就是说预测偏向样本数较多的分类。这样就会大大降低模型的范化能力。

目标检测中中正负样本指的是模型自己预测出来的框与GT的IoU大于你设定的阈值即为正样本,因为我们目标分类是给整幅图像标签,而检测是给你的GT标注类别标签,所以目标检测中的分类通常来说是非常简单的,但是因为检测中的背景更复杂,而且是多分类,所以最终影响检测的精度还是分类。

你可能感兴趣的:(计算机视觉,深度学习)