为什么图像范围限制多用clip而不是等比缩放至0~255范围?

  • 1.问题
  • 2. 原因

1.问题

比如现在通过模型产生一个超分辨的图像矩阵,但是其像素值范围在-20~270之间并不是严格在0~255的,所以一般用一些方法将其限制在0~255

  • clip:直接截取0~255的值,小于0的全设为0,大于255的全设为255
np.clip(0,255)
  • 等比缩放:将-20~270等比缩放到0~255
img=(img-np.min(img))/(np.max(img)-np.min(img))*255

那么为什么几乎所有的代码在都使用clip呢?

2. 原因

事实上通过模型产生的超分辨图像也存在一些”异常点“,其中一些”异常点“表现为值很大或者很小,而通过clip则可以剔除这些异常点,而等比缩放虽然限制到了0~\255,但是没有剔除异常点。

总之,”正常“的像素值本身会在0~\255,超过这个范围的可以理解为异常值,所以通过clip剔除掉。

如下图是将像素值投影到Z轴上,可以看到一些非常高或者非常低的其实就可以理解为异常点,如果从0,255两处截取,则能剔除掉这一的异常值。
为什么图像范围限制多用clip而不是等比缩放至0~255范围?_第1张图片

你可能感兴趣的:(深度学习DL,深度学习)