整理的比较好的图像去雾算法

 

 

暗原色先验简单清晰公式介绍

 

 

转载地址 :文章链接:http://blog.csdn.net/xingchenbingbuyu/article/details/50836506

 

首先还是简单说下暗通道先验去雾算法,这里只是记录性质,详细推荐看论文,写的非常好:

雾图模型

 

I(x) ——待去雾的图像
J(x)——无雾图像
A——全球大气光成分
t——折射率(大气传递系数)

 

暗通道先验

在无雾图像中,每一个局部区域都很有可能会有阴影,或者是纯颜色的东西,又或者是黑色的东西。因此,每一个局部区域都很有可能有至少一个颜色通道会有很低的值。把这个统计规律叫做Dark Channel Prior。

 

暗通道定义

Jc表示彩色图像的每个通道 
Ω(x)表示以像素X为中心的一个窗口 
意义:首先求出每个像素RGB分量中的最小值,存入一副和原始图像大小相同的灰度图中,然后再对这幅灰度图进行最小值滤波

对于两个最小化的顺序,我看了下,何凯明的两遍论文用了不同的顺序。

 

计算折射率

 

右边第二项其实就是有雾图像的暗通道。
由于空间透视现象/浓淡远近,部分雾的存在有助于我们感知距离和深度,加权值修正:

整理的比较好的图像去雾算法_第1张图片

 

估计大气光

1.选取暗通道图像暗通道最亮的0.1%的像素(一般来说,这些像素表示雾浓度最大的地方)
2.取输入图像里面这些像素对应的像素里面最亮的作为大气光
注:选中的像素未必是全图最亮的,而且要比选取全图最亮的方式鲁棒性更好。

 

去雾

整理的比较好的图像去雾算法_第2张图片

 

大致就是这个流程:

1.求图像暗通道

2.利用暗通道计算出折射率

3.利用暗通道估计大气光

4.代回雾图公式去雾

 

代码如下,比较简陋:

 
  1. #include

  2. #include

  3. #include

  4. #include

  5. #include

  6. #include

  7.  
  8. using namespace cv;

  9. using namespace std;

  10.  
  11. //求暗通道

  12. Mat darkChannel(Mat src)

  13. {

  14. Mat rgbmin = Mat::zeros(src.rows, src.cols, CV_8UC1);

  15. Mat dark = Mat::zeros(src.rows, src.cols, CV_8UC1);

  16. Vec3b intensity;

  17.  
  18. for (int m = 0; m

  19. {

  20. for (int n = 0; n

  21. {

  22. intensity = src.at(m, n);

  23. rgbmin.at(m, n) = min(min(intensity.val[0], intensity.val[1]), intensity.val[2]);

  24. }

  25. }

  26.  
  27. //模板尺寸

  28. int scale = 7;

  29. //cout << "Please enter the mask scale: " << endl;

  30. //cin >> scale;

  31.  
  32. //边界扩充

  33. int radius = (scale - 1) / 2;

  34. Mat border;

  35. //由于要求最小值,所以扩充的边界可以用复制边界填充

  36. copyMakeBorder(rgbmin, border, radius, radius, radius, radius, BORDER_REPLICATE);

  37.  
  38. //最小值滤波

  39. for (int i = 0; i < src.cols; i++)

  40. {

  41. for (int j = 0; j < src.rows; j++)

  42. {

  43. //选取兴趣区域

  44. Mat roi;

  45. roi = border(Rect(i, j, scale, scale));

  46.  
  47. //求兴趣区域的最小值

  48. double minVal = 0; double maxVal = 0;

  49. Point minLoc = 0; Point maxLoc = 0;

  50. minMaxLoc(roi, &minVal, &maxVal, &minLoc, &maxLoc, noArray());

  51.  
  52. dark.at(Point(i, j)) = (uchar)minVal;

  53. }

  54. }

  55. return dark;

  56. }

  57. uchar light(vector inputIamgeMax)

  58. {

  59. uchar maxA=0;

  60. for (int i = 0; i < inputIamgeMax.size() - 1; i++)

  61. {

  62.  
  63. if (maxA < inputIamgeMax[i + 1])

  64. {

  65. maxA = inputIamgeMax[i + 1];

  66. }

  67. }

  68. return maxA;

  69. }

  70.  
  71.  
  72.  
  73. //Mat dark(Mat image)

  74. //{

  75. // Mat minColor(image.rows, image.cols, CV_8UC1, Scalar(180, 120, 50));

  76. // Mat darkChannel(image.rows, image.cols, CV_8UC1, Scalar(180, 120, 50));

  77. //

  78. // //求每个像素BGR三通道最小值

  79. // for (int i = 0; i < image.cols; i++)

  80. // {

  81. // for (int j = 0; j < image.rows; j++)

  82. // {

  83. // uchar blue, green, red;

  84. // blue = image.at(Point(i, j))[0];

  85. // green = image.at(Point(i, j))[1];

  86. // red = image.at(Point(i, j))[2];

  87. // minColor.at(Point(i, j)) = minBGR(blue, green, red);

  88. // }

  89. // }

  90. //

  91. // //模板尺寸

  92. // int scale;

  93. // cout << "Please enter the mask scale: " << endl;

  94. // cin >> scale;

  95. //

  96. // //边界扩充

  97. // int radius = (scale - 1) / 2;

  98. // Mat border;

  99. // //由于要求最小值,所以扩充的边界可以用复制边界填充

  100. // copyMakeBorder(minColor, border, radius, radius, radius, radius, BORDER_REPLICATE);

  101. //

  102. // //最小值滤波

  103. // for (int i = 0; i < image.cols; i++)

  104. // {

  105. // for (int j = 0; j < image.rows; j++)

  106. // {

  107. // //选取兴趣区域

  108. // Mat roi;

  109. // roi = border(Rect(i, j, scale, scale));

  110. //

  111. // //求兴趣区域的最小值

  112. // double minVal = 0; double maxVal = 0;

  113. // Point minLoc = 0; Point maxLoc = 0;

  114. // minMaxLoc(roi, &minVal, &maxVal, &minLoc, &maxLoc, noArray());

  115. //

  116. // darkChannel.at(Point(i, j)) = (uchar)minVal;

  117. // }

  118. // }

  119. // return darkChannel;

  120. //}

  121.  
  122.  
  123. int main(int argc, char* argv[])

  124.  
  125. {

  126. Mat image = imread("mai4.jpg");

  127. imshow("image",image);

  128. Mat darkChannel1 = darkChannel(image);

  129. imshow("darkChannel1", darkChannel1);

  130.  
  131. namedWindow("dehazed");

  132.  
  133. //估计大气光

  134. Mat temp; darkChannel1.copyTo(temp);

  135. vector darkMaxPoint;

  136. vector inputMax;

  137. for (long i = 0; i < ((darkChannel1.rows*darkChannel1.cols) / 1000); i++)

  138. {

  139. double minVal = 0; double maxVal = 0;

  140. Point minLoc = 0; Point maxLoc = 0;

  141. minMaxLoc(temp, &minVal, &maxVal, &minLoc, &maxLoc, noArray());

  142.  
  143. darkMaxPoint.push_back(maxLoc);

  144. inputMax.push_back(image.at(maxLoc));

  145. circle(temp, maxLoc,5, Scalar(0), 1, 8, 0);

  146. temp.at(maxLoc) = temp.at(minLoc);

  147. }

  148.  
  149. uchar A = light(inputMax);

  150.  
  151.  
  152. double w = 0.65;

  153.  
  154. //createTrackbar("w1", "dehazed", &w1, 100, NULL);

  155.  
  156. //求折射率

  157. Mat T = Mat::zeros(image.rows, image.cols, CV_8UC3);

  158. Scalar intensity;

  159.  
  160. for (int m = 0; m

  161. {

  162. for (int n = 0; n

  163. {

  164. intensity = darkChannel1.at(m, n);

  165. T.at(m, n)[0] = (1 - w * intensity.val[0] / A) * 255;

  166. T.at(m, n)[1] = (1 - w * intensity.val[0] / A) * 255;

  167. T.at(m, n)[2] = (1 - w * intensity.val[0] / A) * 255;

  168. }

  169. }

  170.  
  171.  
  172. //去雾

  173. Mat J(image.rows, image.cols, CV_8UC3, Scalar(180, 120, 50));

  174. Mat temp1(image.rows, image.cols, CV_8UC3, Scalar(180, 120, 50));

  175.  
  176. //subtract(image, Scalar(A, A, A), temp1);

  177. temp1 = abs(image - Scalar(A, A, A));

  178. double t0 = 0.1;

  179.  
  180. Scalar T1;

  181. Vec3b intsrc;

  182. for (int i = 0; i < image.cols; i++)

  183. {

  184. for (int j = 0; j < image.rows; j++)

  185. {

  186. T1 = T.at(Point(i, j));

  187. intsrc = image.at(Point(i, j));

  188. double tmax = (T1.val[0] / 255) < t0 ? t0 : (T1.val[0] / 255);

  189.  
  190. for (int k = 0; k < 3; k++)

  191. {

  192. J.at(Point(i, j))[k] = abs((intsrc.val[k] - A) / tmax + A) > 255 ? 255 : abs((intsrc.val[k] - A) / tmax + A);

  193. }

  194. }

  195. }

  196.  
  197. imshow("dehazed", J);

  198. while (char(waitKey(1)) != 'q') {}

  199. return 0;

  200. }

这个有时对图像有些去雾效果,比如下面这样:

 

整理的比较好的图像去雾算法_第3张图片
 

右上角的亮光是什么鬼?还有下面这样莫名其妙的事情:

 

整理的比较好的图像去雾算法_第4张图片

这都是什么鬼??看来还需要进行细部调节和更深入的研究。改进之后再补充吧。

2. 暗原色先验论文(详细)

 

2016.03,24 再补充几个搜索到的资料:

论文的翻译,不太好,凑合看   http://wenku.baidu.com/link?url=SwSoHn-7IfxY7pp-VEway9fRMM5AOlc1j2xvIQytUivfqSSHm-j5moJVr3EYDOUblLo-VMDOF2sxCvNGYgFBUNJ4-zIhBEJTwn7ATfXcO7q

论文的原文: http://wenku.baidu.com/view/5391746365ce0508773213b9.html

OpenCV实现的,有代码和详细的解释,但是效率非常低,代码有很大的改进空间,仅作参考吧

http://www.cnblogs.com/changkaizhao/p/3266798.html

1 首先是何博士2009年在CVPR上的一篇paper

转自

http://blog.csdn.NET/baimafujinji/article/details/27206237?ticket=ST-264104-uEM9GFfaos96lqSCMO4R-passport.csdn.net

 

论文中解释为什么能用暗通道来去雾:在不包括天空的绝大部分局部区域,总会存在一些我们称之为“dark pixels”的像素,至少有一个颜色通道具备很低的强度值。在被雾干扰的图像里,这些暗像素的强度值会被大气中的白光成分所充斥而变得较高。 因此,这些暗像素能够直接用来评估雾光的透射信息

整理的比较好的图像去雾算法_第5张图片

整理的比较好的图像去雾算法_第6张图片

          方程右边的第一项J(x)t(x) 叫做直接衰减项,第二项A(1-t(x)) 则是大气光成分。直接衰减项描述的是景物光线在透射媒介中经衰减后的部分,而大气光则是由前方散射引 起的,会导致景物颜色的偏移。

整理的比较好的图像去雾算法_第7张图片

整理的比较好的图像去雾算法_第8张图片

 

整理的比较好的图像去雾算法_第9张图片

 

现在结果已经比较细腻了,但是显然图像有些暗。何博士在论文中也有提及直接暗通道算法的结果会是比较暗的。下一篇文章中,我们将给出在MATLAB中实现的源代码,并对过暗的图像增加曝光和自动色阶,从而得到完美的去雾图像。

补充:http://www.cnblogs.com/Imageshop/category/535365.html

何的算法效果以及普遍的实用性都比其他的去雾算法要好,而主要的问题就是其速度还是不够快,有着太多的浮点计算。鉴于此,作者也多次试着对代码进行深层次的优化,包括SSE处理、并行运行等,但由于算法本身的顺序执行,无法全程并行,偶尔一个小函数可以并行,但由于其本身执行就特别快,比如不要5ms,你去用并行算法可能耗时还会大一些。因此,一直没有什么大的进步,对于一副1024*768的彩图进行去雾需要90ms,这肯定无法满足需求。

     最近,在思考,既然暗通道去雾的透射率图比其他的算法都来的精细,如果适当的降低一点点其精度,其去雾的效果理论上应该不会有太大的区别,于是我想到了一种方式,即求取透射率的时候不是对原图进行求取,而是先对原图进行下采样,比如缩小为原图的1/4,计算出小图的透射率,之后在通过插值的方式的获取原图大概的透射率,则应该也可以获得效果。经过实践,这种方式大大的提高了执行速度,而且效果和原始的方案基本一致,对于1024*768的图像大约只需要(I3CPU)30ms了,如果进一步取1/9的缩放,则只需要大约20ms,完全可以满足工业实时性要求高的场合。

    当然,如果你的缩小系数不是特别大的话,比如缩小为原来的0.5大小,可能两次缩放所用的耗时还抵消了计算小图的透射率图所换来的盈利,因此必须合理选择这个下采样率。

    要实现这样的速度,当然还是需要很高的优化技巧的,这些东西还是有所保留比较好。

 

 

 对比度增强图片和视频去雾

 

转自:https://www.cnblogs.com/Imageshop/p/3925461.html

Optimized contrast enhancement for real-time image and video dehazing

    这个算法的原理来自于文章《Optimized contrast enhancement for real-time image and video dehazing》,作者是韩国人。

      这个算法也是基于大气散射模型:

          

   和现在一些常见的去雾文章有明显的不同的是,这篇文章的并不是基于暗通道原理的,也不是把重点强调在透射率图的细化上,而是提出了一种新的得到粗透射率图的方法。并且文章分别讲到了静态图像和视频图像的去雾,这里我只研究了静态图的去雾。

      对于透射率图,文章提出了一个cost function,这个cost function是基于以下两点考虑的:

      1、对于有雾图像,其整体的对比比较低,因此去雾后的对比度要尽量的高,文中给出了三种测评一幅图像对比度的方式,这里选用的是第一种:

                    

    公式具体的意义可见论文。注意上面的公式都是对去雾图进行的处理。

  2、 由于对比度得到增强,可能会导致部分像素的调整值超出了0和255的范围,这样就会造成信息的损失以及视觉上的瑕疵。因此提出了一个信息量损失的计算公式:

                                                

     一个好的透射率图应该使得总的损失最小:

                                      

       其中Lamda值用于控制对比度和信息损失之间的重要性。

            进行上述过程还有一个重要的前提就是:对于一小块图像,我们认为他的透射率是一样的,以下作者提供的代码表面了这一点:

 
  1. for(nY=0; nY

  2. {

  3. for(nX=0; nX

  4. {

  5. fTrans = NFTrsEstimationPColor(pnImageR, pnImageG, pnImageB, pnImageRP, pnImageGP, pnImageBP, pfTransmissionP, __max(nX, 0), __max(nY, 0), nWid, nHei);

  6. for(nYstep=nY; nYstep

  7. {

  8. for(nXstep=nX; nXstep

  9. {

  10. pfTransmission[nYstep*nWid+nXstep] = fTrans;

  11. }

  12. }

  13. }

  14. }

 
  1. nEndX = __min(nStartX+m_nTBlockSize, nWid); // End point of the block

  2. nEndY = __min(nStartY+m_nTBlockSize, nHei); // End point of the block

  3.  
  4. nNumberofPixels = (nEndY-nStartY)*(nEndX-nStartX);

  5.  
  6. fTrans = 0.3f; // Init trans is started from 0.3

  7. nTrans = 427; // Convert transmission to integer

  8.  
  9. for(nCounter=0; nCounter<7; nCounter++)

  10. {

  11. nSumofSLoss = 0;

  12. nLossCount = 0;

  13. nSumofSquaredOuts = 0;

  14. nSumofOuts = 0;

  15. for(nY=nStartY; nY

  16. {

  17. for(nX=nStartX; nX

  18. {

  19. nOut = ((pnImageY[nY*nWid+nX] - m_nAirlight)*nTrans + 128*m_nAirlight)>>7; // (I-A)/t + A --> ((I-A)*k*128 + A*128)/128

  20. nSquaredOut = nOut * nOut;

  21.  
  22. if(nOut>255)

  23. {

  24. nSumofSLoss += (nOut - 255)*(nOut - 255);

  25. nLossCount++;

  26. }

  27. else if(nOut < 0)

  28. {

  29. nSumofSLoss += nSquaredOut;

  30. nLossCount++;

  31. }

  32. nSumofSquaredOuts += nSquaredOut;

  33. nSumofOuts += nOut;

  34. }

  35. }

  36. fMean = (float)(nSumofOuts)/(float)(nNumberofPixels);

  37. fCost = m_fLambda1 * (float)nSumofSLoss/(float)(nNumberofPixels)

  38. - ((float)nSumofSquaredOuts/(float)nNumberofPixels - fMean*fMean);

  39.  
  40. if(nCounter==0 || fMinCost > fCost)

  41. {

  42. fMinCost = fCost;

  43. fOptTrs = fTrans;

  44. }

  45.  
  46. fTrans += 0.1f;

  47. nTrans = (int)(1.0f/fTrans*128.0f);

  48. }

 

 

 

  朋友们有没有看到上面的代码中的最小透射率是0.3,我个人认为这个只能够有效的避免天空部位被过增强。

      文中提到了这个方法也可以看成是何凯明的暗通道去雾算法的一个更广义的定义。

     在这个文章,还提出了另外一个和其他算法不同的东西,就是全局大气光A的获取,其主要原理是: the variance of pixel values is generally low in hazy regions, e.g. sky. 具体的操作流程是:

       we first divide an input image into four rectangular regions. We then define the score of each region as the average pixel value subtracted by the standard deviation of the pixel values within the region. Then, we select the region with the highest score and divide it further into four smaller regions.We repeat this process until the size of the selected region is smaller than a pre-specified threshold. Within the selected region, we choose the color vector, which minimizes the distance ||(R,G,B) -(255,255,255)||as the atmospheric light. By minimizing the distance from the pure white vector(255,255,255), we attempt to choose the atmospheric light that is as bright as possible.

  结合上述描述以及论文配套的代码可以很容易的理解这里的道理。论文的配套代码的实现也很好。

  具体的流程还是请各位仔细的阅读论文及其代码,经过我自己的优化和实践,这个算法确实能得到很不错的效果,在速度上也能够达到实时。

      在贴一些效果图(有的时候只有看到这些图,才很有成就感)。

整理的比较好的图像去雾算法_第10张图片

整理的比较好的图像去雾算法_第11张图片

 整理的比较好的图像去雾算法_第12张图片

整理的比较好的图像去雾算法_第13张图片

 

 

对比度增强图片和视频去雾算法核心

 

 

转自:http://blog.csdn.net/baimafujinji/article/details/53026812

 

算法核心1:计算大气光值

通常,图像去雾问题的基本模型可以用下面这个公式来表示(这一点在基于暗通道先验的图像去雾中我们也使用过):

 

 

其中, 表示原始图像(也就是没有雾的图像); 表示我们观察到的图像(也就是有雾的图像)。、、 表示位置 处的像素的三个分量。 是全球大气光,它表示周围环境中的大气光。
此外, 是反射光的透射率, 由场景点到照相机镜头之间的距离所决定。因为光传播的距离越远,那么通常光就约分散而且越发被削弱。所以上面这个公式的意思就是,本来没有被雾所笼罩的图像 与大气光 按一定比例进行混合后就得到我们最终所观察到的有雾图像。

大气光 通常用图像中最明亮的颜色来作为估计。因为大量的灰霾通常会导致一个发亮(发白)的颜色。然而,在这个框架下,那些颜色比大气光更加明亮的物体通常会被选中,因而便会导致一个本来不应该作为大气光参考值的结果被用作大气光的估计。为了更加可靠的对大气光进行估计,算法的作者利用了这样一个事实:通常,那些灰蒙蒙的区域(也就是天空)中像素的方差(或者变动)总体来说就比较小。

基于这个认识,算法的作者提出了一个基于四叉树子空间划分的层次搜索方法。如下图所示,我们首先把输入图像划分成四个矩形区域。然后,为每个子区域进行评分,这个评分的计算方法是“用区域内像素的平均值减去这些像素的标准差”(the average pixel value subtracted by the standard deviation
of the pixel values within the region)。记下来,选择具有最高得分的区域,并将其继续划分为更小的四个子矩形。我们重复这个过程直到被选中的区域小于某个提前指定的阈值。例如下图中的红色部分就是最终被选定的区域。在这被选定的区域里,我们选择使得距离 最小化的颜色(包含 三个分量)来作为大气光的参考值。注意,这样做的意义在于我们希望选择那个离纯白色最近的颜色(也就是最亮的颜色)来作为大气光的参考值。


整理的比较好的图像去雾算法_第14张图片

 

 

我们假设在一个局部的小范围内,场景深度是相同的(也就是场景内的各点到相机镜头的距离相同),所以在一个小块内(例如)我们就可以使用一个固定的透射率 ,所以前面给出的有雾图像与原始(没有雾的)图像之间的关系模型就可以改写为

 

可见,在求得大气光 的估计值之后,我们希望复原得到的原始(没有雾的)图像 将依赖于散射率 。
总的来说,一个有雾的块内,对比度都是比较低的,而被恢复的块内的对比度则随着 的估计值的变小而增大,我们将设法来估计一个最优的 值,从而使得去雾后的块能够得到最大的对比度。

下面是原作者给出的大气光计算函数代码(C/C++版)

  1. void dehazing::AirlightEstimation(IplImage* imInput)  
  2. {  
  3.     int nMinDistance = 65536;  
  4.     int nDistance;  
  5.   
  6.     int nX, nY;  
  7.   
  8.     int nMaxIndex;  
  9.     double dpScore[3];  
  10.     double dpMean[3];  
  11.     double dpStds[3];  
  12.   
  13.     float afMean[4] = {0};  
  14.     float afScore[4] = {0};  
  15.     float nMaxScore = 0;  
  16.   
  17.     int nWid = imInput->width;  
  18.     int nHei = imInput->height;  
  19.   
  20.     int nStep = imInput->widthStep;  
  21.   
  22.     // 4 sub-block  
  23.     IplImage *iplUpperLeft = cvCreateImage(cvSize(nWid/2, nHei/2),IPL_DEPTH_8U, 3);  
  24.     IplImage *iplUpperRight = cvCreateImage(cvSize(nWid/2, nHei/2),IPL_DEPTH_8U, 3);  
  25.     IplImage *iplLowerLeft = cvCreateImage(cvSize(nWid/2, nHei/2),IPL_DEPTH_8U, 3);  
  26.     IplImage *iplLowerRight = cvCreateImage(cvSize(nWid/2, nHei/2),IPL_DEPTH_8U, 3);  
  27.   
  28.     IplImage *iplR = cvCreateImage(cvSize(nWid/2, nHei/2),IPL_DEPTH_8U, 1);  
  29.     IplImage *iplG = cvCreateImage(cvSize(nWid/2, nHei/2),IPL_DEPTH_8U, 1);  
  30.     IplImage *iplB = cvCreateImage(cvSize(nWid/2, nHei/2),IPL_DEPTH_8U, 1);  
  31.   
  32.     // divide   
  33.     cvSetImageROI(imInput, cvRect(0, 0, nWid/2, nHei/2));  
  34.     cvCopyImage(imInput, iplUpperLeft);  
  35.     cvSetImageROI(imInput, cvRect(nWid/2+nWid%2, 0, nWid, nHei/2));  
  36.     cvCopyImage(imInput, iplUpperRight);  
  37.     cvSetImageROI(imInput, cvRect(0, nHei/2+nHei%2, nWid/2, nHei));  
  38.     cvCopyImage(imInput, iplLowerLeft);  
  39.     cvSetImageROI(imInput, cvRect(nWid/2+nWid%2, nHei/2+nHei%2, nWid, nHei));  
  40.     cvCopyImage(imInput, iplLowerRight);  
  41.   
  42.     // compare to threshold(200) --> bigger than threshold, divide the block  
  43.     if(nHei*nWid > 200)  
  44.     {  
  45.         // compute the mean and std-dev in the sub-block  
  46.         // upper left sub-block  
  47.         cvCvtPixToPlane(iplUpperLeft, iplR, iplG, iplB, 0);  
  48.   
  49.         cvMean_StdDev(iplR, dpMean, dpStds);  
  50.         cvMean_StdDev(iplG, dpMean+1, dpStds+1);  
  51.         cvMean_StdDev(iplB, dpMean+2, dpStds+2);  
  52.         // dpScore: mean - std-dev  
  53.         dpScore[0] = dpMean[0]-dpStds[0];  
  54.         dpScore[1] = dpMean[1]-dpStds[1];  
  55.         dpScore[2] = dpMean[2]-dpStds[2];  
  56.   
  57.         afScore[0] = (float)(dpScore[0]+dpScore[1]+dpScore[2]);  
  58.   
  59.         nMaxScore = afScore[0];  
  60.         nMaxIndex = 0;  
  61.   
  62.         // upper right sub-block  
  63.         cvCvtPixToPlane(iplUpperRight, iplR, iplG, iplB, 0);  
  64.   
  65.         cvMean_StdDev(iplR, dpMean, dpStds);  
  66.         cvMean_StdDev(iplG, dpMean+1, dpStds+1);  
  67.         cvMean_StdDev(iplB, dpMean+2, dpStds+2);  
  68.   
  69.         dpScore[0] = dpMean[0]-dpStds[0];  
  70.         dpScore[1] = dpMean[1]-dpStds[1];  
  71.         dpScore[2] = dpMean[2]-dpStds[2];  
  72.   
  73.         afScore[1] = (float)(dpScore[0]+dpScore[1]+dpScore[2]);  
  74.   
  75.         if(afScore[1] > nMaxScore)  
  76.         {  
  77.             nMaxScore = afScore[1];  
  78.             nMaxIndex = 1;  
  79.         }  
  80.   
  81.         // lower left sub-block  
  82.         cvCvtPixToPlane(iplLowerLeft, iplR, iplG, iplB, 0);  
  83.   
  84.         cvMean_StdDev(iplR, dpMean, dpStds);  
  85.         cvMean_StdDev(iplG, dpMean+1, dpStds+1);  
  86.         cvMean_StdDev(iplB, dpMean+2, dpStds+2);  
  87.   
  88.         dpScore[0] = dpMean[0]-dpStds[0];  
  89.         dpScore[1] = dpMean[1]-dpStds[1];  
  90.         dpScore[2] = dpMean[2]-dpStds[2];  
  91.   
  92.         afScore[2] = (float)(dpScore[0]+dpScore[1]+dpScore[2]);  
  93.   
  94.         if(afScore[2] > nMaxScore)  
  95.         {  
  96.             nMaxScore = afScore[2];  
  97.             nMaxIndex = 2;  
  98.         }  
  99.   
  100.         // lower right sub-block  
  101.         cvCvtPixToPlane(iplLowerRight, iplR, iplG, iplB, 0);  
  102.   
  103.         cvMean_StdDev(iplR, dpMean, dpStds);  
  104.         cvMean_StdDev(iplG, dpMean+1, dpStds+1);  
  105.         cvMean_StdDev(iplB, dpMean+2, dpStds+2);  
  106.   
  107.         dpScore[0] = dpMean[0]-dpStds[0];  
  108.         dpScore[1] = dpMean[1]-dpStds[1];  
  109.         dpScore[2] = dpMean[2]-dpStds[2];  
  110.   
  111.         afScore[3] = (float)(dpScore[0]+dpScore[1]+dpScore[2]);  
  112.   
  113.         if(afScore[3] > nMaxScore)  
  114.         {  
  115.             nMaxScore = afScore[3];  
  116.             nMaxIndex = 3;  
  117.         }  
  118.   
  119.         // select the sub-block, which has maximum score  
  120.         switch (nMaxIndex)  
  121.         {  
  122.         case 0:  
  123.             AirlightEstimation(iplUpperLeft); break;  
  124.         case 1:  
  125.             AirlightEstimation(iplUpperRight); break;  
  126.         case 2:  
  127.             AirlightEstimation(iplLowerLeft); break;  
  128.         case 3:  
  129.             AirlightEstimation(iplLowerRight); break;  
  130.         }  
  131.     }  
  132.     else  
  133.     {  
  134.         // select the atmospheric light value in the sub-block  
  135.         for(nY=0; nY
  136.         {  
  137.             for(nX=0; nX
  138.             {  
  139.                 // 255-r, 255-g, 255-b  
  140.                 nDistance = int(sqrt(float(255-(uchar)imInput->imageData[nY*nStep+nX*3])*float(255-(uchar)imInput->imageData[nY*nStep+nX*3])  
  141.                     +float(255-(uchar)imInput->imageData[nY*nStep+nX*3+1])*float(255-(uchar)imInput->imageData[nY*nStep+nX*3+1])  
  142.                     +float(255-(uchar)imInput->imageData[nY*nStep+nX*3+2])*float(255-(uchar)imInput->imageData[nY*nStep+nX*3+2])));  
  143.                 if(nMinDistance > nDistance)  
  144.                 {  
  145.                     nMinDistance = nDistance;  
  146.                     m_anAirlight[0] = (uchar)imInput->imageData[nY*nStep+nX*3];  
  147.                     m_anAirlight[1] = (uchar)imInput->imageData[nY*nStep+nX*3+1];  
  148.                     m_anAirlight[2] = (uchar)imInput->imageData[nY*nStep+nX*3+2];  
  149.                 }  
  150.             }  
  151.         }  
  152.     }  
  153.     cvReleaseImage(&iplUpperLeft);  
  154.     cvReleaseImage(&iplUpperRight);  
  155.     cvReleaseImage(&iplLowerLeft);  
  156.     cvReleaseImage(&iplLowerRight);  
  157.   
  158.     cvReleaseImage(&iplR);  
  159.     cvReleaseImage(&iplG);  
  160.     cvReleaseImage(&iplB);  
  161. }  

 

 

算法核心2:透射率的计算

 

我们首先给出图像对比度度量的方法(论文中,原作者给出了三个对比度定义式,我们只讨论其中第一个):

 

其中 是颜色通道的索引标签, 是的平均值,并且, 是块中像素的数量。

根据之前给出的有雾图像与原始(没有雾的)图像之间的关系模型


我们可以把上述对比度定义式重新为

其中 是的平均值,而且你会发现上述式子也告诉我们对比度是关于 的递减函数。

 

既然我们希望通过增强对比度的方法来去雾,那么不妨将一个区块B内三个颜色通道上的MSE对比度加总,然后再取负,如下

 

 

由于加了负号,所以取对比度最大就等同于取上式最小。

另外一方面,因为对比度得到增强,可能会导致部分像素的调整值超出了0和255的范围,这样就会造成信息的损失以及视觉上的瑕疵。所以算法作者又提出了一个信息量损失的计算公式:


整理的比较好的图像去雾算法_第15张图片


于是我们把所有问题都统一到了求下面这个式子的最小值问题上

其中, 是一个权重参数用于控制信息损失和对比度之间的一个相对重要性。With a small value , the restored images have significantly increased contrast, but they lose information and contain unnaturally dark pixels due to the truncation of pixel values. On the contrary, with a large value of , we can prevent the information loss but cannot remove haze fully. 总的来说, 5 strikes a balance between the information loss prevention and the haze removal effectively.

 

  1. float dehazing::NFTrsEstimationColor(int *pnImageR, int *pnImageG, int *pnImageB, int nStartX, int nStartY, int nWid, int nHei)  
  2. {  
  3.     int nCounter;     
  4.     int nX, nY;       
  5.     int nEndX;  
  6.     int nEndY;  
  7.   
  8.     int nOutR, nOutG, nOutB;          
  9.     int nSquaredOut;                  
  10.     int nSumofOuts;                   
  11.     int nSumofSquaredOuts;            
  12.     float fTrans, fOptTrs;            
  13.     int nTrans;                       
  14.     int nSumofSLoss;                  
  15.     float fCost, fMinCost, fMean;     
  16.     int nNumberofPixels, nLossCount;  
  17.   
  18.     nEndX = __min(nStartX+m_nTBlockSize, nWid);   
  19.     nEndY = __min(nStartY+m_nTBlockSize, nHei);   
  20.   
  21.     nNumberofPixels = (nEndY-nStartY)*(nEndX-nStartX) * 3;    
  22.   
  23.     fTrans = 0.3f;    
  24.     nTrans = 427;  
  25.   
  26.     for(nCounter=0; nCounter<7; nCounter++)  
  27.     {  
  28.         nSumofSLoss = 0;  
  29.         nLossCount = 0;  
  30.         nSumofSquaredOuts = 0;  
  31.         nSumofOuts = 0;  
  32.   
  33.         for(nY=nStartY; nY
  34.         {  
  35.             for(nX=nStartX; nX
  36.             {  
  37.   
  38.                 nOutB = ((pnImageB[nY*nWid+nX] - m_anAirlight[0])*nTrans + 128*m_anAirlight[0])>>7; // (I-A)/t + A --> ((I-A)*k*128 + A*128)/128  
  39.                 nOutG = ((pnImageG[nY*nWid+nX] - m_anAirlight[1])*nTrans + 128*m_anAirlight[1])>>7;  
  40.                 nOutR = ((pnImageR[nY*nWid+nX] - m_anAirlight[2])*nTrans + 128*m_anAirlight[2])>>7;       
  41.   
  42.                 if(nOutR>255)  
  43.                 {  
  44.                     nSumofSLoss += (nOutR - 255)*(nOutR - 255);  
  45.                     nLossCount++;  
  46.                 }  
  47.                 else if(nOutR < 0)  
  48.                 {  
  49.                     nSumofSLoss += nOutR * nOutR;  
  50.                     nLossCount++;  
  51.                 }  
  52.                 if(nOutG>255)  
  53.                 {  
  54.                     nSumofSLoss += (nOutG - 255)*(nOutG - 255);  
  55.                     nLossCount++;  
  56.                 }  
  57.                 else if(nOutG < 0)  
  58.                 {  
  59.                     nSumofSLoss += nOutG * nOutG;  
  60.                     nLossCount++;  
  61.                 }  
  62.                 if(nOutB>255)  
  63.                 {  
  64.                     nSumofSLoss += (nOutB - 255)*(nOutB - 255);  
  65.                     nLossCount++;  
  66.                 }  
  67.                 else if(nOutB < 0)  
  68.                 {  
  69.                     nSumofSLoss += nOutB * nOutB;  
  70.                     nLossCount++;  
  71.                 }  
  72.                 nSumofSquaredOuts += nOutB * nOutB + nOutR * nOutR + nOutG * nOutG;;  
  73.                 nSumofOuts += nOutR + nOutG + nOutB;  
  74.             }  
  75.         }  
  76.         fMean = (float)(nSumofOuts)/(float)(nNumberofPixels);    
  77.         fCost = m_fLambda1 * (float)nSumofSLoss/(float)(nNumberofPixels)   
  78.             - ((float)nSumofSquaredOuts/(float)nNumberofPixels - fMean*fMean);   
  79.   
  80.         if(nCounter==0 || fMinCost > fCost)  
  81.         {  
  82.             fMinCost = fCost;  
  83.             fOptTrs = fTrans;  
  84.         }  
  85.   
  86.         fTrans += 0.1f;  
  87.         nTrans = (int)(1.0f/fTrans*128.0f);  
  88.     }  
  89.     return fOptTrs;   
  90. }  

 

 

主要结论

  • 算法对于天空部分的处理相当到位,更优于Kaiming He的暗通道先验算法;
  • 对比度过大时,图像很容易发暗,可以后期将图片稍微调亮一些。
  • 算法本身是从对比增强的角度来进行去雾操作的,所以你可以看出结果自动带对比度增强加成,所以这个算法所取得的结果通常更加鲜亮。
  1.  

 

 论文及原作者的代码下载地址:http://mcl.korea.ac.kr/projects/dehazing/#userconsent# (这个源代码是opencv写的,主要针对视频去雾的,已实现)

你可能感兴趣的:(整理的比较好的图像去雾算法)