相似图片搜索的原理

原文地址:http://www.ruanyifeng.com/blog/2011/07/principle_of_similar_image_search.html

作者: 阮一峰

日期: 2011年7月21日

上个月,Google把"相似图片搜索"正式放上了首页。

你可以用一张图片,搜索互联网上所有与它相似的图片。点击搜索框中照相机的图标。

相似图片搜索的原理_第1张图片

一个对话框会出现。

相似图片搜索的原理_第2张图片

你输入网片的网址,或者直接上传图片,Google就会找出与其相似的图片。下面这张图片是美国女演员Alyson Hannigan。

相似图片搜索的原理_第3张图片

上传后,Google返回如下结果:

相似图片搜索的原理_第4张图片

类似的"相似图片搜索引擎"还有不少,TinEye甚至可以找出照片的拍摄背景。

相似图片搜索的原理_第5张图片

==========================================================

这种技术的原理是什么?计算机怎么知道两张图片相似呢?

根据Neal Krawetz博士的解释,原理非常简单易懂。我们可以用一个快速算法,就达到基本的效果。

这里的关键技术叫做"感知哈希算法"(Perceptual hash algorithm),它的作用是对每张图片生成一个"指纹"(fingerprint)字符串,然后比较不同图片的指纹。结果越接近,就说明图片越相似。

下面是一个最简单的实现:

第一步,缩小尺寸。

将图片缩小到8x8的尺寸,总共64个像素。这一步的作用是去除图片的细节,只保留结构、明暗等基本信息,摒弃不同尺寸、比例带来的图片差异。

 

第二步,简化色彩。

将缩小后的图片,转为64级灰度。也就是说,所有像素点总共只有64种颜色。

第三步,计算平均值。

计算所有64个像素的灰度平均值。

第四步,比较像素的灰度。

将每个像素的灰度,与平均值进行比较。大于或等于平均值,记为1;小于平均值,记为0。

第五步,计算哈希值。

将上一步的比较结果,组合在一起,就构成了一个64位的整数,这就是这张图片的指纹。组合的次序并不重要,只要保证所有图片都采用同样次序就行了。

 =  = 8f373714acfcf4d0

得到指纹以后,就可以对比不同的图片,看看64位中有多少位是不一样的。在理论上,这等同于计算"汉明距离"(Hamming distance)。如果不相同的数据位不超过5,就说明两张图片很相似;如果大于10,就说明这是两张不同的图片。

具体的代码实现,可以参见Wote用python语言写的imgHash.py。代码很短,只有53行。使用的时候,第一个参数是基准图片,第二个参数是用来比较的其他图片所在的目录,返回结果是两张图片之间不相同的数据位数量(汉明距离)。

这种算法的优点是简单快速,不受图片大小缩放的影响,缺点是图片的内容不能变更。如果在图片上加几个文字,它就认不出来了。所以,它的最佳用途是根据缩略图,找出原图。

实际应用中,往往采用更强大的pHash算法和SIFT算法,它们能够识别图片的变形。只要变形程度不超过25%,它们就能匹配原图。这些算法虽然更复杂,但是原理与上面的简便算法是一样的,就是先将图片转化成Hash字符串,然后再进行比较。




附:pthash算法oc实现

[cpp] view plain copy
  1. #import <Foundation/Foundation.h>  
  2.   
  3. @interface TpHash : NSObject  
  4.   
  5. + (uint64_t)ptHash:(UIImage*)image;  //生成64位的图像Hash  
  6. + (int)hamdist:(uint64_t)x with:(uint64_t) y;  //比较两个Hash值的汉明距离  
  7. + (UIImage *)scaleImage:(UIImage *)image toSize:(CGSize)newSize;  
  8. + (uint8_t *) convertToGreyscale64Array:(UIImage *)i;  
  9. @end  

[cpp] view plain copy
  1. #import "TpHash.h"  
  2.   
  3. @implementation TpHash  
  4.   
  5. +(uint64_t)ptHash:(UIImage*)image {  
  6.   
  7.     image = [self scaleImage:image toSize:CGSizeMake(8,8)];  
  8.     uint8_t* imgArray = [self convertToGreyscale64Array:image];  
  9.     int sum = 0;  
  10.     for (int i = 0; i < 64; i++) {  
  11.           
  12.         sum += imgArray[i];  
  13.     }  
  14.     uint8_t avg = sum/64;  
  15.     uint64_t ret = 0;  
  16.     for (int i = 0; i < 64; i++) {  
  17.           
  18.         if(imgArray[i]>=avg) {  
  19.               
  20.             ret++;  
  21.         }  
  22.         ret <<= 1;  
  23.     }  
  24.     return ret;  
  25. }  
  26.   
  27. +(int)hamdist:(uint64_t)x with:(uint64_t) y  
  28. {  
  29.     unsigned dist = 0, val = x ^ y;  
  30.       
  31.     while(val)  
  32.     {  
  33.         ++dist;   
  34.         val &= val - 1;  
  35.     }  
  36.       
  37.     return dist;  
  38. }  
  39.   
  40. +(UIImage *)scaleImage:(UIImage *)image toSize:(CGSize)newSize {  
  41.   
  42.     UIGraphicsBeginImageContextWithOptions(newSize, NO, 0.0);  
  43.     [image drawInRect:CGRectMake(0, 0, newSize.width, newSize.height)];  
  44.     UIImage *newImage = UIGraphicsGetImageFromCurrentImageContext();      
  45.     UIGraphicsEndImageContext();  
  46.     return newImage;  
  47. }  
  48.   
  49.   
  50. +(uint8_t *) convertToGreyscale64Array:(UIImage *)i {  
  51.       
  52.     int kRed = 1;  
  53.     int kGreen = 2;  
  54.     int kBlue = 4;  
  55.       
  56.     int colors = kGreen;  
  57.     int m_width = i.size.width;  
  58.     int m_height = i.size.height;  
  59.       
  60.     uint32_t *rgbImage = (uint32_t *) malloc(m_width * m_height * sizeof(uint32_t));  
  61.     CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();  
  62.     CGContextRef context = CGBitmapContextCreate(rgbImage, m_width, m_height, 8, m_width * 4, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaNoneSkipLast);  
  63.     CGContextSetInterpolationQuality(context, kCGInterpolationHigh);  
  64.     CGContextSetShouldAntialias(context, NO);  
  65.     CGContextDrawImage(context, CGRectMake(0, 0, m_width, m_height), [i CGImage]);  
  66.     CGContextRelease(context);  
  67.     CGColorSpaceRelease(colorSpace);  
  68.       
  69.     uint8_t *m_imageData = (uint8_t *) malloc(m_width * m_height);  
  70.     for(int y = 0; y < m_height; y++) {  
  71.         for(int x = 0; x < m_width; x++) {  
  72.             uint32_t rgbPixel=rgbImage[y*m_width+x];  
  73.             uint32_t sum=0,count=0;  
  74.             if (colors & kRed) {sum += (rgbPixel>>24)&255; count++;}  
  75.             if (colors & kGreen) {sum += (rgbPixel>>16)&255; count++;}  
  76.             if (colors & kBlue) {sum += (rgbPixel>>8)&255; count++;}  
  77.             m_imageData[y*m_width+x]=sum/count/4;  
  78.         }  
  79.     }  
  80.     free(rgbImage);  
  81.     return m_imageData;  
  82. }  
  83.   
  84.   
  85. @end  

关键函数为
+ (uint64_t)ptHash:(UIImage*)image;  //生成64位的图像Hash
+ (int)hamdist:(uint64_t)x with:(uint64_t) y;  //比较两个Hash值的汉明距离

这个算法有一定局限性,仅适用于一张图片的多种不同分辨率,采样率,或者极为相似的图像的比较。
实现主要参考了文中提到的Wote的Py版本,在此表示感谢。

你可能感兴趣的:(相似图片搜索的原理)