目录
1.RGB空间
代码:
效果:
2.Ycrcb空间
代码:
效果:
3.Ycrcb空间+otsu
代码:
效果:
4.HSV空间
代码:
效果:
5.opencv自带肤色检测类AdaptiveSkinDetector
6.基于椭圆模型
代码:
效果:
7.直方图反向投影
操作步骤:
代码:
效果:
肤色在RGB模型下的范围基本满足以下约束:
在均匀光照下应满足以下判别式:
R>95 AND G>40 B>20 AND MAX(R,G,B)-MIN(R,G,B)>15 AND ABS(R-G)>15 AND R>G AND R>B
在侧光拍摄环境下:
R>220 AND G>210 AND B>170 AND ABS(R-G)<=15 AND R>B AND G>B
def skinMask_rgb(image):
b, g, r = cv2.split(image)
mask_uniformity = (r>95)*(g>40)*(b>20)* (np.max(image, axis=2) -np.min(image,axis=2)>15)* (abs(r-g)>15)*(r>g)*(r>b)
mask_side = (r>220)*(g>210)*(b>170)*(abs(r-g)<=15)*(r>b)*(g>b)
mask = mask_uniformity|mask_side
skin = np.array(mask, np.uint8)*255
ratio = np.sum(skin/255)/(image.shape[0]*image.shape[1])
return skin, ratio
在RGB空间里人脸的肤色受亮度影响相当大,所以肤色点很难从非肤色点中分离出来,也就是说在此空间经过处理后,肤色点是离散的点,中间嵌有很多非肤色。如果把RGB转为YCrCb空间的话,可以忽略Y(亮度)的影响,因为该空间受亮度影响很小,肤色会产生很好的类聚。这样就把三维的空间降为二维的CrCb,肤色点会形成一定得形状。
133≤Cr≤173
77≤Cb≤127
def skinMask_YCrCb(image):
YCrCb = cv2.cvtColor(image, cv2.COLOR_BGR2YCR_CB) #转换至YCrCb空间
(y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值
skin = np.zeros(cr.shape, dtype = np.uint8)
(x,y) = cr.shape
cr_mask1 = cr >= 133
cr_mask2 = cr <= 173
cr_mask = cr_mask1 * cr_mask2
cb_mask1 = cb >= 77
cb_mask2 = cb <= 127
cb_mask = cb_mask1 * cb_mask2
mask = cr_mask * cb_mask
skin[mask] = 255
ratio = np.sum(skin/255)/(x*y)
return skin, ratio
Y表示明亮度(Luminance或Luma),也就是灰阶值。Cr反映了RGB输入信号红色部分与RGB信号亮度值之间的差异。而Cb反映的是RGB输入信号蓝色部分与RGB信号亮度值之间的差异。
将RGB图像转换到YCrCb颜色空间,提取Cr分量图像。对Cr做自二值化阈值分割处理(Otsu法)。
def skinMask_YCrCb_otsu(image):
YCrCb = cv2.cvtColor(image, cv2.COLOR_BGR2YCR_CB) #转换至YCrCb空间
(y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值
ret, skin = cv2.threshold(cr, 0, 255, cv2.THRESH_BINARY | cv2.THRESH_OTSU)
ratio = np.sum(skin/255)/(image.shape[0]*image.shape[1])
return skin, ratio
7
28
50
def skinMask_hsv(image):
hsv = cv2.cvtColor(image, cv2.COLOR_BGR2HSV)
h, s, v = cv2.split(hsv)
mask = (h>7)*(h<20)*(s>28)*(v>50)
skin = np.array(mask, np.uint8)*255
ratio = np.sum(skin/255)/(image.shape[0]*image.shape[1])
return skin, ratio
已经从opencv 3以上版本中移除,opencv 2中函数。
将皮肤信息映射到YCrCb空间,则在CrCb二维空间中这些皮肤像素点近似成一个椭圆分布。因此如果我们得到了一个CrCb的椭圆,下次来一个坐标(Cr, Cb)我们只需判断它是否在椭圆内(包括边界),如果是,则可以判断其为皮肤,否则就是非皮肤像素点。
def skinMask_ellipse(image):
YCrCb = cv2.cvtColor(image, cv2.COLOR_BGR2YCR_CB) #转换至YCrCb空间
(y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值
skinCrCbHist = np.zeros((256,256),np.uint8)
skinCrCbHist = cv2.ellipse(skinCrCbHist, (113, 155), (23, 15), 43.0, 0.0, 360.0, (255, 255, 255), -1)
cv2.imwrite("ww.jpg", skinCrCbHist)
skin = cv2.remap(skinCrCbHist, cb.astype(np.float32), cr.astype(np.float32), interpolation=cv2.INTER_LINEAR)
ratio = np.sum(skin/255)/(image.shape[0]*image.shape[1])
return skin, ratio
椭圆模型
效果
反向投影可以用来做图像分割,寻找感兴趣区间。可以寻找任何的roi,这里将其用作寻找人体肤色。它会输出与输入图像大小相同的图像,每一个像素值代表了输入图像上对应点属于目标对象的概率,简言之,输出图像中像素值越高的点越可能代表想要查找的目标。直方图投影经常与camshift(追踪算法)算法一起使用。
(1)截取若干张不同肤色的图片,最好覆盖常见的所有肤色(如下图)
(2)对所有肤色的图片一起做色彩直方图(利用OpenCV中的calcHist函数)
(3)新建一个与待检测图片同尺寸的灰度图片,找到待检测图片中每颗像素点的颜色在色彩直方图中对应栅格的数值(即统计中出现的次数),并将该数值赋值予新建灰度图片中与该检测像素同位置的像素(利用OpenCV中的calcBackProject函数)。图像中像素亮度越高,待检测图像该位置处是肤色的概率越大。
def skinMask_hist_backproject(target, roi_image):
#roi图片,就想要找的的图片
hsv = cv2.cvtColor(roi_image,cv2.COLOR_BGR2HSV)
#目标搜索图片
hsvt = cv2.cvtColor(target,cv2.COLOR_BGR2HSV)
#计算目标直方图
roihist = cv2.calcHist([hsv],[0,1],None,[180,256],[0,180,0,256])
#归一化,参数为原图像和输出图像,归一化后值全部在2到255范围
cv2.normalize(roihist,roihist,0,255,cv2.NORM_MINMAX)
dst = cv2.calcBackProject([hsvt],[0,1],roihist,[0,180,0,256],1)
#卷积连接分散的点
disc = cv2.getStructuringElement(cv2.MORPH_ELLIPSE,(5,5))
dst = cv2.filter2D(dst,-1,disc)
ret,skin = cv2.threshold(dst,50,255,0)
ratio = np.sum(skin/255)/(target.shape[0]*target.shape[1])
return skin, ratio