人脸检测

写在前面

  • 态度决定高度!让优秀成为一种习惯!
  • 世界上没有什么事儿是加一次班解决不了的,如果有,就加两次!(- - -茂强)

人脸识别一般步骤

  • 人脸检测
  • 人脸特征提取
  • 人脸识别
    本文主要介绍人脸检测

人脸检测

人脸检测就是从一张图片中检测出人脸的过程
这里主要看两种检测方式,一种是dlib一种是 mtcnn
文本对于其原理不再赘述,想了解原理的可以参考原论文,如果有时间,后边会专门介绍原理

dlib

dlib是c++开发开源的的机器学习库
废话不多说,直接看下效果


face_detect
import dlib
import cv2
# 初始化dlib人脸检测器
detector = dlib.get_frontal_face_detector()
#2.使用官方提供的模型构建特征提取器
predictor = dlib.shape_predictor("/Users/songyaheng/Downloads/shape_predictor_68_face_landmarks.dat")
img = cv2.imread("/Users/songyaheng/Downloads/faces.JPG")
faces = detector(img,1)
for k,d in enumerate(faces):
    cv2.rectangle(img,(d.left(),d.top()),(d.right(),d.bottom()),(0,255,0),3)
cv2.imshow("capture", img)
cv2.imwrite("/Users/songyaheng/Downloads/faces2.JPG", img)
cv2.waitKey(0)

mtcnn

face_detect
import tensorflow as tf
import align.detect_face as detect_face
import cv2
gpu_memory_fraction=0.0
with tf.Graph().as_default():
    gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=gpu_memory_fraction)
    sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options, log_device_placement=False))
    with sess.as_default():
        pnet, rnet, onet = detect_face.create_mtcnn(sess, None)
#face detection parameters
minsize = 20 # minimum size of face
threshold = [ 0.6, 0.7, 0.7 ]  # three steps's threshold
factor = 0.709 # scale factor
img = cv2.imread("/Users/songyaheng/Downloads/faces.JPG")
bounding_boxes, _ = detect_face.detect_face(img, minsize, pnet, rnet, onet, threshold, factor)
for face_position in bounding_boxes:
    face_position=face_position.astype(int)
    cv2.rectangle(img, (face_position[0],
                          face_position[1]),
                  (face_position[2], face_position[3]),
                  (0, 255, 0), 2)
cv2.imwrite("/Users/songyaheng/Downloads/faces3.JPG", img)
cv2.waitKey(0)

另一组对比

人脸检测_第1张图片
原图(图片来自百度图片)

这次我们从明暗程度对比


检测对比

利用mtcnn是一个都没能识别出来,所以对于一些背光的照片来说,还是利用dlib相对来说比较好一点
那么问题来了,在人脸识别中,不同明暗程度的人脸即使是一个人,所提取的人脸特征向量也是相差很大的,所以要想提高人脸识别的精准度,对于人脸图片的曝光度归一化还是相当重要的,我们如何归一化这种背光度较高的脸呢?
我们可以先通过dlib把人脸提取出来,然后通过算法改变这个图片的像素值,然后把人脸变亮,这样我们就可以拿到归一化的人脸了,所以难点就放在了我们如何把不同曝光度的人脸归一化到相对统一的人脸曝光度上呢?如下图


人脸检测_第2张图片
转换人脸亮度值

比较暗的就是上边dlib提取的三个原始图片的,
我们在看一组图
对比图

从该图上可以看出,该算法能够将比较暗的图变得亮一点,比较亮的图变得暗一点。也就是又一个相对统一的亮度值
我们最终提取出来的人脸应该是这样的:


提取的人脸

人脸检测_第3张图片
提取的人脸

这些提取的人脸都基本拥有相对统一的曝光度,而且更接近于人的皮肤颜色。

算法

首先我们提取人脸区域,提取后的人脸我们首先计算平均的亮度值,然后基于人体肤色的RGB和平均的RGB值,我们采用一种归一化方式,这种归一化方式可以把输入的人脸RGB值相对归一化到该肤色RGB值上,其实就是一种映射关系

比较简单的就是
映射公式

其中S(x)就是原始图像空间,T(x)就是人体肤色空间

本文采用的就是该方法进行映射计算的

到此我们的人脸检测部分已经基本结束
下期我们将介绍基于以上提取出来的人脸进行特征提取,欢迎关注。

如果对人脸识别,图像处理等方面有兴趣,欢迎一块学习
QQ:458798698
微信号:songwindwind

你可能感兴趣的:(人脸检测)