Core Image框架详细解析(六) —— 图像中的面部识别Detecting Faces in an Image(一)

版本记录

版本号 时间
V1.0 2018.01.28

前言

Core Image是IOS5中新加入的一个框架,里面提供了强大高效的图像处理功能,用来对基于像素的图像进行操作与分析。还提供了很多强大的滤镜,可以实现你想要的效果,下面我们就一起解析一下这个框架。感兴趣的可以参考上面几篇。
1. Core Image框架详细解析(一) —— 基本概览
2. Core Image框架详细解析(二) —— Core Image滤波器参考
3. Core Image框架详细解析(三) —— 关于Core Image
4. Core Image框架详细解析(四) —— Processing Images处理图像(一)
5. Core Image框架详细解析(五) —— Processing Images处理图像(二)

图像中的面部识别

Core Image可以分析和查找图像中的人脸。 它执行人脸检测,而不是识别。 人脸检测是包含人脸特征的矩形的识别,而人脸识别是特定人脸的识别(John,Mary等)。 Core Image检测到人脸后,可以提供有关人脸特征的信息,例如眼睛和嘴巴的位置。 它还可以跟踪视频中识别的脸部的位置。

Core Image框架详细解析(六) —— 图像中的面部识别Detecting Faces in an Image(一)_第1张图片
Figure 2-1 Core Image identifies face bounds in an image

知道图像中人脸的位置可让您执行其他操作,例如裁剪或调整人脸的图像质量(色调平衡,红眼校正等)。 你也可以在脸上进行其他有趣的操作,例如:

  • Anonymous Faces Filter Recipe显示了如何将像素化过滤器仅应用于图像中的面部。
  • White Vignette for Faces Filter Recipe展示如何在脸上放置一个小插图。

Note: Face detection is available in iOS v5.0 and later and in OS X v10.7 and later. 注意:iOS v5.0及更高版本和OS X v10.7及更高版本均提供人脸检测功能。


Detecting Faces - 面部检测

使用CIDetector类在图像中查找面,如Listing 2-1所示

// Listing 2-1  Creating a face detector

CIContext *context = [CIContext context];                    // 1
NSDictionary *opts = @{ CIDetectorAccuracy : CIDetectorAccuracyHigh };      // 2
CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace
                                          context:context
                                          options:opts];                    // 3
 
opts = @{ CIDetectorImageOrientation :
          [[myImage properties] valueForKey:kCGImagePropertyOrientation] }; // 4
NSArray *features = [detector featuresInImage:myImage options:opts];        // 5

这里说明一下代码要做的事情:

    1. 使用默认选项创建上下文。您可以使用Processing Images中描述的任何上下文创建函数。),创建检测器时,您也可以选择提供nil而不是上下文。)
    1. 创建一个选项字典来指定检测器的准确度。您可以指定低或高准确度。在这个例子中显示,精度低(CIDetectorAccuracyLow)速度快,高精度但速度较慢。
    1. 创建面部检测器。你可以创造的唯一类型的探测器是人类的面孔。
    1. 设置寻找面部的选项字典。让Core Image知道图像的方向是非常重要的,因此探测器知道在哪里可以找到直立的面孔。大多数情况下,您将从图像本身读取图像方向,然后将该值提供给选项字典。
    1. 使用探测器查找图像中的特征。您提供的图像必须是CIImage对象。 Core Image返回一个CIFeature对象数组,每个对象表示图像中的一个面部。

在获得一面孔数组之后,您可能需要了解其特征,例如眼睛和嘴巴的位置。 接下来的部分描述了应该怎么做。


Getting Face and Face Feature Bounds - 获取脸部和脸部特征界限

脸部特征包括:

  • 左右眼位置
  • 嘴巴的位置
  • Core Image用于跟踪视频片段中的人脸的跟踪ID和跟踪帧数(可在iOS v6.0及更高版本和OS X v10.8及更高版本中使用)

CIDetector对象获取一数组面部特征后,您可以遍历数组来检查每个面的边界以及面中的每个特征,如Listing 2-2所示

// Listing 2-2  Examining face feature bounds

for (CIFaceFeature *f in features) {
    NSLog(@"%@", NSStringFromRect(f.bounds));
 
    if (f.hasLeftEyePosition) {
        NSLog(@"Left eye %g %g", f.leftEyePosition.x, f.leftEyePosition.y);
    }
    if (f.hasRightEyePosition) {
        NSLog(@"Right eye %g %g", f.rightEyePosition.x, f.rightEyePosition.y);
    }
    if (f.hasMouthPosition) {
        NSLog(@"Mouth %g %g", f.mouthPosition.x, f.mouthPosition.y);
    }
}

后记

本篇已结束,后面更精彩~~~

Core Image框架详细解析(六) —— 图像中的面部识别Detecting Faces in an Image(一)_第2张图片

你可能感兴趣的:(Core Image框架详细解析(六) —— 图像中的面部识别Detecting Faces in an Image(一))