CoreImage系列三:摄像头人脸检测与写入本地

上一篇写静态图片检测的写的有点冗长,导致写不完后面的了 ( 捂脸 )。所以重新开一篇来写。


人脸检测

其实摄像头的人脸检测和静态图并没有多大的区别。不同点是我们不需要手动生成CIDetector来进行检测,苹果在AVFoudation中内置了人脸的检测。
在第一篇文章中我们实现摄像头的滤镜,这次,我们在AVCaptureSession中多加入一个输出源--AVCaptureMetadataOutput。这个类是内置的进行检测的类,一般现在进行二维码什么的检测,就是用的这个类。

_metaOutput = [AVCaptureMetadataOutput new];
if ([session canAddOutput:_metaOutput]) {
  [session addOutput:_metaOutput];
}
[_metaOutput setMetadataObjectsDelegate:self queue:_queue];
_metaOutput.metadataObjectTypes = [_metaOutput availableMetadataObjectTypes];

我们先生成一个新的metaOutput,并加入到session中,设置代理接受回调。
然后设置这个检测类型,这里也有一个坑,如果你在加入到session之前获取availableMetadataObjectTypes,你会得到空数组,这个问题我调了很久,然后看到注释中有这么一段话,

Available metadata object types are dependent on the capabilities of the AVCaptureInputPort to which this receiver's AVCaptureConnection is connected.

可检测的类型是跟connection有关的,因为在加入session之前,并没有和它相关的connection,所以的到的availableMetadataObjectTypes自然是空的。

接下来在回调

- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputMetadataObjects:(NSArray *)metadataObjects fromConnection:(AVCaptureConnection *)connection

中接收检测到的对象数组。
数组中装的并不是CoreImge的feature对象,而是AVMetadataObject,但是它也有对应的人脸的位置,但是如果你直接取这个值,你会发现,并不是标准的CGRect。

If the metadata originates from video, bounds may be expressed as scalar values from 0. - 1.

注释中写了,它的值是在0到1之间,所以我们需要直接转换成对应的frame。但是一旦你开始转换,你会发现,这个东西有点烫手。


CoreImage系列三:摄像头人脸检测与写入本地_第1张图片
坐标转换.png

其实这个bounds是经过旋转了的,顺时针旋转了90度。所以它的x和y都是换了的。

CGFloat x = (1-object.bounds.origin.y)*self.view.frame.size.width - object.bounds.size.width*self.view.frame.size.height;
CGFloat y =  object.bounds.origin.x*self.view.frame.size.height;
CGRect frame = CGRectMake(x, y, object.bounds.size.height*self.view.frame.size.width, object.bounds.size.width*self.view.frame.size.height);

这样经过一番转换后才是真正的frame。


IMG_1952.PNG

这样,我们获取到了真的位置,就像处理静态图一样处理就行了。后面会有demo,里面有具体代码。


IMG_1953.PNG

写入本地

本来如果是没有处理过的CMSampleBufferRef,我们可以直接用writer写入就可以了,但是我们处理过之后,生成的是CIImage,所以并不能用之前的方式。
所以我们需要将CIImage转成CVPixelBufferRef,再用AVAssetWriterInputPixelBufferAdaptor写入。

AVAssetWriterInputPixelBufferAdaptor

Defines an interface for appending video samples packaged as CVPixelBuffer objects to a single AVAssetWriterInput object.

可以看出AVAssetWriterInputPixelBufferAdaptor是用来写入CVPixelBuffer的。它的生成也很简单,

AVAssetWriterInputPixelBufferAdaptor *adaptor = [AVAssetWriterInputPixelBufferAdaptor assetWriterInputPixelBufferAdaptorWithAssetWriterInput:_videoWriterInput sourcePixelBufferAttributes:nil];

主要参数是一个AVAssetWriterInput,而且这个input应该是AVMediaTypeVideo的input。后面的参数可以不传也可以传内的Pixel buffer attributes keys。

接下来我们将滤镜完成的CIImage转换成CVPixelBuffer,

CVPixelBufferRef buffer = NULL;
CVPixelBufferPoolCreatePixelBuffer(NULL, self.adaptor.pixelBufferPool, &buffer);
[self.context render:endImage toCVPixelBuffer:buffer];
[self.adaptor appendPixelBuffer:buffer withPresentationTime:CMSampleBufferGetPresentationTimeStamp(sampleBuffer)];
            CFRelease(buffer);

我们先生成一个空的CVPixelBufferRef类型的buffer,这里有一个CVPixelBufferPoolRef,这是一个类似于autoreleasepool的东西,在AVAssetWriterInputPixelBufferAdaptor的声明有一段话

Using the provided pixel buffer pool for buffer allocation is typically more efficient than appending pixel buffers allocated using a separate pool.

简单说就是用这个很方便的生成一个CVPixelBufferRef。
这个时候生成的CVPixelBufferRef还只是一个初始对象,里面并没有包含任何的视频数据,我们需要将我们刚才的CIImage写入到buffer中,这个用到CIContext中的API。然后我们就可以将这个buffer加入到写入adaptor了,有个时间信息,我们直接获取原始CMSampleBufferRef的信息就行。
这样我们就能将我们处理过的视频直接写入到本地了。Demo在这里

你可能感兴趣的:(CoreImage系列三:摄像头人脸检测与写入本地)