媒体捕捉---基本概念的介绍以及实现拍照功能的Demo

媒体捕捉---基本概念的介绍以及实现拍照功能的Demo_第1张图片
图一.AVFoundation捕捉类

图一中给出了开发捕捉功能应用程可能用到的一些类。

一、捕捉会话--- AVCaptureSession

AVCaptureSession是AVFoundation捕捉栈的核心类。一个捕捉会话相当于一个虚拟的“插线板”,连接输入输出的资源。AVCaptureSession中有一个会话预设值,用来控制捕捉数据的格式和质量,框架提供了多个预设值对输出进行定制,不过默认AVCaptureSessionPresetHigh,适用于大多数情况。

二、捕捉设备---AVCaptureDevice

AVCaptureDevice为麦克风、摄像头等物理设备定义了一个接口。这个类对物理硬件设备定义了大量的控制方法,如摄像头的对焦,曝光,白平衡和闪光灯等。访问系统的捕捉设备时,最常实用的方法是:defaultDeviceWithMediaType:,会根据给定的媒体类型返回一个系统指定的默认设别。eg:

AVCaptureDevice * device  =[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];

示例中我们返回了一个默认的视频设备,并且返回的是系统默认的后置摄像头。

三、捕捉设备的输入---AVCaptureDeviceInput

在AVFoundation中,我们无法直接将捕捉设备添加到AVCaptureSession中,我们需要将捕捉设备AVCaptureDevice封装到AVCaptureDeviceInput中,个人理解类似于桥接作用。e.g:

NSError * error;                                                                                   AVCaptureDeviceInput  * input = [AVCaptureDeviceInput deviceInputWithDevice:device error:&error];

示例中我们将捕捉设备封装到了AVCaptureDeviceInput中,从而为后续添加到捕捉会话Session提供可能。

四、捕捉的输出---AVCaptureOutput

AVCaptureOutput是一个抽象基类,AVFoundation中定义了大量的扩展类。用于将会话Session得到的数据输出。常用的关于捕捉静态图片的AVCaptureStilImageOutput(不过在iOS10之后用AVCapturePhotoOutput替代了)和视频的AVCaptureVideoDataOutput都是AVCaptureOutput的更高级扩展。

五、捕捉的连接---AVCaptureConnect

AVCaptureConnect指定了捕捉的输出媒体类型mediaType,并且建立其能够接受该媒体类型的捕捉输出端的连接。

六、捕捉的预览---AVCaptureVideoPreiewLayer

如同我们在加载视频时使用AVPlayerLayer一样,媒体的捕捉需要使用AVCaptureVideoPreiewLayer才可以显示摄像头捕捉的画面,同事也和AVPalyerLayer一样,支持视频重力的概念,其中AVLayerVideoGravityResizeAspect适用于大多数情况。对于AVCaptureVideoPreiewLayer,我们需要将我们之前创建的会话Session传递给这个layer层,如此我们就可以看到捕捉的视图。

以上就是媒体捕捉的基本流程概念。下面是简单实现摄像头拍照功能。

在拍照这个Demo中核心的是一下代码:


媒体捕捉---基本概念的介绍以及实现拍照功能的Demo_第2张图片
点击拍照后执行的代码

当我们点击Photo按钮后会执行以上代码。首先我们创建一个AVCaptureConnect,并传入媒体类型。随后建立和捕捉输出设备的连接,这是一个异步执行的方法,当数据输出完毕之后,会执行一个回调方法handle,这个回调方法有两个参数,imageDataSampleBuffer 和 error,error就不多做解释,imageDataSampleBuffer就是我们捕捉的采样数据,根据imageDataSampleBuffer我们就可以转化为UIImage,并写到系统相册里了。

Demo地址:简单的拍照

你可能感兴趣的:(媒体捕捉---基本概念的介绍以及实现拍照功能的Demo)