AVFoundation - 入门

AVFoundation框架是iOS中很重要的框架,所有与音视频相关的软硬件控制都在这个框架里面。接下来主要是对这个框架中的媒体捕捉模块进行介绍和学习。

捕捉会话

AVFoundation媒体捕捉的核心类是AVCaptureSession,是用来管理数据捕捉的中央协调对象,使用一个实例来协调从输入设备到输出的数据流。相当于一个虚拟的插线板,用于连接输入和输出的资源。

捕捉设备

AVCaptureDevice为摄像头、麦克风等物理设备提供接口。大部分我们使用的设备都是内置于iphone上的,但是也可能出现外部设备。AVCaptureDevice针对物理设备提供了大量的控制方法。比如控制摄像头聚焦、曝光、白平衡和闪光灯等。

捕捉输入

AVCaptureDevice不能直接添加到AVCaptureSession中,必须封装成AVCaptureInput实例。这个对象在捕捉设备和捕捉会话间扮演接线板的作用。

捕捉输出

AVCaptureOutput是一个抽象类,用于为捕捉会话得到的数据寻找输出的目的地。框架定义了一些抽象的高级扩展类。比如AVCaptureStillImageOutput和AVCaptureMovieFileOutput类,使用它们来捕捉静态照片、视频。AVCaptureAudioDataOutput和AVCaptureVideoDataOutput,使用它们来直接访问硬件捕捉到的数字样本。

捕捉预览

AVCaptureVideoPreviewLayer顾名思义可以对捕捉到的数据进行实时预览。

捕捉连接

AVCaptureConnection: 捕捉会话中特定输入对和输出对象之间的连接。

案例

实现一个简单的图像捕捉并实时预览的功能

    
    // 创建捕捉会话,AVCaptureSession是捕捉场景的中心枢纽
    self.captureSession = [[AVCaptureSession alloc] init];
    
    //拿到默认视频捕捉设备, iOS系统返回后置摄像头
    AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
    
    //将捕捉设备封装成AVCaptureDeviceInput,为会话添加捕捉设备必须将设备封装成AVCaptureDeviceInput对象
    AVCaptureDeviceInput *deviceInput = [[AVCaptureDeviceInput alloc] initWithDevice:device error:nil];
    
    //canAddInput: 测试是否能被添加到会话中
    if ([self.captureSession canAddInput:deviceInput]) {
        // 将deviceInput添加到captureSession中
        [self.captureSession addInput:deviceInput];
    }
    
    //创建预览图层,能够预览到捕捉的实时画面
    AVCaptureVideoPreviewLayer *previewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:self.captureSession];
    previewLayer.frame = self.view.bounds;
    [self.view.layer addSublayer:previewLayer];

    // 运行captureSession
    [self.captureSession startRunning];

你可能感兴趣的:(AVFoundation - 入门)