GPUImage详细解析

GPUImage详细解析(一)
上一篇介绍的是GPUImageFramebufferGPUImageFilter
简单回顾一下:

  • GPUImageFilter就是用来接收源图像,通过自定义的顶点、片元着色器来渲染新的图像,并在绘制完成后通知响应链的下一个对象。
  • GPUImageFramebuffer就是用来管理纹理缓存的格式与读写帧缓存的buffer。

这一篇介绍的是GPUImageVideoCameraGPUImageView

GPUImageVideoCamera

GPUImageVideoCamera是GPUImageOutput的子类,提供来自摄像头的图像数据作为源数据,一般是响应链的源头。

1、视频图像采集 :AVCaptureSession

GPUImage使用AVFoundation框架来获取视频。
AVCaptureSession类从AV输入设备的采集数据到制定的输出。
为了实现实时的图像捕获,要实现AVCaptureSession类,添加合适的输入(AVCaptureDeviceInput)和输出(比如 AVCaptureMovieFileOutput)
调用startRunning开始输入到输出的数据流,调用stopRunning停止数据流。
需要注意的是startRunning函数会花费一定的时间,所以不能在主线程(UI线程)调用,防止卡顿。
sessionPreset 属性可以自定义一些设置。
特殊的选项比如说高帧率,可以通过 AVCaptureDevice来设置。
AVCaptureSession使用的简单示例:

_captureSession = [[AVCaptureSession alloc] init];
    [_captureSession beginConfiguration];
// 中间可以实现关于session属性的设置
    [_captureSession commitConfiguration];

  • AVCaptureVideoDataOutput
    AVCaptureVideoDataOutputAVCaptureOutput的子类,用来处理从摄像头采集的未压缩或者压缩过的图像帧。
    通过captureOutput:didOutputSampleBuffer:fromConnection: delegate,可以访问图像帧。
    通过下面这个方法,可以设置delegate。
- (void)setSampleBufferDelegate:
(id)sampleBufferDelegate 
queue:(dispatch_queue_t)sampleBufferCallbackQueue;

需要注意的是,当一个新的视频图像帧被采集后,它会被传送到output,调用这里设置的delegate。所有的delegate函数会在这个queue中调用。如果队列被阻塞,新的图像帧到达后会被自动丢弃(默认alwaysDiscardsLateVideoFrames = YES)。这允许app处理当前的图像帧,不需要去管理不断增加的内存,因为处理速度跟不上采集的速度,等待处理的图像帧会占用内存,并且不断增大
必须使用同步队列处理图像帧,保证帧的序列是顺序的。

  • frameRenderingSemaphore 帧渲染的信号量
    下面有一个这样的调用,用于等待处理完一帧后,再接着处理下一帧。
        if (dispatch_semaphore_wait(frameRenderingSemaphore, DISPATCH_TIME_NOW) != 0)
        {
            return;
        }
        runAsynchronouslyOnVideoProcessingQueue(^{
              dispatch_semaphore_signal(frameRenderingSemaphore);
        });

  • rotateCamera
    前后摄像头翻转:更改videoInput的设置。

2、颜色空间:YUV

YUV是被欧洲电视系统所采用的一种颜色编码方法。
采用YUV色彩空间的重要性是它的亮度信号Y色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。

YCbCr或Y'CbCr有的时候会被写作:YCBCR或是Y'CBCR,是色彩空间的一种,通常会用于影片中的影像连续处理,或是数字摄影系统中。Y'为颜色的亮度(luma)成分、而CB和CR则为蓝色和红色的浓度偏移量成份。
YUV主要用于优化彩色视频信号的传输,使其向后相容老式黑白电视。与RGB视频信号传输相比,它最大的优点在于只需占用极少的频宽(RGB要求三个独立的视频信号同时传输)。

CbCr 则是在世界数字组织视频标准研制过程中作为ITU - R BT.601 建议的一部分,其实是YUV经过缩放和偏移的翻版。其中Y与YUV 中的Y含义一致,Cb,Cr 同样都指色彩,只是在表示方法上不同而已。在YUV 家族中,YCbCr 是在计算机系统中应用最多的成员,其应用领域很广泛,JPEG、MPEG均采用此格式。一般人们所讲的YUV大多是指YCbCr。YCbCr 有许多取样格式,如4∶4∶4,4∶2∶2,4∶1∶1 和4∶2∶0。
百度百科的介绍
YUV数据格式-图文详解
GPUImage中的YUV
GLProgram *yuvConversionProgram; 将YUV颜色空间转换成RGB颜色空间的GLSL。
CVPixelBufferGetPlaneCount()返回缓冲区的平面数。
通过CVOpenGLESTextureCacheCreateTextureFromImage()创建两个纹理luminanceTextureRef(亮度纹理)和chrominanceTextureRef(色度纹理)。
convertYUVToRGBOutput()把YUV颜色空间的纹理转换成RGB颜色空间的纹理
顶点着色器-通用kGPUImageVertexShaderString
片元着色器:
1、kGPUImageYUVFullRangeConversionForLAFragmentShaderString
2、kGPUImageYUVVideoRangeConversionForLAFragmentShaderString
区别在不同的格式
video-range (luma=[16,235] chroma=[16,240])
full-range (luma=[0,255] chroma=[1,255])

3、纹理绘制

glActiveTextue 并不是激活纹理单元,而是选择当前活跃的纹理单元。每一个纹理单元都有GL_TEXTURE_1D, 2D, 3D 和 CUBE_MAP。

    glActiveTexture(GL_TEXTURE1);
    glGenTextures(1, &_texture);
    glBindTexture(GL_TEXTURE_2D, _texture);

SO的详细介绍

GPUImageView

GPUImageView是响应链的终点,一般用于显示GPUImage的图像。

1、填充模式

GPUImageFillModeType fillMode图像的填充模式。
sizeInPixels 像素区域大小。
recalculateViewGeometry() 重新计算图像顶点位置数据。
AVMakeRectWithAspectRatioInsideRect() 在保证宽高比不变的前提下,得到一个尽可能大的矩形。
如果是kGPUImageFillModeStretch
图像拉伸,直接使宽高等于1.0即可,原图像会直接铺满整个屏幕。

如果是kGPUImageFillModePreserveAspectRatio
保持原宽高比,并且图像不超过屏幕。那么以当前屏幕大小为准。
widthScaling = insetRect.size.width / currentViewSize.width;

如果是kGPUImageFillModePreserveAspectRatioAndFill
保持原宽高比,并且图像要铺满整个屏幕。那么图像大小为准。
widthScaling = currentViewSize.height / insetRect.size.height;

imageVertices存放着顶点数据,上面的修改都会存放在这个数组。

2、OpenGL ES绘制

- (void)newFrameReadyAtTime:(CMTime)frameTime atIndex:(NSInteger)textureIndex;源图像已经准备好,开始绘制。
setDisplayFramebuffer()会绑定GPUImageView的帧缓存,同时调试视口大小为view的大小。
glActiveTexture上面已经介绍过,是选择一个纹理单元。先选择纹理单元4,然后把源图像数据绑定到GL_TEXTURE_2D的位置上。最后告诉片元着色器,纹理单元是4。

        glActiveTexture(GL_TEXTURE4);
        glBindTexture(GL_TEXTURE_2D, [inputFramebufferForDisplay texture]);
        glUniform1i(displayInputTextureUniform, 4);

这两行是分别绑定顶点坐标数据和纹理坐标数据。

        glVertexAttribPointer(displayPositionAttribute, 2, GL_FLOAT, 0, 0, imageVertices);
        glVertexAttribPointer(displayTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, [GPUImageView textureCoordinatesForRotation:inputRotation]);

这两行是设定输入的源图像数据缓存,并且对缓存加锁。

    inputFramebufferForDisplay = newInputFramebuffer;
    [inputFramebufferForDisplay lock];

在准备好着色器、纹理data、顶点位置坐标和纹理坐标后,就可以调用
glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);绘制图像。

demo

这里有一个简单的示例,介绍如何用GPUImageVideoCamera采集图像并且用GPUImageView显示出来。
十分简单,核心代码不过十行。

你可能感兴趣的:(GPUImage详细解析)