直播美颜功能GPUImage

      GPUImage是一个基于GPU图像和视频处理的开源iOS框架,提供各种各样的图像处理滤镜,并且支持照相机和摄像机的实时滤镜; 基于GPU的图像加速,因此可以加速对实时摄像头视频、电影以及image的滤镜和其它效果处理,并且能够自定义图像滤镜。另外, GPUImage支持ARC。

      使用GPUImage处理图片比Core Image更简单,只需要将过滤器赋给图片对象即可,不用考虑context或者设备等其他问题。GPUImage提供了除高斯模糊外的其他几种不同效果的模糊,虽然Core Image也提供了几种模糊效果,但目前在iOS上能用的就只有高斯模糊,而GPUImage可用的有FastBlur, GaussianBlur, GaussianSelectiveBlur 和 BoxBlur。此外,作为开源框架的GPUImage还支持自定义的过滤器。

OpenGL ES准备

回顾下我们之前的OpenGL ES教程,图像在OpenGL ES中的表示是纹理,会在片元着色器里面进行像素级别的处理。

假设我们自定义一个OpenGL ES程序来处理图片,那么会有以下几个步骤:

1、初始化OpenGL ES环境,编译、链接顶点着色器和片元着色器;

2、缓存顶点、纹理坐标数据,传送图像数据到GPU;

3、绘制图元到特定的帧缓存;

4、在帧缓存取出绘制的图像。

GPUImageFilter负责的是第一、二、三步。

GPUImageFramebuffer负责是第四步。

GPUImageFilter解析

GPUImageFilter和响应链的其他元素实现了GPUImageInput协议,他们都可以提供纹理参与响应链,或者从响应链的前面接收并处理纹理。响应链的下一个对象是target,响应链可能有多个分支(添加多个targets)。

Filters and other subsequent elements in the chain conform to the GPUImageInput protocol, which lets them take in the supplied or processed texture from the previous link in the chain and do something with it. Objects one step further down the chain are considered targets, and processing can be branched by adding multiple targets to a single output or filter.

获取纹理坐标

+ (constGLfloat*)textureCoordinatesForRotation:(GPUImageRotationMode)rotationMode;

绘制结果输出

绘制的结果后输入到outputframebuffer指定的缓存

usingNextFrameForImageCapture代表着输出的结果会被用于获取图像,所以在绘制之前要加锁

if(usingNextFrameForImageCapture)    {        [outputFramebufferlock];    }

绑定纹理

glBindTexture(GL_TEXTURE_2D, [firstInputFramebuffer texture]);

绑定输入纹理,OpenGL ES才能确定要处理纹理数据

绑定顶点和纹理坐标并绘制图元

glVertexAttribPointer(filterPositionAttribute,2, GL_FLOAT,0,0, vertices); glVertexAttribPointer(filterTextureCoordinateAttribute,2, GL_FLOAT,0,0, textureCoordinates); glDrawArrays(GL_TRIANGLE_STRIP,0,4);

GL_TRIANGLE_STRIP模式用于绘制三角形带。这里有介绍

纹理解锁

[firstInputFramebuffer unlock];输入纹理使用完毕,解锁。在调用这个解锁之前必须确定之前已经调用加锁,否则会报错。

GPUImageFramebuffer使用引用计数来管理缓存,当引用计数小于0的时候会回收缓存。

信号量

如果设置了usingNextFrameForImageCapture,则会通过GCD信号量来通知仍在等待绘制完成的函数。

if(usingNextFrameForImageCapture) {    dispatch_semaphore_signal(imageCaptureSemaphore); }

通知targets

- (void)informTargetsAboutNewFrameAtTime:(CMTime)frameTime;

当self的帧绘制完成后,通知自己的targets,并将自己的输出设置为targets的输入纹理:

[self setInputFramebufferForTarget:currentTarget atIndex:textureIndex];

然后解锁自己使用的输出缓冲区[[self framebufferForOutput] unlock];

(在上一个函数已经lock了这个缓冲区,所以这里的unlock不会马上回收内存,等到targets使用完自己的纹理后调用unlock,缓存会被回收)

在设置完缓冲区后,self会通知所有targets(除了设置忽略的)

[currentTarget newFrameReadyAtTime:frameTime atIndex:textureIndex];

等待渲染完成

if(dispatch_semaphore_wait(imageCaptureSemaphore, convertedTimeout) !=0) {returnNULL; }

一系列setter

- (void)setInteger:(GLint)newInteger forUniformName:(NSString *)uniformName;

这些函数是设置GLSL里面的变量

GPUImageFramebuffer

管理纹理缓存格式、帧缓存的buffer。

纹理格式

默认的纹理格式defaultTextureOptions

缓存创建

generateTexture会创建对应的纹理缓存

generateFramebuffer会创建对应的帧缓存

注意:iOS5.0以上会使用CVOpenGLESTextureCache

否则会使用glTexImage2D(),这个我们更熟悉的函数来传送CPU图像数据到GPU

指定渲染目标

glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_TEXTURE_2D, _texture, 0);

把渲染目标指定为图像

调整视口大小

先绑定自己的帧缓存,再调整视口大小。

- (void)activateFramebuffer;{ glBindFramebuffer(GL_FRAMEBUFFER, framebuffer); glViewport(0,0, (int)_size.width, (int)_size.height);}

解锁

当引用计数小于1的时候,会调用下面的函数把自己放回缓存管理cache。(注意这个和 destroyFramebuffer不一样,一个是回收再利用,一个是销毁)

[[GPUImageContext sharedFramebufferCache]returnFramebufferToCache:self];

从帧缓存中读取图片

在newCGImageFromFramebufferContents函数获取图像数据。

CVPixelBufferGetBaseAddress和glReadPixels都可以获得图像数据,根据iOS版本不同调用不同函数。

最后通过CGImageCreate,创建 CGImageRef,然后返回。

CVPixelBuffer

CV像素缓存是一个主内存的图像缓存,应用在渲染帧、压缩解压视频、使用CoreImage都会用到CV像素缓存。

在访问CPU的像素数据之前,必须调用CVPixelBufferLockBaseAddress,并在访问后调用CVPixelBufferUnlockBaseAddress。如果lockFLags带有kCVPixelBufferLock_ReadOnly参数,那么unlocking 的时候也需要。

A Core Video pixel buffer is an image buffer that holds pixels in main memory. Applications generating frames, compressing or decompressing video, or using Core Image can all make use of Core Video pixel buffers.

CVOpenGLESTextureCache

缓存和管理CVOpenGLESTextureRef纹理,这些纹理缓存提供了一个直接读写多种颜色格式缓存的方式。

Core Video OpenGLES texture caches are used to cache and manage CVOpenGLESTextureRef textures. These texture caches provide you with a way to directly read and write buffers with various pixel formats, such as 420v or BGRA, from GLES.

CVOpenGLESTexture

CV纹理是纹理图像缓存,提供OpenGL图像数据

Core Video OpenGLES textures are texture-based image buffers used for supplying source image data to OpenGL.

扩展

GPUImage的四大输入基础类,都可以作为响应链的起点。这些基础类会把图像作为纹理,传给OpenGL ES处理,然后把纹理传递给响应链的下一个对象。

GPUImageVideoCamera摄像头-视频流

GPUImageStillCamera摄像头-照相

GPUImagePicture图片

GPUImageMovie视频

响应链,先要理解帧缓存的概念,这在OpenGL ES教程-帧缓存有提到过。

总结

用一句话来解释GPUImageFilter就是用来接收源图像,通过自定义的顶点、片元着色器来渲染新的图像,并在绘制完成后通知响应链的下一个对象。

GPUImageFramebuffer就是用来管理纹理缓存的格式与读写帧缓存的buffer。


原文链接:http://www.jianshu.com/p/7a58a7a61f4c

你可能感兴趣的:(直播美颜功能GPUImage)