iOS - 自定义视频播放器 -- (2)

渲染CVPixelBufferRef视频帧显示

流程

1、构建OPenGL渲染环境
2、CVPixelBufferRef生成纹理Texture
2、纹理显示

构建OPenGL渲染环境

1、创建EAGLContext上下文

self.context = [[EAGLContext alloc] initWithAPI:kEAGLRenderingAPIOpenGLES2];
    [EAGLContext setCurrentContext:self.context];

2、构建设置CAEAGLLayer属性

_eaglLayer = (CAEAGLLayer*) self.layer;
_eaglLayer.opaque = YES;
_eaglLayer.drawableProperties = [NSDictionary dictionaryWithObjectsAndKeys:
                                    [NSNumber numberWithBool:NO], kEAGLDrawablePropertyRetainedBacking, kEAGLColorFormatRGBA8, kEAGLDrawablePropertyColorFormat, nil];
    _eaglLayer.contentsScale = [[UIScreen mainScreen] scale];

3、绑定纹理缓冲区和帧缓冲区,并与CAEAGLLayer联系

//1.渲染缓存区, 帧缓存区对象
GLuint renderBuffer;
GLuint frameBuffer;
//2.获取渲染缓存区名称, 绑定渲染缓存区以及将渲染缓存区与 layer建立联系
glGenRenderbuffers(1, &renderBuffer);
glBindRenderbuffer(GL_RENDERBUFFER, renderBuffer);
[self.context renderbufferStorage:GL_RENDERBUFFER fromDrawable:layer];
//3.获取帧缓存区名称, 绑定帧缓存区以及渲染缓存区附着到帧缓存区上
glGenFramebuffers(1, &frameBuffer);
glBindFramebuffer(GL_FRAMEBUFFER, frameBuffer);
glFramebufferRenderbuffer(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_RENDERBUFFER, renderBuffer);

4、初始化纹理着色器和片元着色器,生成Program

NSString *fsh = [[self.filterBundle resourcePath] stringByAppendingFormat:@"/%@/%@.fsh",name,name];
    NSString *vsh = [[self.filterBundle resourcePath] stringByAppendingFormat:@"/%@/%@.vsh",name,name];
    GLuint program = [SKGLUtils compileShaders:vsh shaderFragment:fsh isFilePath:YES];

5、上传图片数据,生成纹理显示

glUseProgram(rgbaProgram);
glActiveTexture(GL_TEXTURE0);
CVOpenGLESTextureCacheCreateTextureFromImage(……)
……
glClearColor(0.1f, 0.0f, 0.0f, 1.0f);
glClear(GL_COLOR_BUFFER_BIT);
glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);

CVPixelBufferRef生成纹理Texture

CVPixelBufferRef是一种像素图片类型,是一个C对象,不是一个类,对它的操作都是C函数进行操作。有着多种不同的数据格式,通过CVPixelBufferGetPixelFormatType(pixelBuffer)来获取,通常使用RGBA和YUV420比较常见。 由于是C对象,它不受ARC去管理,创建出一个对象,需要手动去释放。(Swift语言可以不需要手动,这个或许和Swift没有暴露指针操作有关系)。其中包含着视频帧数据,也可以理解为图片数据。

通过CVPixelBufferGetBaseAddressOfPlane可以得到每个平面的数据指针(图片数据)。在得到 Address之前需要调用CVPixelBufferLockBaseAddress,进行lock下来实现地址映射,同时lock也保证了没有读写冲突。

将 CVPixelBufferRef 生成纹理,有两种方法:
1、取出CVPixelBufferRef的图片数据,通过glTexImage2D(……)进行上传纹理,生成纹理ID
2、使用系统C函数方法CVOpenGLESTextureCacheCreateTextureFromImage(……)进行上传纹理

 CVReturn err;
 CVOpenGLESTextureRef luminanceTextureRef = NULL;
 CVOpenGLESTextureRef chrominanceTextureRef = NULL;
 
 glActiveTexture(GL_TEXTURE0);
 err = CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault,
                                                       videoTextureCache,
                                                       pixelBuffer,
                                                       NULL,
                                                       GL_TEXTURE_2D,
                                                       GL_RED_EXT,
                                                       frameWidth,
                                                       frameHeight,
                                                       GL_RED_EXT,
                                                       GL_UNSIGNED_BYTE,
                                                       0,
                                                       &luminanceTextureRef);
if (err) {
     NSLog(@"Error at CVOpenGLESTextureCacheCreateTextureFromImage %d", err);
    }

显示纹理

将生成的纹理进行启用和绑定

glActiveTexture(GL_TEXTURE0);
glBindTexture(GL_TEXTURE_2D, CVOpenGLESTextureGetName(luminanceTextureRef));
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);

最后进行显示纹理

glClearColor(0.1f, 0.0f, 0.0f, 1.0f);
glClear(GL_COLOR_BUFFER_BIT);
glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);

注意事项

1、生成的纹理在使用结束时候进行释放CFRelease(luminanceTextureRef);
2、使用CVOpenGLESTextureCacheCreateTextureFromImage()videoTextureCache对象只需要创建一次,不需要多此创建,不用时删除
3、渲染或者释放时候,注意在渲染线程中做操作。否则可能线程不同步问题,造成野指针
4、APP在退出到后台时候,应该停止渲染OPenGL的操作。iOS不支持在后台做OPenGL的执行,会有野指针闪退问题

Git Code

你可能感兴趣的:(iOS - 自定义视频播放器 -- (2))