渲染CVPixelBufferRef视频帧显示
流程
1、构建OPenGL渲染环境
2、CVPixelBufferRef生成纹理Texture
2、纹理显示
构建OPenGL渲染环境
1、创建EAGLContext上下文
self.context = [[EAGLContext alloc] initWithAPI:kEAGLRenderingAPIOpenGLES2];
[EAGLContext setCurrentContext:self.context];
2、构建设置CAEAGLLayer属性
_eaglLayer = (CAEAGLLayer*) self.layer;
_eaglLayer.opaque = YES;
_eaglLayer.drawableProperties = [NSDictionary dictionaryWithObjectsAndKeys:
[NSNumber numberWithBool:NO], kEAGLDrawablePropertyRetainedBacking, kEAGLColorFormatRGBA8, kEAGLDrawablePropertyColorFormat, nil];
_eaglLayer.contentsScale = [[UIScreen mainScreen] scale];
3、绑定纹理缓冲区和帧缓冲区,并与CAEAGLLayer联系
//1.渲染缓存区, 帧缓存区对象
GLuint renderBuffer;
GLuint frameBuffer;
//2.获取渲染缓存区名称, 绑定渲染缓存区以及将渲染缓存区与 layer建立联系
glGenRenderbuffers(1, &renderBuffer);
glBindRenderbuffer(GL_RENDERBUFFER, renderBuffer);
[self.context renderbufferStorage:GL_RENDERBUFFER fromDrawable:layer];
//3.获取帧缓存区名称, 绑定帧缓存区以及渲染缓存区附着到帧缓存区上
glGenFramebuffers(1, &frameBuffer);
glBindFramebuffer(GL_FRAMEBUFFER, frameBuffer);
glFramebufferRenderbuffer(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_RENDERBUFFER, renderBuffer);
4、初始化纹理着色器和片元着色器,生成Program
NSString *fsh = [[self.filterBundle resourcePath] stringByAppendingFormat:@"/%@/%@.fsh",name,name];
NSString *vsh = [[self.filterBundle resourcePath] stringByAppendingFormat:@"/%@/%@.vsh",name,name];
GLuint program = [SKGLUtils compileShaders:vsh shaderFragment:fsh isFilePath:YES];
5、上传图片数据,生成纹理显示
glUseProgram(rgbaProgram);
glActiveTexture(GL_TEXTURE0);
CVOpenGLESTextureCacheCreateTextureFromImage(……)
……
glClearColor(0.1f, 0.0f, 0.0f, 1.0f);
glClear(GL_COLOR_BUFFER_BIT);
glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);
CVPixelBufferRef生成纹理Texture
CVPixelBufferRef是一种像素图片类型,是一个C对象,不是一个类,对它的操作都是C函数进行操作。有着多种不同的数据格式,通过CVPixelBufferGetPixelFormatType(pixelBuffer)
来获取,通常使用RGBA和YUV420比较常见。 由于是C对象,它不受ARC去管理,创建出一个对象,需要手动去释放。(Swift语言可以不需要手动,这个或许和Swift没有暴露指针操作有关系)。其中包含着视频帧数据,也可以理解为图片数据。
通过CVPixelBufferGetBaseAddressOfPlane可以得到每个平面的数据指针(图片数据)。在得到 Address之前需要调用CVPixelBufferLockBaseAddress,进行lock下来实现地址映射,同时lock也保证了没有读写冲突。
将 CVPixelBufferRef 生成纹理,有两种方法:
1、取出CVPixelBufferRef的图片数据,通过glTexImage2D(……)
进行上传纹理,生成纹理ID
2、使用系统C函数方法CVOpenGLESTextureCacheCreateTextureFromImage(……)
进行上传纹理
CVReturn err;
CVOpenGLESTextureRef luminanceTextureRef = NULL;
CVOpenGLESTextureRef chrominanceTextureRef = NULL;
glActiveTexture(GL_TEXTURE0);
err = CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault,
videoTextureCache,
pixelBuffer,
NULL,
GL_TEXTURE_2D,
GL_RED_EXT,
frameWidth,
frameHeight,
GL_RED_EXT,
GL_UNSIGNED_BYTE,
0,
&luminanceTextureRef);
if (err) {
NSLog(@"Error at CVOpenGLESTextureCacheCreateTextureFromImage %d", err);
}
显示纹理
将生成的纹理进行启用和绑定
glActiveTexture(GL_TEXTURE0);
glBindTexture(GL_TEXTURE_2D, CVOpenGLESTextureGetName(luminanceTextureRef));
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);
最后进行显示纹理
glClearColor(0.1f, 0.0f, 0.0f, 1.0f);
glClear(GL_COLOR_BUFFER_BIT);
glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);
注意事项
1、生成的纹理在使用结束时候进行释放CFRelease(luminanceTextureRef);
2、使用CVOpenGLESTextureCacheCreateTextureFromImage()
的videoTextureCache
对象只需要创建一次,不需要多此创建,不用时删除
3、渲染或者释放时候,注意在渲染线程中做操作。否则可能线程不同步问题,造成野指针
4、APP在退出到后台时候,应该停止渲染OPenGL的操作。iOS不支持在后台做OPenGL的执行,会有野指针闪退问题