CVPiexlBuffer与纹理

两者可以相互转换,因为共享同一高速缓冲区

CVPiexlBuffer可以理解为在CPU内存,纹理是GPU显存,GPU显存才需要GL环境,所以CVPiexlBuffer的创建不需要GL环境,就是可以随意传播。比如解码视频或相机拿到CVPiexlBuffer后可以传给一个GL环境生成纹理。生成纹理要区分YUV格式还是RGB格式。

当CVPiexlBuffer是YUV格式时,转纹理:

//亮度纹理,取CVPixelBuffer的0,GL_LUMINANCE表示单通道在openGL 3.0中已经弃用可以用GL_RED_EXT代替

CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault, VideoTextureCache, CVPixelBuffer, NULL, GL_TEXTURE_2D, GL_LUMINANCE, 宽, 高, GL_LUMINANCE, GL_UNSIGNED_BYTE, 0通道, &luminanceTextureRef);

//色度纹理,取CVPixelBuffer的1,GL_LUMINANCE_ALPHA在openGL 3.0中已经弃用可以用GL_RG_EXT代替

CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault, VideoTextureCache, CVPixelBuffer, NULL, GL_TEXTURE_2D, GL_LUMINANCE_ALPHA, 宽/2, 高/2, GL_LUMINANCE_ALPHA, GL_UNSIGNED_BYTE, 1通道, &chrominanceTextureRef);

然后可以将luminanceTextureRef和chrominanceTextureRef这两个纹理经过公式转换成一个RGB的纹理,方便后面处理。

那么反过来,如果知道一个RGB的纹理怎么拿到CVPixelBuffer呢?

可以通过将RGB Draw到一个FrameBuffer上,这个FrameBuffer创建时是绑定一个纹理的,这个纹理通过上面的方式和一个CVPixelBuffer共享同一个高速缓冲区,这样就拿到了CVPixelBuffer.

这里需要注意RGB转YUV格式的CVPixelBuffer和转RGB格式的CVPixelBuffer是不一样的。

转YUV的CVPiexlBuffer需要创建两个FrameBuffer,分别绑定Lum纹理0通道和Chorm纹理1通道(和上面一样),这样Dram两次分别Draw到两个FrameBuffer,才能得到一个完整的YUV,Draw一次只能得到一个通道的像素。

//1.创建一个CVPixelBuffer,格式是kCVPixelFormatType_420YpCbCr8BiPlanarFullRange

CVPixelBufferCreate(kCFAllocatorDefault, 宽, 高,                                                kCVPixelFormatType_420YpCbCr8BiPlanarFullRange, 字典属性, &self->pixelBuffer);

注意用完要释放CVPixelBufferRelease()或CFRelease()

//2.共享缓冲区,Y通道纹理

CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault,                                                               coreVideoTextureCache,    self->pixelBuffer,    NULL,     GL_TEXTURE_2D,                                                               GL_RED_EXT,   宽,  高,     GL_RED_EXT,                                                               GL_UNSIGNED_BYTE,     0 (Y通道),     &self->yPlaneTextureRef);

//3..绑定FrameBuffer颜色附属缓冲区

glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0,                                   GL_TEXTURE_2D, self->_yPlaneTexture, 0);

Draw到这个FrameBuffer只能拿到Y通道,此时CVPixelBuffer不完整,还要再Draw一个UV通道的。

//4.共享缓冲区,UV通道纹理CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault,                                                                coreVideoTextureCache,    self->pixelBuffer,    NULL,     GL_TEXTURE_2D,                                                                GL_RG_EXT,   宽/2,  高/2,     GL_RG_EXT,                                                                GL_UNSIGNED_BYTE,     1 (UV通道),     &self->uvPlaneTextureRef);

//5..绑定FrameBuffer颜色附属缓冲区

glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0,                                    GL_TEXTURE_2D, self->_uvPlaneTexture, 0);

Draw到这个FrameBuffer拿到UV通道,此时CVPixelBuffer含有了YUV通道,才算完整。

转RGB的CVPixelBuffer创建一个FrameBuffer就行啦,绑定一个纹理和CVPiexlBuffer共享高速缓冲区:

//1.创建一个CVPixelBuffer,格式是kCVPixelFormatType_32BGRA

 CVPixelBufferCreate(kCFAllocatorDefault, 宽, 高,                                               kCVPixelFormatType_32BGRA, 字典属性, &self->pixelBuffer);

//2.共享缓冲区,这里就和YUV的区别开了

CVOpenGLESTextureCacheCreateTextureFromImage (kCFAllocatorDefault,                                                                coreVideoTextureCache,  self->pixelBuffer,  NULL,  GL_TEXTURE_2D,  GL_RGBA, 宽, 高, GL_BGRA????,   GL_UNSIGNED_BYTE,  0,      &self->renderTexture);

//3.绑定FrameBuffer颜色附属缓冲区

glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0,                                   GL_TEXTURE_2D, CVOpenGLESTextureGetName(self->renderTexture), 0);

通过这三步创建FrameBuffer,将纹理Draw到这个FramBuffer就可以拿到CVPixelBuffer啦

CVPixelBuffer的其他操作

CVPixelBuffer->CIImage->CGImage

CIImage ciImage = [CIImage imageWithCVPixelBuffer:cvPixelBuffer];

CGImageRef cgImager=outputImage.CGImage;

CVPixelBuffer->CGImage

void *baseAddress = CVPixelBufferGetBaseAddress(pixelBuffer); //获取地址    size_t width =          CGColorSpaceRef rgbColorSpace = CGColorSpaceCreateDeviceRGB();  //构造色彩空间    CGDataProviderRef provider = CGDataProviderCreateWithData(NULL,baseAddress,buffersize,NULL);                              CGImageRef cgImage = CGImageCreate(width, height, 8, 32, bytesPerRow,      rgbColorSpace,kCGImageAlphaNoneSkipFirst | kCGBitmapByteOrder32Little,provider, NULL, true,       kCGRenderingIntentDefault);

CIImage->CVPixelBuffer

   _context = [[CIContext alloc] init];   

[_context render:ciImage toCVPixelBuffer:cvPixelBuffer];

//颜色空间类型

RGB :

kCVPixelFormatType_32BGRA = 'BGRA' 

kCVPixelFormatType_32BGRA = 'BGRA',

 kCVPixelFormatType_32ABGR = 'ABGR',

 kCVPixelFormatType_32RGBA = 'RGBA',

NV12 :

kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange = '420v'  //luma=[16,235] chroma=[16,240]。

kCVPixelFormatType_420YpCbCr8BiPlanarFullRange = '420f',  // luma=[0,255] chroma=[1,255]

packed: 先连续存储所有Y分量,然后交叉存储U、V分量;

planar:Y、U、V分别用三个单独数组存储

YUV420P : 

kCVPixelFormatType_420YpCbCr8Planar = 'y420'

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 首先先看一下实现的效果吧 最终实现的效果图 原图是一张完整的图,我们把原图做成一个四宫格的样式,当然了,9宫格也是...
    LoveToday2020阅读 3,647评论 0 0
  • 前言GPUImage是iOS上一个基于OpenGL进行图像处理的开源框架,内置大量滤镜,架构灵活,可以在其基础上很...
    遵天循道阅读 2,361评论 0 1
  • 本篇主要讲解GPUImage底层是如何渲染的,GPUImage底层使用的是OPENGL,操控GPU来实现屏幕展示 ...
    wo不懂阅读 6,723评论 4 4
  • GLSL代码 顶点着色器代码 片元着色器代码 获取纹理对应像素点的颜色值 TexCoord 纹理坐标,通过顶点着色...
    _涼城阅读 3,744评论 0 2
  • 本系列所有文章目录 获取示例代码 本文将介绍渲染到纹理技术。之前的例子都是将3D物体渲染到屏幕上,在iOS中GLK...
    handyTOOL阅读 13,701评论 5 9

友情链接更多精彩内容