2018-07-29

前言   GPUImage是iOS上一个基于OpenGL进行图像处理的开源框架,内置大量滤镜,架构灵活,可以在其基础上很轻松地实现各种图像处理功能。本文主要向大家分享一下项目的核心架构、源码解读及使用心得。   GPUImage有哪些特性   1.丰富的输入组件 摄像头、图片、视频、OpenGL纹理、二进制数据、UIElement(UIView, CALayer)   2.大量现成的内置滤镜(4大类) 1). 颜色类(亮度、色度、饱和度、对比度、曲线、白平衡...) 2). 图像类(仿射变换、裁剪、高斯模糊、毛玻璃效果...) 3). 颜色混合类(差异混合、alpha混合、遮罩混合...) 4). 效果类(像素化、素描效果、压花效果、球形玻璃效果...)   3.丰富的输出组件 UIView、视频文件、GPU纹理、二进制数据   4.灵活的滤镜链 滤镜效果之间可以相互串联、并联,调用管理相当灵活。   5.接口易用 滤镜和OpenGL资源的创建及使用都做了统一的封装,简单易用,并且内置了一个cache模块实现了framebuffer的复用。   6.线程管理 OpenGLContext不是多线程安全的,GPUImage创建了专门的contextQueue,所有的滤镜都会扔到统一的线程中处理。   7.轻松实现自定义滤镜效果 继承GPUImageFilter自动获得上面全部特性,无需关注上下文的环境搭建,专注于效果的核心算法实现即可。 基本用法 // 获取一张图片 UIImage *inputImage = [UIImage imageNamed:@"sample.jpg"]; // 创建图片输入组件GPUImagePicture *sourcePicture = [[GPUImagePicture alloc] initWithImage:inputImage smoothlyScaleOutput:YES];  // 创建素描滤镜 GPUImageSketchFilter *customFilter = [[GPUImageSketchFilter alloc] init]; // 把素描滤镜串联在图片输入组件之后 [sourcePicture addTarget:customFilter]; // 创建ImageView输出组件GPUImageView *imageView = [[GPUImageView alloc] initWithFrame:mainScreenFrame]; [self.view addSubView:imageView]; // 把ImageView输出组件串在滤镜链末尾[customFilter addTarget:imageView]; // 调用图片输入组件的process方法,渲染结果就会绘制到imageView上[sourcePicture processImage];   效果如图:   整个框架的目录结构     核心架构     基本上每个滤镜都继承自GPUImageFilter; 而GPUImageFilter作为整套框架的核心; 接收一个GPUImageFrameBuffer输入; 调用GLProgram渲染处理; 输出一个GPUImageFrameBuffer; 把输出的GPUImageFrameBuffer传给通过targets属性关联的下级滤镜; 直到传递至最终的输出组件; 核心架构可以整体划分为三块:输入、滤镜处理、输出 接下来我们就深入源码,看看GPUImage是如何获取数据、传递数据、处理数据和输出数据的   获取数据   GPUImage提供了多种不同的输入组件,但是无论是哪种输入源,获取数据的本质都是把图像数据转换成OpenGL纹理。这里就以视频拍摄组件(GPUImageVideoCamera)为例,来讲讲GPUImage是如何把每帧采样数据传入到GPU的。   GPUImageVideoCamera里大部分代码都是对摄像头的调用管理,不了解的同学可以去学习一下AVFoundation(传送门)。摄像头拍摄过程中每一帧都会有一个数据回调,在GPUImageVideoCamera中对应的处理回调的方法为:   - (void)processVideoSampleBuffer:(CMSampleBufferRef)sampleBuffer;   iOS的每一帧摄像头采样数据都会封装成CMSampleBufferRef; CMSampleBufferRef除了包含图像数据、还包含一些格式信息、图像宽高、时间戳等额外属性; 摄像头默认的采样格式为YUV420,关于YUV格式大家可以自行搜索学习一下(传送门):   YUV420按照数据的存储方式又可以细分成若干种格式,这里主要是kCVPixelFormatType_420YpCbCr8BiPlanarFullRange和kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange两种;   两种格式都是planar类型的存储方式,y数据和uv数据分开放在两个plane中; 这样的数据没法直接传给GPU去用,GPUImageVideoCamera把两个plane的数据分别取出:   - (void)processVideoSampleBuffer:(CMSampleBufferRef)sampleBuffer {    // 一大坨的代码用于获取采样数据的基本属性(宽、高、格式等等)    ......    if ([GPUImageContext supportsFastTextureUpload] && captureAsYUV) {        CVOpenGLESTextureRef luminanceTextureRef = NULL;        CVOpenGLESTextureRef chrominanceTextureRef = NULL;        if (CVPixelBufferGetPlaneCount(cameraFrame) > 0) // Check for YUV planar inputs to do RGB conversion        {             ...... // 从cameraFrame的plane-0提取y通道的数据,填充到luminanceTextureRef            glActiveTexture(GL_TEXTURE4);            err = CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault, [[GPUImageContext sharedImageProcessingContext] coreVideoTextureCache], cameraFrame, NULL, GL_TEXTURE_2D, GL_LUMINANCE, bufferWidth, bufferHeight, GL_LUMINANCE, GL_UNSIGNED_BYTE, 0, &luminanceTextureRef);            ......                        // 从cameraFrame的plane-1提取uv通道的数据,填充到chrominanceTextureRef            glActiveTexture(GL_TEXTURE5);            err = CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault, [[GPUImageContext sharedImageProcessingContext] coreVideoTextureCache], cameraFrame, NULL, GL_TEXTURE_2D, GL_LUMINANCE_ALPHA, bufferWidth/2, bufferHeight/2, GL_LUMINANCE_ALPHA, GL_UNSIGNED_BYTE, 1, &chrominanceTextureRef);            ......                         // 把luminance和chrominance作为2个独立的纹理传入GPU            [self convertYUVToRGBOutput];            ......        }    } else {         ......    }   }   注意CVOpenGLESTextureCacheCreateTextureFromImage中对于internalFormat的设置; 通常我们创建一般纹理的时候都会设成GL_RGBA,传入的图像数据也会是rgba格式的; 而这里y数据因为只包含一个通道,所以设成了GL_LUMINANCE(灰度图); uv数据则包含2个通道,所以设成了GL_LUMINANCE_ALPHA(带alpha的灰度图); 另外uv纹理的宽高只设成了图像宽高的一半,这是因为yuv420中,每个相邻的2x2格子共用一份uv数据; 数据传到GPU纹理后,再通过一个颜色转换(yuv->rgb)的shader(shader是OpenGL可编程着色器,可以理解为GPU侧的代码,关于shader需要一些OpenGL编程基础(传送门)),绘制到目标纹理:    // fullrange varying highp vec2 textureCoordinate; uniform sampler2D luminanceTexture; uniform sampler2D chrominanceTexture; uniform mediump mat3 colorConversionMatrix; void main() {     mediump vec3 yuv;     lowp vec3 rgb;     yuv.x = texture2D(luminanceTexture, textureCoordinate).r;     yuv.yz = texture2D(chrominanceTexture, textureCoordinate).ra - vec2(0.5, 0.5);     rgb = colorConversionMatrix * yuv;     gl_FragColor = vec4(rgb, 1); }  // videorange varying highp vec2 textureCoordinate; uniform sampler2D luminanceTexture; uniform sampler2D chrominanceTexture; uniform mediump mat3 colorConversionMatrix; void main() {     mediump vec3 yuv;     lowp vec3 rgb;     yuv.x = texture2D(luminanceTexture, textureCoordinate).r - (16.0/255.0);     yuv.yz = texture2D(chrominanceTexture, textureCoordinate).ra - vec2(0.5, 0.5);     rgb = colorConversionMatrix * yuv;     gl_FragColor = vec4(rgb, 1); }   注意yuv420fullrange和yuv420videorange的数值范围是不同的,因此转换公式也不同,这里会有2个颜色转换shader,根据实际的采样格式选择正确的shader; 渲染输出到目标纹理后就得到一个转换成rgb格式的GPU纹理,完成了获取输入数据的工作;   传递数据   GPUImage的图像处理过程,被设计成了滤镜链的形式;输入组件、效果滤镜、输出组件串联在一起,每次推动渲染的时候,输入数据就会按顺序传递,经过处理,最终输出。     GPUImage设计了一个GPUImageInput协议,定义了GPUImageFilter之间传入数据的方法:   - (void)setInputFramebuffer:(GPUImageFramebuffer *)newInputFramebuffer atIndex:(NSInteger)textureIndex {    firstInputFramebuffer = newInputFramebuffer;    [firstInputFramebuffer lock]; }   firstInputFramebuffer属性用来保存输入纹理; GPUImageFilter作为单输入滤镜基类遵守了GPUImageInput协议,GPUImage还提供了GPUImageTwoInputFilter, GPUImageThreeInputFilter等多输入filter的基类。   这里还有一个很重要的入口方法用于推动数据流转:   - (void)newFrameReadyAtTime:(CMTime)frameTime atIndex:(NSInteger)textureIndex {    ......        [self renderToTextureWithVertices:imageVertices textureCoordinates:[[self class] textureCoordinatesForRotation:inputRotation]];    [self informTargetsAboutNewFrameAtTime:frameTime]; }   每个滤镜都是由这个入口方法开始启动,这个方法包含2个调用 1). 首先调用render方法进行效果渲染 2). 调用informTargets方法将渲染结果推到下级滤镜   GPUImageFilter继承自GPUImageOutput,定义了输出数据,向后传递的方法:   - (void)notifyTargetsAboutNewOutputTexture;   但是这里比较奇怪的是滤镜链的传递实际并没有用notifyTargets方法,而是用了前面提到的informTargets方法:   - (void)informTargetsAboutNewFrameAtTime:(CMTime)frameTime {    ......        // Get all targets the framebuffer so they can grab a lock on it    for (id currentTarget in targets) {        if (currentTarget != self.targetToIgnoreForUpdates) {            NSInteger indexOfObject = [targets indexOfObject:currentTarget];            NSInteger textureIndex = [[targetTextureIndices objectAtIndex:indexOfObject] integerValue];            [self setInputFramebufferForTarget:currentTarget atIndex:textureIndex];            [currentTarget setInputSize:[self outputFrameSize] atIndex:textureIndex];        }    }        ......        // Trigger processing last, so that our unlock comes first in serial execution, avoiding the need for a callback    for (id currentTarget in targets) {        if (currentTarget != self.targetToIgnoreForUpdates) {            NSInteger indexOfObject = [targets indexOfObject:currentTarget];            NSInteger textureIndex = [[targetTextureIndices objectAtIndex:indexOfObject] integerValue];            [currentTarget newFrameReadyAtTime:frameTime atIndex:textureIndex];        }    } }   GPUImageOutput定义了一个targets属性来保存下一级滤镜,这里可以注意到targets是个数组,因此滤镜链也支持并联结构。可以看到这个方法主要做了2件事情: 1). 对每个target调用setInputFramebuffer方法把自己的渲染结果传给下级滤镜作为输入 2). 对每个target调用newFrameReadyAtTime方法推动下级滤镜启动渲染 滤镜之间通过targets属性相互衔接串在一起,完成了数据传递工作。     处理数据   前面提到的renderToTextureWithVertices:方法便是每个滤镜必经的渲染入口。 每个滤镜都可以设置自己的shader,重写该渲染方法,实现自己的效果:   - (void)renderToTextureWithVertices:(const GLfloat *)vertices textureCoordinates:(const GLfloat *)textureCoordinates {    ......    [GPUImageContext setActiveShaderProgram:filterProgram];    outputFramebuffer = [[GPUImageContext sharedFramebufferCache] fetchFramebufferForSize:[self sizeOfFBO] textureOptions:self.outputTextureOptions onlyTexture:NO];    [outputFramebuffer activateFramebuffer];    ......    [self setUniformsForProgramAtIndex:0];        glClearColor(backgroundColorRed, backgroundColorGreen, backgroundColorBlue, backgroundColorAlpha);    glClear(GL_COLOR_BUFFER_BIT);    glActiveTexture(GL_TEXTURE2);    glBindTexture(GL_TEXTURE_2D, [firstInputFramebuffer texture]);    glUniform1i(filterInputTextureUniform, 2);    glVertexAttribPointer(filterPositionAttribute, 2, GL_FLOAT, 0, 0, vertices);    glVertexAttribPointer(filterTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, textureCoordinates);        glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);        ...... }   上面这个是GPUImageFilter的默认方法,大致做了这么几件事情: 1). 向frameBufferCache申请一个outputFrameBuffer 2). 将申请得到的outputFrameBuffer激活并设为渲染对象 3). glClear清除画布 4). 设置输入纹理 5). 传入顶点 6). 传入纹理坐标 7). 调用绘制方法   再来看看GPUImageFilter使用的默认shader:    // vertex shader attribute vec4 position; attribute vec4 inputTextureCoordinate; varying vec2 textureCoordinate; void main() {     gl_Position = position;     textureCoordinate = inputTextureCoordinate.xy; }  // fragment shader varying highp vec2 textureCoordinate; uniform sampler2D inputImageTexture; void main() {     gl_FragColor = texture2D(inputImageTexture, textureCoordinate); }   这个shader实际上啥也没做,VertexShader(顶点着色器)就是把传入的顶点坐标和纹理坐标原样传给FragmentShader,FragmentShader(片段着色器)就是从纹理取出原始色值直接输出,最终效果就是把图片原样渲染到画面。   输出数据   比较常用的主要是GPUImageView和GPUImageMovieWriter。 GPUImageView继承自UIView,用于实时预览,用法非常简单 1). 创建GPUImageView 2). 串入滤镜链 3). 插到视图里去 UIView的contentMode、hidden、backgroundColor等属性都可以正常使用 里面比较关键的方法主要有这么2个:   // 申明自己的CALayer为CAEAGLLayer+ (Class)layerClass  {    return [CAEAGLLayer class]; } - (void)createDisplayFramebuffer {    [GPUImageContext useImageProcessingContext];        glGenFramebuffers(1, &displayFramebuffer);    glBindFramebuffer(GL_FRAMEBUFFER, displayFramebuffer);    glGenRenderbuffers(1, &displayRenderbuffer);    glBindRenderbuffer(GL_RENDERBUFFER, displayRenderbuffer);    [[[GPUImageContext sharedImageProcessingContext] context] renderbufferStorage:GL_RENDERBUFFER fromDrawable:(CAEAGLLayer*)self.layer];    GLint backingWidth, backingHeight;    glGetRenderbufferParameteriv(GL_RENDERBUFFER, GL_RENDERBUFFER_WIDTH, &backingWidth);    glGetRenderbufferParameteriv(GL_RENDERBUFFER, GL_RENDERBUFFER_HEIGHT, &backingHeight);        ......    glFramebufferRenderbuffer(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_RENDERBUFFER, displayRenderbuffer);    ...... }   创建frameBuffer和renderBuffer时把renderBuffer和CALayer关联在一起; 这是iOS内建的一种GPU渲染输出的联动方法; 这样newFrameReadyAtTime渲染过后画面就会输出到CALayer。   GPUImageMovieWriter主要用于将视频输出到磁盘; 里面大量的代码都是在设置和使用AVAssetWriter,不了解的同学还是得去看AVFoundation; 这里主要是重写了newFrameReadyAtTime:方法:   - (void)newFrameReadyAtTime:(CMTime)frameTime atIndex:(NSInteger)textureIndex {    ......    GPUImageFramebuffer *inputFramebufferForBlock = firstInputFramebuffer;    glFinish();    runAsynchronouslyOnContextQueue(_movieWriterContext, ^{        ......                // Render the frame with swizzled colors, so that they can be uploaded quickly as BGRA frames        [_movieWriterContext useAsCurrentContext];        [self renderAtInternalSizeUsingFramebuffer:inputFramebufferForBlock];                CVPixelBufferRef pixel_buffer = NULL;                if ([GPUImageContext supportsFastTextureUpload]) {            pixel_buffer = renderTarget;            CVPixelBufferLockBaseAddress(pixel_buffer, 0);        } else {            CVReturn status = CVPixelBufferPoolCreatePixelBuffer (NULL, [assetWriterPixelBufferInput pixelBufferPool], &pixel_buffer);            if ((pixel_buffer == NULL) || (status != kCVReturnSuccess)) {                CVPixelBufferRelease(pixel_buffer);                return;            } else {                CVPixelBufferLockBaseAddress(pixel_buffer, 0);                                GLubyte *pixelBufferData = (GLubyte *)CVPixelBufferGetBaseAddress(pixel_buffer);                glReadPixels(0, 0, videoSize.width, videoSize.height, GL_RGBA, GL_UNSIGNED_BYTE, pixelBufferData);            }        }                ......         [assetWriterPixelBufferInput appendPixelBuffer:pixel_buffer];         ......    }); }   这里有几个地方值得注意: 1). 在取数据之前先调了一下glFinish,CPU和GPU之间是类似于client-server的关系,CPU侧调用OpenGL命令后并不是同步等待OpenGL完成渲染再继续执行的,而glFinish命令可以确保OpenGL把队列中的命令都渲染完再继续执行,这样可以保证后面取到的数据是正确的当次渲染结果。 2). 取数据时用了supportsFastTextureUpload判断,这是个从iOS5开始支持的一种CVOpenGLESTextureCacheRef和CVImageBufferRef的映射(映射的创建可以参看获取数据中的 CVOpenGLESTextureCacheCreateTextureFromImage),通过这个映射可以直接拿到CVPixelBufferRef而不需要再用glReadPixel来读取数据,这样性能更好。 最后归纳一下本文涉及到的知识点   1. AVFoundation 摄像头调用、输出视频都会用到AVFoundation 2. YUV420 视频采集的数据格式 3. OpenGL shader GPU的可编程着色器 4. CAEAGLLayer iOS内建的GPU到屏幕的联动方法 5. fastTextureUpload iOS5开始支持的一种CVOpenGLESTextureCacheRef和CVImageBufferRef的映射  

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容