FilterShowcase是GPUImage中一个示例demo,对由摄像头获取的实时视频进行处理加工。从这个示例中,结合AVFoundation先了解GPUImageVideoCamera
这个类。
GPUImageVideoCamera
GPUImageVideoCamera继承自GPUImageOutput,遵循AVCaptureVideoDataOutputSampleBufferDelegate
和AVCaptureAudioDataOutputSampleBufferDelegate
两个协议,采用摄像头数据作为数据源,是数据响应链的源头。
视频捕捉核心类:AVCaptureSession
AVCaptureSession用于连接输入和输出的资源。一个捕捉会话相当于一个虚拟插线板,管理从物理设备得到的数据流,如摄像头和麦克风,输出到一个或多个目的地。可以动态配置输入和输出的线路,以此在会话进行中按需重新配置捕捉环境。session调用startRunning
开始数据流的流入流出,调用stopRunning
停止数据流流动。但不要在主线程调用startRunning
。
AVCaptureSessionPreset:session的属性sessionPreset用来自定义一些设置,在session运行的时候动态配置也可以。
GPUImage中初始化
_captureSession = [[AVCaptureSession alloc] init];
[_captureSession beginConfiguration];
//一些配置
[_captureSession commitConfiguration];
输入:AVCaptureDevice
AVCaptureDevice为摄像头等物理设备定义了一个接口,并对这些硬件设备定义了大量控制方法,如对焦、曝光等。AVCaptureDevice定义了大量类方法用于访问系统的捕捉设备,最常用的一个方法是defaultDeviceWithMediaType:
。但一个捕捉设备不能直接添加到AVCaptureSession中,可以将它封装到一个AVCaptureDeviceInput对象中添加。
NSError *error
AVCaptureDeviceInput *videoInput = [AVCaptureDeviceInput deviceInputWithDevice:videoDevice error:&error]
这个方法需要一个有效的NSError指针,因为输入中遇到的任何错误描述信息会在这里体现。
输出:AVCaptureOutput
AVCaptureAudioDataOutput和AVCaptureVideoDataOutput可以直接访问硬件捕捉到的数字样本,他们继承自抽象基类AVCaptureOutput。这两个类可以提供强大的功能,如对音频和视频流进行实时处理。视频的一个新图像帧会被传递到AVCaptureVideoDataOutput,如果需要对视频帧处理加工,需要设置AVCaptureVideoDataOutput的代理方法
- (void)setSampleBufferDelegate:(nullable id<AVCaptureVideoDataOutputSampleBufferDelegate>)sampleBufferDelegate
queue:(nullable dispatch_queue_t)sampleBufferCallbackQueue;
delegate会通过代理方法
- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection
获得图像帧。代理的函数会在sampleBufferCallbackQueue
中调用,并且必须是一个同步队列,以保证视频帧的顺序是正确的——GPUImage创建了一个cameraProcessingQueue
。如果处理速度比采集速度慢,队列会堵塞,等待处理的图像会占住内存,默认setAlwaysDiscardsLateVideoFrames属性为YES,这样就会丢弃由于队列阻塞而不断新增来不及处理的新图像,GPUImage把这一属性改为NO。
dispatch_semaphore_t:GCD用来创建一个并发控制来同步任务和有限资源访问控制的方法
GPUImage中的属性frameRenderingSemaphore帧渲染信号量用于处理完一帧后接着处理下一帧。
GPUImageVideoCamera的初始化
GPUImageVideoCamera的初始化方法
- (id)initWithSessionPreset:(NSString *)sessionPreset
cameraPosition:(AVCaptureDevicePosition)cameraPosition;
- 创建了视频处理队列
cameraProcessingQueue
和音频处理队列audioProcessingQueue
- 创建了信号量
frameRenderingSemaphore
- 创建了核心类
AVCaptureSession
,添加了输入videoInput
和输出videoOutput
- 充血了
runSynchronouslyOnVideoProcessingQueue
,稍后在介绍GPUImageOutput时详解。