图一中给出了开发捕捉功能应用程可能用到的一些类。
一、捕捉会话--- AVCaptureSession
AVCaptureSession是AVFoundation捕捉栈的核心类。一个捕捉会话相当于一个虚拟的“插线板”,连接输入输出的资源。AVCaptureSession中有一个会话预设值,用来控制捕捉数据的格式和质量,框架提供了多个预设值对输出进行定制,不过默认AVCaptureSessionPresetHigh,适用于大多数情况。
二、捕捉设备---AVCaptureDevice
AVCaptureDevice为麦克风、摄像头等物理设备定义了一个接口。这个类对物理硬件设备定义了大量的控制方法,如摄像头的对焦,曝光,白平衡和闪光灯等。访问系统的捕捉设备时,最常实用的方法是:defaultDeviceWithMediaType:,会根据给定的媒体类型返回一个系统指定的默认设别。eg:
AVCaptureDevice * device =[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];
示例中我们返回了一个默认的视频设备,并且返回的是系统默认的后置摄像头。
三、捕捉设备的输入---AVCaptureDeviceInput
在AVFoundation中,我们无法直接将捕捉设备添加到AVCaptureSession中,我们需要将捕捉设备AVCaptureDevice封装到AVCaptureDeviceInput中,个人理解类似于桥接作用。e.g:
NSError * error; AVCaptureDeviceInput * input = [AVCaptureDeviceInput deviceInputWithDevice:device error:&error];
示例中我们将捕捉设备封装到了AVCaptureDeviceInput中,从而为后续添加到捕捉会话Session提供可能。
四、捕捉的输出---AVCaptureOutput
AVCaptureOutput是一个抽象基类,AVFoundation中定义了大量的扩展类。用于将会话Session得到的数据输出。常用的关于捕捉静态图片的AVCaptureStilImageOutput(不过在iOS10之后用AVCapturePhotoOutput替代了)和视频的AVCaptureVideoDataOutput都是AVCaptureOutput的更高级扩展。
五、捕捉的连接---AVCaptureConnect
AVCaptureConnect指定了捕捉的输出媒体类型mediaType,并且建立其能够接受该媒体类型的捕捉输出端的连接。
六、捕捉的预览---AVCaptureVideoPreiewLayer
如同我们在加载视频时使用AVPlayerLayer一样,媒体的捕捉需要使用AVCaptureVideoPreiewLayer才可以显示摄像头捕捉的画面,同事也和AVPalyerLayer一样,支持视频重力的概念,其中AVLayerVideoGravityResizeAspect适用于大多数情况。对于AVCaptureVideoPreiewLayer,我们需要将我们之前创建的会话Session传递给这个layer层,如此我们就可以看到捕捉的视图。
以上就是媒体捕捉的基本流程概念。下面是简单实现摄像头拍照功能。
在拍照这个Demo中核心的是一下代码:
当我们点击Photo按钮后会执行以上代码。首先我们创建一个AVCaptureConnect,并传入媒体类型。随后建立和捕捉输出设备的连接,这是一个异步执行的方法,当数据输出完毕之后,会执行一个回调方法handle,这个回调方法有两个参数,imageDataSampleBuffer 和 error,error就不多做解释,imageDataSampleBuffer就是我们捕捉的采样数据,根据imageDataSampleBuffer我们就可以转化为UIImage,并写到系统相册里了。
Demo地址:简单的拍照