上一篇写静态图片检测的写的有点冗长,导致写不完后面的了 ( 捂脸 )。所以重新开一篇来写。
人脸检测
其实摄像头的人脸检测和静态图并没有多大的区别。不同点是我们不需要手动生成CIDetector来进行检测,苹果在AVFoudation中内置了人脸的检测。
在第一篇文章中我们实现摄像头的滤镜,这次,我们在AVCaptureSession中多加入一个输出源--AVCaptureMetadataOutput。这个类是内置的进行检测的类,一般现在进行二维码什么的检测,就是用的这个类。
_metaOutput = [AVCaptureMetadataOutput new];
if ([session canAddOutput:_metaOutput]) {
[session addOutput:_metaOutput];
}
[_metaOutput setMetadataObjectsDelegate:self queue:_queue];
_metaOutput.metadataObjectTypes = [_metaOutput availableMetadataObjectTypes];
我们先生成一个新的metaOutput,并加入到session中,设置代理接受回调。
然后设置这个检测类型,这里也有一个坑,如果你在加入到session之前获取availableMetadataObjectTypes,你会得到空数组,这个问题我调了很久,然后看到注释中有这么一段话,
Available metadata object types are dependent on the capabilities of the AVCaptureInputPort to which this receiver's AVCaptureConnection is connected.
可检测的类型是跟connection有关的,因为在加入session之前,并没有和它相关的connection,所以的到的availableMetadataObjectTypes自然是空的。
接下来在回调
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputMetadataObjects:(NSArray *)metadataObjects fromConnection:(AVCaptureConnection *)connection
中接收检测到的对象数组。
数组中装的并不是CoreImge的feature对象,而是AVMetadataObject,但是它也有对应的人脸的位置,但是如果你直接取这个值,你会发现,并不是标准的CGRect。
If the metadata originates from video, bounds may be expressed as scalar values from 0. - 1.
注释中写了,它的值是在0到1之间,所以我们需要直接转换成对应的frame。但是一旦你开始转换,你会发现,这个东西有点烫手。
其实这个bounds是经过旋转了的,顺时针旋转了90度。所以它的x和y都是换了的。
CGFloat x = (1-object.bounds.origin.y)*self.view.frame.size.width - object.bounds.size.width*self.view.frame.size.height;
CGFloat y = object.bounds.origin.x*self.view.frame.size.height;
CGRect frame = CGRectMake(x, y, object.bounds.size.height*self.view.frame.size.width, object.bounds.size.width*self.view.frame.size.height);
这样经过一番转换后才是真正的frame。
这样,我们获取到了真的位置,就像处理静态图一样处理就行了。后面会有demo,里面有具体代码。
写入本地
本来如果是没有处理过的CMSampleBufferRef,我们可以直接用writer写入就可以了,但是我们处理过之后,生成的是CIImage,所以并不能用之前的方式。
所以我们需要将CIImage转成CVPixelBufferRef,再用AVAssetWriterInputPixelBufferAdaptor写入。
AVAssetWriterInputPixelBufferAdaptor
Defines an interface for appending video samples packaged as CVPixelBuffer objects to a single AVAssetWriterInput object.
可以看出AVAssetWriterInputPixelBufferAdaptor是用来写入CVPixelBuffer的。它的生成也很简单,
AVAssetWriterInputPixelBufferAdaptor *adaptor = [AVAssetWriterInputPixelBufferAdaptor assetWriterInputPixelBufferAdaptorWithAssetWriterInput:_videoWriterInput sourcePixelBufferAttributes:nil];
主要参数是一个AVAssetWriterInput,而且这个input应该是AVMediaTypeVideo的input。后面的参数可以不传也可以传<CoreVideo/CVPixelBuffer.h>内的Pixel buffer attributes keys。
接下来我们将滤镜完成的CIImage转换成CVPixelBuffer,
CVPixelBufferRef buffer = NULL;
CVPixelBufferPoolCreatePixelBuffer(NULL, self.adaptor.pixelBufferPool, &buffer);
[self.context render:endImage toCVPixelBuffer:buffer];
[self.adaptor appendPixelBuffer:buffer withPresentationTime:CMSampleBufferGetPresentationTimeStamp(sampleBuffer)];
CFRelease(buffer);
我们先生成一个空的CVPixelBufferRef类型的buffer,这里有一个CVPixelBufferPoolRef,这是一个类似于autoreleasepool的东西,在AVAssetWriterInputPixelBufferAdaptor的声明有一段话
Using the provided pixel buffer pool for buffer allocation is typically more efficient than appending pixel buffers allocated using a separate pool.
简单说就是用这个很方便的生成一个CVPixelBufferRef。
这个时候生成的CVPixelBufferRef还只是一个初始对象,里面并没有包含任何的视频数据,我们需要将我们刚才的CIImage写入到buffer中,这个用到CIContext中的API。然后我们就可以将这个buffer加入到写入adaptor了,有个时间信息,我们直接获取原始CMSampleBufferRef的信息就行。
这样我们就能将我们处理过的视频直接写入到本地了。Demo在这里