CoreImage系列三:摄像头人脸检测与写入本地

上一篇写静态图片检测的写的有点冗长,导致写不完后面的了 ( 捂脸 )。所以重新开一篇来写。


人脸检测

其实摄像头的人脸检测和静态图并没有多大的区别。不同点是我们不需要手动生成CIDetector来进行检测,苹果在AVFoudation中内置了人脸的检测。
在第一篇文章中我们实现摄像头的滤镜,这次,我们在AVCaptureSession中多加入一个输出源--AVCaptureMetadataOutput。这个类是内置的进行检测的类,一般现在进行二维码什么的检测,就是用的这个类。

_metaOutput = [AVCaptureMetadataOutput new];
if ([session canAddOutput:_metaOutput]) {
  [session addOutput:_metaOutput];
}
[_metaOutput setMetadataObjectsDelegate:self queue:_queue];
_metaOutput.metadataObjectTypes = [_metaOutput availableMetadataObjectTypes];

我们先生成一个新的metaOutput,并加入到session中,设置代理接受回调。
然后设置这个检测类型,这里也有一个坑,如果你在加入到session之前获取availableMetadataObjectTypes,你会得到空数组,这个问题我调了很久,然后看到注释中有这么一段话,

Available metadata object types are dependent on the capabilities of the AVCaptureInputPort to which this receiver's AVCaptureConnection is connected.

可检测的类型是跟connection有关的,因为在加入session之前,并没有和它相关的connection,所以的到的availableMetadataObjectTypes自然是空的。

接下来在回调

- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputMetadataObjects:(NSArray *)metadataObjects fromConnection:(AVCaptureConnection *)connection

中接收检测到的对象数组。
数组中装的并不是CoreImge的feature对象,而是AVMetadataObject,但是它也有对应的人脸的位置,但是如果你直接取这个值,你会发现,并不是标准的CGRect。

If the metadata originates from video, bounds may be expressed as scalar values from 0. - 1.

注释中写了,它的值是在0到1之间,所以我们需要直接转换成对应的frame。但是一旦你开始转换,你会发现,这个东西有点烫手。


坐标转换.png

其实这个bounds是经过旋转了的,顺时针旋转了90度。所以它的x和y都是换了的。

CGFloat x = (1-object.bounds.origin.y)*self.view.frame.size.width - object.bounds.size.width*self.view.frame.size.height;
CGFloat y =  object.bounds.origin.x*self.view.frame.size.height;
CGRect frame = CGRectMake(x, y, object.bounds.size.height*self.view.frame.size.width, object.bounds.size.width*self.view.frame.size.height);

这样经过一番转换后才是真正的frame。


IMG_1952.PNG

这样,我们获取到了真的位置,就像处理静态图一样处理就行了。后面会有demo,里面有具体代码。


IMG_1953.PNG

写入本地

本来如果是没有处理过的CMSampleBufferRef,我们可以直接用writer写入就可以了,但是我们处理过之后,生成的是CIImage,所以并不能用之前的方式。
所以我们需要将CIImage转成CVPixelBufferRef,再用AVAssetWriterInputPixelBufferAdaptor写入。

AVAssetWriterInputPixelBufferAdaptor

Defines an interface for appending video samples packaged as CVPixelBuffer objects to a single AVAssetWriterInput object.

可以看出AVAssetWriterInputPixelBufferAdaptor是用来写入CVPixelBuffer的。它的生成也很简单,

AVAssetWriterInputPixelBufferAdaptor *adaptor = [AVAssetWriterInputPixelBufferAdaptor assetWriterInputPixelBufferAdaptorWithAssetWriterInput:_videoWriterInput sourcePixelBufferAttributes:nil];

主要参数是一个AVAssetWriterInput,而且这个input应该是AVMediaTypeVideo的input。后面的参数可以不传也可以传<CoreVideo/CVPixelBuffer.h>内的Pixel buffer attributes keys。

接下来我们将滤镜完成的CIImage转换成CVPixelBuffer,

CVPixelBufferRef buffer = NULL;
CVPixelBufferPoolCreatePixelBuffer(NULL, self.adaptor.pixelBufferPool, &buffer);
[self.context render:endImage toCVPixelBuffer:buffer];
[self.adaptor appendPixelBuffer:buffer withPresentationTime:CMSampleBufferGetPresentationTimeStamp(sampleBuffer)];
            CFRelease(buffer);

我们先生成一个空的CVPixelBufferRef类型的buffer,这里有一个CVPixelBufferPoolRef,这是一个类似于autoreleasepool的东西,在AVAssetWriterInputPixelBufferAdaptor的声明有一段话

Using the provided pixel buffer pool for buffer allocation is typically more efficient than appending pixel buffers allocated using a separate pool.

简单说就是用这个很方便的生成一个CVPixelBufferRef。
这个时候生成的CVPixelBufferRef还只是一个初始对象,里面并没有包含任何的视频数据,我们需要将我们刚才的CIImage写入到buffer中,这个用到CIContext中的API。然后我们就可以将这个buffer加入到写入adaptor了,有个时间信息,我们直接获取原始CMSampleBufferRef的信息就行。
这样我们就能将我们处理过的视频直接写入到本地了。Demo在这里

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 从三月份找实习到现在,面了一些公司,挂了不少,但最终还是拿到小米、百度、阿里、京东、新浪、CVTE、乐视家的研发岗...
    时芥蓝阅读 42,469评论 11 349
  • gihub:https://github.com/wangdxh/Desert-Eagle/只实现了视频的处理。r...
    little_wang阅读 13,348评论 0 21
  • 本篇文章是基于谷歌有关Graphic的一篇概览文章的翻译:http://source.android.com/de...
    lee_3do阅读 11,987评论 2 21
  • Java NIO(New IO)是从Java 1.4版本开始引入的一个新的IO API,可以替代标准的Java I...
    JackChen1024阅读 12,232评论 1 143
  • 我没有见过法国女人,但我喜欢书中的法国女人,她们什么时候都很优雅,和环境无关,和年龄也无关,哪怕岁月在她们的脸上刻...
    书荒者阅读 1,800评论 0 1