检测图像中的人脸
Core Image可以分析并找到图像中的人脸。它执行的是人脸检测,而不是识别。人脸检测是识别包含人脸特征的矩形,而人脸识别是识别特定的人脸(John, Mary等)。Core Image检测到人脸后,可以提供人脸特征的信息,比如眼睛和嘴巴的位置。它还可以在视频中跟踪识别人脸的位置。
知道人脸在图像中的位置可以让您执行其他操作,比如裁剪或调整脸部的图像质量(色调平衡、红眼校正等)。你也可以对面进行其他有趣的操作;例如:
“匿名人脸滤镜配方”说明如何只对图像中的人脸应用像素化滤镜。
面孔滤镜配方的白色小图案显示如何放置周围的面孔小图案。
注意:在iOS v5.0及以后版本和OS X v10.7及以后版本中都有人脸检测功能。
使用CIDetector类查找图像中的人脸,如清单2-1所示。
清单2-1创建人脸检测器
CIContext *context = [CIContext context]; // 1
NSDictionary *opts = @{ CIDetectorAccuracy : CIDetectorAccuracyHigh }; // 2
CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace
context:context
options:opts]; // 3
opts = @{ CIDetectorImageOrientation :
[[myImage properties] valueForKey:kCGImagePropertyOrientation] }; // 4
NSArray *features = [detector featuresInImage:myImage options:opts]; // 5
代码的作用如下:
1.使用默认选项创建上下文。您可以使用处理图像中描述的任何上下文创建函数。)在创建检测器时,您还可以选择提供nil而不是上下文)。
2.创建一个选项字典来指定检测器的准确性。您可以指定低精度或高精度。低精度(CIDetectorAccuracyLow)是快速的;在本例中显示的高精度是彻底的,但速度较慢。
3.创建一个人脸探测器。你能创造的唯一类型的探测器是人类的脸。
4.设置一个查找人脸的选项字典。重要的是要让核心图像知道图像的方向,这样探测器就知道在哪里可以找到直立的面孔。大多数情况下,您将从图像本身读取图像方向,然后将该值提供给选项字典。
5.使用检测器查找图像中的特征。您提供的映像必须是CIImage对象。Core Image返回一个CIFeature对象数组,每个对象代表图像中的一个面孔。
在得到一组面孔之后,您可能希望找出它们的特征,比如眼睛和嘴巴的位置。
清单2-2检查面部特征界限
for (CIFaceFeature *f in features) {
NSLog(@"%@", NSStringFromRect(f.bounds));
if (f.hasLeftEyePosition) {
NSLog(@"Left eye %g %g", f.leftEyePosition.x, f.leftEyePosition.y);
}
if (f.hasRightEyePosition) {
NSLog(@"Right eye %g %g", f.rightEyePosition.x, f.rightEyePosition.y);
}
if (f.hasMouthPosition) {
NSLog(@"Mouth %g %g", f.mouthPosition.x, f.mouthPosition.y);
}
}
清单5-4使用CIDetector定位人脸
CIDetector *detector = [CIDector detectorOfType:CIDetectorTypeFace
context:nil
options:nil];
NSArray *faceArray = [detector featuresInImage:image options:nil];
CIFeature *face = faceArray[0];
CGFloat xCenter = face.bounds.origin.x + face.bounds.size.width/2.0;
CGFloat yCenter = face.bounds.origin.y + face.bounds.size.height/2.0;
CIVector *center = [CIVector vectorWithX:xCenter Y:yCenter];