Core Image 框架是图像处理中非常重要的框架。CoreImage 被用来实时地处理和分析图像,它能处理来自于Core Graphics、Core Video 和Image I/O等框架的数据类型,并使用CPU和GPU进行渲染。
框架中有几个非常重要的类:
(1)CIImage。CoreImage框架中的图像类。
(2)CIContext。上下文对象,所有图像处理都是在一个CIContext中完成的,通过Quartz2D和OpenGL渲染CIImage对象。
(3)CIFilter。滤镜类包含一个字典结构,对各种滤镜定义了属于它们各自的属性。
(4)CIDetector。面部识别类,借助于CIFaceFeature可以识别嘴和眼睛的位置。
使用滤镜:
(1)创建滤镜CIFilter对象
(2)设置滤镜参数
(3)输出结果
人脸识别:
人脸识别一般有三个步骤:
(1)建立人脸的面纹数据库。可以通过照相机或者摄像机采集人脸的面像图片,将这些面像图片生成面纹编码保存到数据库中。
(2)获取当前人脸面部图片。将面像图片生成面纹编码。
(3)用当前的面纹编码和数据库中的面纹编码对比。
在iOS中,可以使用 CIDetector类进行人脸特征识别,CIDetector是CoreImage框架中的一个特征识别滤镜,CIDetector主要用于人脸特征识别,通过他还可以获得眼睛和嘴的特征信息。但是CIDetector不包括面纹编码的提取。