三点:
- 集成OpenCV
- 使用官方的人脸识别模型写个Demo
- 训练库
一、集成OpenCV
OpenCV集成还是很简单的,不需要我们自己去交差编译生成动/静态库,解压后的文件已经包含了动态库。一般套路都是这样,下载库、导入.h和动/静态库、配置CmakeList。详细步骤:
- 下载OpenCV官网Android最新版本SDK(这里用的是4.1.0)
-
AS创建NDK项目,新旧版本AS创建出来的目录结构不太一样,这里把目录贴一下,跟CMake文件中配置文件路径有关系:
-
导入.h文件和.so动态库
- 在CmakeLists.txt中引入库,修改3处,下面都有注释,这里的路径就是上面贴目录的原因,根据自己AS版本创建出来的目录自行修改。
cmake_minimum_required(VERSION 3.4.1)
add_library(
native-lib
SHARED
native-lib.cpp)
#导入头文件
include_directories(include)
#导入库文件
set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -L${CMAKE_SOURCE_DIR}/libs/${ANDROID_ABI}")
find_library(
log-lib
log)
target_link_libraries(
native-lib
#添加opencv_java4
opencv_java4
android
${log-lib})
- build.gradle中添加寻找目录:
sourceSets {
main {
jniLibs.srcDirs = ['src/main/cpp/libs']
}
}
- 如果编译报错记得
clean
rebuild
,AS有时候抽风
二、使用官方的人脸识别模型写个Demo
-
官方的提供的正脸识别模型也在刚才下载的包里包括了,先copy到assets中:
- 这里用到两个工具类
Utils
和CameraHelper
就不贴了,Utils
是把文件从assets
copy到外置储存空间的,CameraHelper
是打开摄像头的工具类,在onPreviewFrame(..)
中把每一帧图片回调给了MainActivity,因为这里并不是把摄像头采集的画面直接放到SurfaceView显示,识别出人脸之后要标记处理,所以把Surface和摄像头数据都传到native层,在native层对图片处理过之后直接写入Surface,也会得到在SurfaceView预览的效果, 代码可以在项目中查看。 - 在MainActivity里我们先把对人脸识别模型进行拷贝,然后把SurfaceView和CameraHelper的每一帧数据传递给native层去处理:
public class MainActivity extends AppCompatActivity implements SurfaceHolder.Callback, Camera.PreviewCallback {
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
...
Utils.copyAssets(this, "lbpcascade_frontalface.xml");
}
@Override
protected void onResume() {
super.onResume();
String path = new File(Environment.getExternalStorageDirectory(), "lbpcascade_frontalface.xml").getAbsolutePath();
cameraHelper.startPreview();
openCvJni.init(path);
}
...
@Override
public void surfaceChanged(SurfaceHolder holder, int format, int width, int height) {
openCvJni.setSurface(holder.getSurface());
}
@Override
public void onPreviewFrame(byte[] data, Camera camera) {
openCvJni.postData(data, CameraHelper.WIDTH, CameraHelper.HEIGHT, cameraId);
}
...
}
- OpencvJni是Java层和native层通讯的类,只有native方法声明,用处已注释:
public class OpencvJni {
static {
System.loadLibrary("native-lib");
}
/**
* 初始化native层相关逻辑
* @param path 人脸识别模型路径
*/
public native void init(String path) ;
/**
* 摄像头采集的数据发送到native层
* @param data 每一帧数据(NV21)
* @param width 摄像头采集图片的宽
* @param height 摄像头采集图片的高
* @param cameraId 摄像头ID(前置、后置)
*/
public native void postData(byte[] data, int width, int height, int cameraId);
/**
* 发送Surface到native,用于把数据后的图像数据直接显示到Surface上
* @param surface
*/
public native void setSurface(Surface surface);
}
- native层OpenCV初始化相关的代码,这里要创建一个检测器,一个跟踪器。OpenCV的实现并不是每一帧图片都检测,目标检测还是比较耗时耗性能的,检测出目标之后会有跟踪器的工作,这里的具体原理就不瞎扯了,大概是这么个意思。
Java_com_yu_opencvdemo_OpencvJni_init(JNIEnv *env, jobject instance, jstring path_) {
const char *path = env->GetStringUTFChars(path_, 0);
//创建检测器
Ptr<CascadeClassifier> classifier=makePtr<CascadeClassifier>(path);
Ptr<CascadeDetectorAdapter> mainDetector= makePtr<CascadeDetectorAdapter>(classifier);
//创建跟踪器
Ptr<CascadeClassifier> classifier1=makePtr<CascadeClassifier>(path);
Ptr<CascadeDetectorAdapter> trackingDetector= makePtr<CascadeDetectorAdapter>(classifier1);
//开始识别,结果在CascadeDetectorAdapter中返回
DetectionBasedTracker::Parameters DetectorParams;
tracker= new DetectionBasedTracker(mainDetector, trackingDetector, DetectorParams);
tracker->run();
env->ReleaseStringUTFChars(path_, path);
}
这里需要一个CascadeDetectorAdapter
,这个类可以从开发包的sample里找到,包括上面的初始化代码也是参考sample里的,有兴趣可以去读相关代码。这个CascadeDetectorAdapter的作用是每一帧检测出目标后的一个回调:
class CascadeDetectorAdapter: public DetectionBasedTracker::IDetector
{
public:
CascadeDetectorAdapter(cv::Ptr<cv::CascadeClassifier> detector):
IDetector(),
Detector(detector)
{
}
void detect(const cv::Mat &Image, std::vector<cv::Rect> &objects)
{
Detector->detectMultiScale(Image, objects, scaleFactor, minNeighbours, 0, minObjSize, maxObjSize);
}
virtual ~CascadeDetectorAdapter()
{
}
private:
CascadeDetectorAdapter();
cv::Ptr<cv::CascadeClassifier> Detector;
};
检测到目标后会回调detect
,把结果放进objects里,下面我就就可以通过getObjects()
获取检测结果
- 在postData对应native层实现中调用OpenCV处理图像:
extern "C"
JNIEXPORT void JNICALL
Java_com_yu_opencvdemo_OpencvJni_postData(JNIEnv *env, jobject instance, jbyteArray data_,
jint width, jint height, jint cameraId) {
jbyte *data = env->GetByteArrayElements(data_, NULL);
// 数据的行数也就是数据高度,因为数据类型是NV21,所以为Y+U+V的高度, 也就是height + height/4 + height/4
Mat src(height*3/2, width, CV_8UC1, data);
// 转RGB
cvtColor(src, src, COLOR_YUV2RGBA_NV21);
if (cameraId == 1) {// 前置摄像头
//逆时针旋转90度
rotate(src, src, ROTATE_90_COUNTERCLOCKWISE);
//1:水平翻转 0:垂直翻转
flip(src, src, 1);
} else {
//顺时针旋转90度
rotate(src, src, ROTATE_90_CLOCKWISE);
}
Mat gray;
//灰度化
cvtColor(src, gray, COLOR_RGBA2GRAY);
//二值化
equalizeHist(gray, gray);
std::vector<Rect> faces;
//检测图片
tracker->process(gray);
//获取CascadeDetectorAdapter中的检测结果
tracker->getObjects(faces);
//画出矩形
for (Rect face : faces) {
rectangle(src, face, Scalar(255, 0, 0));
}
//把图片展示到Surface中
...
src.release();
gray.release();
env->ReleaseByteArrayElements(data_, data, 0);
}
这里就是识别相关代码逻辑,NV21的结构这里不再多说,图片旋转是因为摄像头放置方向的问题,灰度化是把图片变黑白,二值化是突出轮廓,都是为了提高OpenCV识别率,相关知识也很多,有兴趣可以去深度了解OpenCV。
- 上面已经识别出目标,并用红色矩形框了出来,现在需要把操作完成的图片显示到Surface中。显示需要用到ANativeWindow这个类,setSurface的时候把Surface设置给window。
Java_com_yu_opencvdemo_OpencvJni_setSurface(JNIEnv *env, jobject instance, jobject surface) {
if (window) {
ANativeWindow_release(window);
window = 0;
}
window = ANativeWindow_fromSurface(env, surface);
}
然后还是在postData的函数中,把图片中的数据(src.data)一行一行拷贝到window,还是在上面这个函数中,每一行的作用已注释:
Java_com_yu_opencvdemo_OpencvJni_postData(JNIEnv *env, jobject instance, jbyteArray data_,
jint width, jint height, jint cameraId) {
jbyte *data = env->GetByteArrayElements(data_, NULL);
//识别相关代码
...
//显示到surface
if (window) {
ANativeWindow_setBuffersGeometry(window, src.cols, src.rows, WINDOW_FORMAT_RGBA_8888);
ANativeWindow_Buffer window_buffer;
do {
//lock失败 直接brek出去
if (ANativeWindow_lock(window, &window_buffer, 0)) {
ANativeWindow_release(window);
window = 0;
break;
}
uint8_t *dst_data = static_cast<uint8_t *>(window_buffer.bits);
//stride : 一行多少个数据
//(RGBA) * 4
int dst_linesize = window_buffer.stride * 4;
//一行一行拷贝,src.data是图片的RGBA数据,要拷贝到dst_data中,也就是window的缓冲区里
for (int i = 0; i < window_buffer.height; ++i) {
memcpy(dst_data + i * dst_linesize, src.data + i * src.cols * 4, dst_linesize);
}
//提交刷新
ANativeWindow_unlockAndPost(window);
} while (0);
}
...
env->ReleaseByteArrayElements(data_, data, 0);
}
OK,愉快的识别吧。这里先说下,OpenCV这个自带的识别模型。。识别率不是太高。。
三、训练库
这里不想多写什么(相关知识我迷糊),但是,用着很简单,并不需要你有数据算法知识,OpenCV提供了训练工具,你只要准备好正样本和负样本,比如你想做猪脸识别,准备好各式各样的猪脸作为正样本,再准备一些比如人脸狗脸什么的作为负样本,然后命令行调用OpenCV工具就好,工具在OpenCV官网下载Window版本的里面包含。
训练文档