效果图:
流程:
- 搜集图片
- 标注生成xml,可以用 labelImg,打上标签是woman
- 利用voc_label.py工具,voc_label.py里面对应修改你的class数量和名称
#sets=[('2012', 'train'), ('2012', 'val'), ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]
#classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog
", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]
sets=[('2007', 'train')]
classes = ["woman"]
在ImageSets下的Layout和Main要放置train.txt
train.txt 生成方法
运行python voc_label.py
- label生成一系列坐标文件(后缀.txt)
- 根目录下生成(year)_train.txt
4. 修改cfg下的神经网络的配置文件,这个最重要也比较难;
我用的是tiny-yolo-voc.cfg(轻量的,速度快)
我的如下:(前面两个参数可能取决GPU服务器内存性能,设置大了有可能训练了一会就挂了)
[net]
# 每batch个样本更新一次参数。
batch=64
# 如果内存不够大,将batch分割为subdivisions个子batch,每个子batch的大小为batch/subdivisions。
# 在darknet代码中,会将batch/subdivisions命名为batch。
subdivisions=8
width=448
height=448
channels=3
momentum=0.9
decay=0.0005
angle=0
saturation = 1.5
exposure = 1.5
hue=.1
learning_rate=0.001
max_batches = 40000
policy=steps
steps=200,400,600,20000,30000
scales=2.5,2,2,.1,.1
# 切割,看需求可选
[crop]
crop_width=448
crop_height=448
flip=0
angle=0
saturation = 1.5
exposure = 1.5
[convolutional]
batch_normalize=1
filters=16
...
...
[convolutional]
size=1
stride=1
pad=1
# 修改最后一层卷积层核参数个数
# 计算公式是依旧自己数据的类别数
# filter=num×(classes + coords + 1)=5×(1+4+1)=30
filters=30
activation=linear
[region]
anchors = 1.08,1.19, 3.42,4.41, 6.63,11.38, 9.42,5.11, 16.62,10.52
bias_match=1
classes=1 //类别数,本例为1类
coords=4
num=5
softmax=1
jitter=.2
rescore=1
- 修改cfg/voc.data, data/voc.names;
cfg/voc.data:
# classes= 20
classes= 1
# train = /home/***
train = /opt/gongjia/darknet/train.txt
# valid = /opt/gongjia/darknet/2007_test.txt
names = data/voc.names
# 存放权重文件 tiny-yolo-voc_final.weights
# 自己手动新建backup,或者执行make backup
backup = backup
data/voc.names: 这个文件是放你标签的名称
woman
另外,修改代码(一定别忘记,否则识别不到东西)
find ./ -name "*.c*" -exec grep -HEn --color "draw_detection" {} \;
最后一个参数,改成1
./src/detector.c:626:
draw_detections(im, l.w*l.h*l.n, thresh, boxes, probs, masks, names, alphabet, 1);
./src/yolo.c:313:
draw_detections(im, l.side*l.side*l.n, thresh, boxes, probs, 0, voc_names, alphabet, 1);
接下来就开始训练了:
vi Makefile #根据你机器的情况,选择打开GPU和CUDN
make
make backup
./darknet detector train ./cfg/voc.data cfg/tiny-yolo-voc.cfg
参考官网的命令 :
./darknet detector train cfg/voc.data cfg/yolo-voc.cfg darknet19_448.conv.23
我们也可以加上darknet19_448.conv.23,这个是基于google的imagenet,利用开源训练集继续训练
./darknet detector train ./cfg/voc.data cfg/tiny-yolo-voc.cfg darknet19_448.conv.23
这个训练集可能都是448尺寸的图片,是否适用于自己训练集的图片,我的是64*128的,如果不确定可以暂时不用darknet19_448.conv.23;
测试:
./darknet detector test ./cfg/voc.data cfg/tiny-yolo-voc-test.cfg backup/tiny-yolo-voc_40000.weights data/person.jpg
tiny-yolo-voc-test.cfg
# Testing
batch=1
subdivisions=1
#最下面一行
random=0
结果:
先用测试照片试试:可以找出来,woman 概率是62%!
再用一张狗的图片试试,没有任何结果~~
Note: 训练的时候random用默认的1,测试的时候random=0,不启用多分辨率,这个是给训练用的,测试要是设置为1,会如何?
random: YOLOv2新增了一些训练技巧,Multi-Scale Training就是其中之一,如果random置为1,会启用Multi-Scale Training。
启用Multi-Scale Training时每10个Batch,网络会随机地选择一个新的图片尺寸,由于使用的down samples是32,所以不同的尺寸大小也选择为32的倍数{320,352…..608},最小320320,最大608608,网络会自动改变尺寸,并继续训练的过程。
这一策略让网络在不同的输入尺寸上都能达到一个很好的预测效果,同一网络能在不同分辨率上进行检测。当输入图片尺寸比较小的时候跑的比较快,输入图片尺寸比较大的时候精度高。
参考链接:
YOLO官网
YOLOv2训练自己的数据集——VOC格式
YOLOv2训练自己的数据集——三角形标识
YOLOv2训练自己的数据集——开始停止标识
配置参数1
配置参数2
配置参数3
github——脸部识别和遮脸的例子
yolo-cpu的优化