使用Tianxiaomo/pytorch-YOLOv4的代码
基本上按照作者提供的的coins数据集训练教程即可,这里再记录一下
2021-2-26
- 下载和安装
首先下载好代码以及作者提供的coins.zip
数据集和yolov4.conv.137.pth
权重
然后安装依赖包
- 使用较新的pytorch1.6版本,由于服务器cuda是10.1,所以安装对应版本:
pip install torch==1.6.0+cu101 torchvision==0.7.0+cu101 -f https://download.pytorch.org/whl/torch_stable.html
- 安装requirements.txt中的包
- 安装报错需要的其他包
- 修改cfg.py:
- 不使用darknet cfg
- cfg.py中的batch设为4,subdivisions设为1
Cfg.use_darknet_cfg = False
Cfg.batch = 4
Cfg.subdivisions = 1
- coins数据集中的train.txt放到data目录下,并在data目录下新建一个val.txt,并从中train.txt取出最后5行复制到val.txt
- 按照作者的参数训练coins数据集
- 命令行设置初始学习率 0.001
运行命令:
python train.py -l 0.001 -pretrained ../yolov4.conv.137.pth -classes 3 -dir /remote-home/my/2021/coins -train_label_path data/train.txt -g 1,2
2021-2-27
- 训练loss下降得很慢,查了一下,发现学习率调整策略没改,改一下:
- cfg.py中的阶梯学习率调整器的阶梯点改为 60 1200 1500
Cfg.burn_in = 60 # 指学习率逐渐增长到设定值的分界点,iter而不是epoch
Cfg.steps = [1200, 1500] # 指学习率阶梯更新分界点,iter而不是epoch
运行命令:
python train.py -l 0.001 -pretrained ../yolov4.conv.137.pth -classes 3 -dir /remote-home/my/2021/coins -train_label_path data/train.txt -g 1,2
作者的coin示例loss最终下降到一两百左右效果就可以了,到这里训练代码就跑通了
作者也提供了使用darknet cfg文件的代码,这里试一下
- 修改cfg.py:
Cfg.use_darknet_cfg = True
Cfg.cfgfile = 'cfg/yolov4-custom.cfg'
Cfg.batch = 4
Cfg.subdivisions = 1
- 修改cfg/yolov4-custom.py:
filters=24
# 指的是第1个[yolo]前面最后一层卷积层的filters,它与类别数量有关,必须是3*(5+n_classes),因为每一路有3个anchor,每个anchor对应(5+n_classes)个元素的输出
# 下面两个filters的设置同理
classes=3
# 第1个[yolo]中的classes
filters=24
# 指的是第2个[yolo]前面最后一层卷积层的filters
classes=3
# 第2个[yolo]中的classes
filters=24
# 指的是第3个[yolo]前面最后一层卷积层的filters
classes=3
# 第3个[yolo]中的classes
- 打开AlexeyAB/darknet,下载
yolov4.conv.137
到本目录,在train.py代码中找到model = Darknet(cfg.cfgfile)
这一行,在其后面加上darknet的权重加载:
model.load_weights("./yolov4.conv.137")
- 训练时到evaluate部分会卡住,原因不明,先在train.py中注释掉这部分:
# if cfg.use_darknet_cfg:
# eval_model = Darknet(cfg.cfgfile, inference=True)
# else:
# eval_model = Yolov4(cfg.pretrained, n_classes=cfg.classes, inference=True)
# # eval_model = Yolov4(yolov4conv137weight=None, n_classes=config.classes, inference=True)
# if torch.cuda.device_count() > 1:
# eval_model.load_state_dict(model.module.state_dict())
# else:
# eval_model.load_state_dict(model.state_dict())
# eval_model.to(device)
# evaluator = evaluate(eval_model, val_loader, config, device)
# del eval_model
#
# stats = evaluator.coco_eval['bbox'].stats
# writer.add_scalar('train/AP', stats[0], global_step)
# writer.add_scalar('train/AP50', stats[1], global_step)
# writer.add_scalar('train/AP75', stats[2], global_step)
# writer.add_scalar('train/AP_small', stats[3], global_step)
# writer.add_scalar('train/AP_medium', stats[4], global_step)
# writer.add_scalar('train/AP_large', stats[5], global_step)
# writer.add_scalar('train/AR1', stats[6], global_step)
# writer.add_scalar('train/AR10', stats[7], global_step)
# writer.add_scalar('train/AR100', stats[8], global_step)
# writer.add_scalar('train/AR_small', stats[9], global_step)
# writer.add_scalar('train/AR_medium', stats[10], global_step)
# writer.add_scalar('train/AR_large', stats[11], global_step)
运行命令:
python train.py -l 0.001 -classes 3 -dir /remote-home/my/2021/coins -train_label_path data/train.txt -g 1,2
也可以正常训练
2021-2-28
学习率的调整要重视,对训练效果很重要
- 一开始学习率可以调大一点,比如学习率调为0.004后,loss下降得更猛。实测,原先loss降到1000需要100个epoch,改完只需要35个epoch
batchsize的调整也很重要
- batch size改为2后,50个epoch后loss即可下降到100(即使再训练到300个epoch也还是100左右)
2021-3-1
修复evaluate卡住的bug,在dataset.py前面导入cv2时禁用OpenCV多线程:
import cv2
cv2.setNumThreads(0)
代码注释
理解代码和调试的过程中,在一些地方添加了注释,记录在注释版代码中