前言:
这篇是Labelme标注车道线系列的第三篇,前几篇文章可以参考
前两篇文章介绍了如何使用Labelme标注车道线,以及批量处理标注之后的车道线数据,将标注之后的json文件转换为dataset。
那么,使用自己创建的数据集,如何标注成tuSimple数据格式呢 ?这篇文章主要介绍如何使用Labelme标注之后的车道线数据,创建自己的tuSimple数据集格式,使用的框架为LaneNet车道线检测。
视频下载
数据是我在哔哩哔哩上下载的
需要安装一下you -get
$ pip3 install you-get
$you-get https://www.bilibili.com/video/av28417566?from=search&seid=10103033464985238664
下载之后的视频格式是.flv格式,鉴于方便,我将他转换为mp4格式,大家可以根据自己需求决定这一步要不要执行。
提取成图片
将视频逐帧提取成图片,转换方式非常简单,这里就不多说了
按照前两篇文档标注完成之后,就可以生成自己tuSimple数据集啦~~
有关laneNet详情可参考基于深度神经网络LaneNet的车道线检测,欢迎大家指正~~~论文地址为 https:// arxiv .org / abs / 1802.05591
将标注之后的数据批量处理之后,生成文件夹形式如下图所示
打开文件夹里面有五个文件,分别是
1、标注之后的数据格式转换
根据tuSimple数据集形式,需要得到二值化和实例化后的图像数据,也就是gt_binary_image和gt_instance_image文件中的显示结果,
我们需要将标注之后的数据进行转换
转换代码:
import cv2
from skimage import measure, color
from skimage.measure import regionprops
import numpy as np
import os
import copy
def skimageFilter(gray):
binary_warped = copy.copy(gray)
binary_warped[binary_warped > 0.1] = 255
gray = (np.dstack((gray, gray, gray))*255).astype('uint8')
labels = measure.label(gray[:, :, 0], connectivity=1)
dst = color.label2rgb(labels,bg_label=0, bg_color=(0,0,0))
gray = cv2.cvtColor(np.uint8(dst*255), cv2.COLOR_RGB2GRAY)
return binary_warped, gray
def moveImageTodir(path,targetPath,name):
if os.path.isdir(path):
image_name = "gt_image/"+str(name)+".png"
binary_name = "gt_binary_image/"+str(name)+".png"
instance_name = "gt_binary_image/"+str(name)+".png"
train_rows = image_name + " " + binary_name + " " + instance_name + "\n"
origin_img = cv2.imread(path+"/img.png")
origin_img = cv2.resize(origin_img, (1280,720))
cv2.imwrite(targetPath+"/"+image_name, origin_img)
img = cv2.imread(path+'/label.png')
img = cv2.resize(img, (1280,720))
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
binary_warped, instance = skimageFilter(gray)
# cv2.imshow("origin_image",origin_img)
# cv2.imshow('label_image',img)
# cv2.imshow('binary_image.jpg',binary_warped)
# cv2.imshow('instance_image.jpg',instance)
# k = cv2.waitKey()
cv2.imwrite(targetPath+"/ownData/"+binary_name, binary_warped)
cv2.imwrite(targetPath+"/ownData/"+instance_name, instance)
cv2.waitKey()
cv2.destroyAllWindows()
print("success create data name is : ", train_rows)
return train_rows
return train_rows
if __name__ == "__main__":
count = 1
with open("./train.txt", 'w+') as file:
for images_dir in os.listdir("./images"):
dir_name = os.path.join("./images", images_dir + "/annotations")
for annotations_dir in os.listdir(dir_name):
json_dir = os.path.join(dir_name, annotations_dir)
if os.path.isdir(json_dir):
train_rows = moveImageTodir(json_dir, "./", str(count).zfill(4))
file.write(train_rows)
count += 1
转换之后的显示结果:
2、调用laneNet中lanenet_data_feed_pipline.py文件
python data_provider/lanenet_data_feed_pipline.py --dataset_dir ./data/training_data_example/ownData --tfrecords_dir ./data/training_data_example/ownData/tfrecords
显示效果