1、这周工作上主要是涉及了两件事,一件是能否做到实时针对门的识别和标示,二是能否利用二维码判断出机器人的相对位姿。可惜两件事的进展都不如人意。
先说第一件事情,对门的识别途径包括视觉、图形分析。像利用雷达的机器人可以根据一个封闭图形的缺口来识别。利用摄像头的机器人可以根据深度学习来实现对门口的识别。我们想的事情是在一个嵌入式系统中,如何尽可能利用少的资源实现对门口的识别。我们的传感器是RGB-D摄像头,如果不用RGB的话(涉及到嵌入式系统的GPU或者利用FPGA,最后还是非常有可能走这条路的),就是像雷达一样做点云分析,或者利用生成的地图来识别。我有点想取巧,能否直接利用RGB-D的点云数据呢,这个点云数据面上比雷达丰富,但是角度受限,只有60~70度,写了一段代码做个简单hough变换分析缺口,发现这种想法还是不是特别可行,特征不够典型,后面还要再考虑一下。
第二件事情利用二维码判断机器人的相对位姿。我们通常用二维码都是用来提取信息,做入口。网上其实也有很多分析,针对二维码的四个角的定位,经过视角变换后可以算出拍照者针对二维码平面的相对位姿,如果我们需要机器人自动定位,对准某个东西,可以利用这一点。但是实际测试一下,就会发现这种做法需要对二维码进行非常好的视觉识别,不同与平时二维码识别,我们所拍的图形受距离和角度的影响,平时用的识别算法性能下降非常多,适用的范围小的多。如果去掉二维码承载信息这个功能的话,直接用方框来定位可能效果好很多,下周准备试一下。
2、这周还是抽零星时间读bengio大神的deep learning这本书,囫囵吞枣的看完了前五章,很多理论没有搞明白,不过大神的书很多地方写的一目了然,总有让人原来是这样啊的感叹。准备找个时间写一个导读,把涉及到深度学习需要的一些数学知识罗列一下,方便自己后面学习。
3、Uadacity的课这周准备交通指示图标的识别,按照提示直接用lenet来训练发现效果也还可以啊,validation accuracy能到97%以上,但是test accuracy只能到91%,说明overfitting了,增加了dropout发现效果不明显,但是考虑是不是lenet的网络跟dropout不怎么匹配?后面考虑先试一下L2正则化,然后考虑调整网络结构,如果还没有效果,再考虑增大测试样本,通过噪声或者其它的方式。
4、跑步受雾霾影响,没有开始。
5、带儿子听了一场宫崎骏的动画音乐的交响乐,效果没得说,自己真是一个土人。