上午发现learning rate降得太快,loss到后面降不下来,cpm的原作者在issue里面说2块TianX batch16需要3天收敛到loss为10(最后一个stage),anyway,反正lr降的step太小了,增大重新在1060慢慢batch4 train吧……但是怎么感觉也快收敛了,但是收敛到的loss还是比较大?可以参考一下之前CPN收敛的情况!
之前pytorch怎么可以这么快的收敛?在实验室的电脑上试一下相同模型下tf的收敛速度。
还有就是现在还没有加center map,加了不知道loss会不会比较小?
另外之前一直以为cudnn7装不上caffe,其实根据报错信息,把cudnn.hpp换成支持cudnn7的就好了……