试验记录
2003
1.概览信息
实验训练了一个cycleGAN模型用于SAR图像翻译(主要是对归一化后的SAR图像进行着色处理),所用数据集是SARGB的一个子集,其中包括了2019年夏季北京SAR(VV)以及光学图像对,约有18000张(8000),直观上可以分为农田、植被、城市三种类型。
在Nvidia-P100(16G)环境下进行实验,训练开始于2020.5.27-15:57,结束于2020-------,共用时约------h
2.其他信息
基本使用代码原有配置,但训练速度奇慢无比,使用了与20001任务同样的数据集,但每一个epoch需要耗时在2500s以上
3.实验结果
原意是探索使用非配对数据方式进行图像翻译任务,并比较与Pix2Pix模型的差距(因为下意识地认为在配对数据上使用配对模型应该取得更好的结果,但事实并非如此),截止至5.28-15:07,仅完成33epoch训练,但翻译结果已经好于2001任务,或许是因为CycleGAN比起Pix2Pix带有更多“图像修正”的色彩,因此在细节、边缘等保留更好。
但同时要注意的是,现有结果中有些出现语义转换错误。
而该图像对应的SAR图像如下:
很显然,翻译结果中间出现的居民区,在SAR图像中只是山脉之间的一片平地。