SRGAN-超分辨率重建GAN

        SRGAN是2017年CVPR中备受关注的超分辨率论文,把超分辨率的效果带到了一个新的高度。所谓超分辨率重建就是将低分辨率的图像恢复成对应的高分辨率图像。由于地分辨率图像存在大量的信息缺失,这是一个病态的求逆解问题,尤其在恢复高倍分辨率图像的时候。传统方法通过加入一些先验信息来恢复高分辨率图像,如,插值法、稀疏学习、还有基于回归方法的随机森林等,CNN在超分辨率问题上取得了非常好的效果。

        SRGAN是基于CNN采用GAN方法进行训练来实现图像的超分辨率重建的。它包含一个生成器和一个判别器,判别器的主体是VGG19,生成器的主体是一连串的Residual block,同时在模型的后部加入了subpixel模块,借鉴了Shi et al 的Subpixel Network的思想,让图片在最后的网络层才增加分辨率,使得提升分别率的同时减少了计算量。论文中给出的网络结构如图所示:

图片来自于论文Photo-Realistic Single Image Super-Resolution Using a Generative AdversarialNetwork

论文中还给出了生成器和判别器的损失函数的形式:

1.生成器的损失函数为:  

   \hat{\theta}_{G}=argmin _{\theta_{G}}\frac{1}{N}\sum_{n=1}^N l^{SR} (G_{\theta_{G}}(I_{n}^{LR} ) , I_{n}^{HR})   

其中,l^{SR} ( )为本文所提出的感知损失函数,l^{SR}=l_{VGG}^{SR} +10^{-3}l_{Gen}^{SR}

内容损失l_{VGG}^{SR} = \frac{1}{WH} \sum_{x=1}^W\sum_{y=1}^H (\phi (I^{HR} )_{x,y}  - \phi (G_{\theta _{G} } (I^{LR} ))_{x,y})^2 ;   训练网络时使用均方差损失可以获得较高的峰值信噪比,一般的超分辨率重建方法中,内容损失都选择使用生成图像和目标图像的均方差损失(MSELoss),但是使用均方差损失恢复的图像会丢失很多高频细节。因此,本文先将生成图像和目标图像分别输入到VGG网络中,然后对他们经过VGG后得到的feature map求欧式距离,并将其作为VGG loss。

对抗损失l_{Gen}^{SR} = \sum_{n=1}^N (-log D_{\theta _{D} }(G_{\theta _G}(I^{LR} )) ); 为了避免当判别器训练较好时生成器出现梯度消失,本文将生成器的损失函数 l_{Gen}^{SR} = \sum_{n=1}^N log (1-D_{\theta _{D} }(G_{\theta _G}(I^{LR} )) ) 进行了修改。

gen_hr = generator(img_lr)     ## img_lr 为输入的地分辨率图像

Loss_GAN = torch.BCELoss(discriminator(gen_hr), valid)     ##  gen_hr 为生成的高分辨率图像

gen_features = VGG_feature_extract(gen_hr)

real_features = VGG_feature_extract(img_hr)     ## img_hr 为输入的目标高分辨率图像

Loss_content = torch.nn.L2Loss(gen_feature, real_feature)

Loss_G = Loss_content + 1e-3 * Loss_GAN


2.判别器的损失函数为:

\hat{\theta } _{D}  = E_{p(I^{HR} )} [log D_{\theta _{D} }(I^{LR} )]+   E_{q(I^{LR} )} [log (1-D_{\theta _{D} }(G_{\theta _G}(I^{LR} )) )]

与普通的生成对抗网络判别器的的损失函数类似。

Loss_real = torch.BCELoss(disciminator(img_hr), valid)

Loss_fake = torch.BCELoss(discriminator(generator(gen_hr)), fake)

Loss_D = (Loss_real + Loss_fake) / 2

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。