2019CVPR用depth做关键字共索引出31篇文章,根据任务和方法分为7分部分。分别为多任务,更准确,深度补全,深度图辅助任务,新的数据集,知识蒸馏,其他。
1. 更准确
1. Neural RGB->D Sensing:
主张:深度估计不仅预测深度值,应该同时预测深度的分布并且随着时间的推移对分布做积分。
数学性质太强
2.Recurrent MVSNet:
多视角立体估计中,将最后的concat用RNN替代以减少参数。
想法很直接
3.Bilateral Cyclic Constraint and Adaptive Regularization
训练中,用模型的表现来驱动正则项的权值,而不是之前根据时间来调整权值。
双边循环一致性:把左右一致性进一步升级,左目视差转为右目视差后再转回左目。
提出了一个双分支decoder结构做refine。
cycle 大法好
4.Geometry-Aware Symmetric Domain Adaptation
在网络中加入了GAN,将真实图像转为为合成图像(去掉一些无关紧要的细节)。对合成图像和真实图像做深度预测后平均。
网络结构是对称的。
GAN可以这么用!!不如在分割和检测中用用。
5.CAM-Convs:
提出一个新的卷积层,考虑了相机内参。用于不同的相机配准下,模型中用于跳层。
模型输出了置信度。
很好奇,在不同的相机配准下预测深度图,深度图之间的差异会不会很小。从实验结果看,相机配准确实会影响结果。
6.Learning monocular depth estimation infusing traditional stereo knowledge。
新颖的框架(三步):特征提取-》初始深度-》refine
损失函数用了无监督和有监督——标签用传统方法生成。
额......无话可说。可能是看了太多遍,就感觉没那么NB。如果在缺少标签的情况下,代理标签确实是一个很好地选择,总比没有标签的无监督要强
7.Learning the Depth of Moving People by watching Frozen People
对静止的人构建数据集。
构建一个网络去预测深度。
更我的研究方向联系不大,但是应用很有创新性
8.Towards scene understanding:Semantic-aware
利用语义信息辅助深度估计。左右语义一致性和语义指导平滑——同一语义的物体深度的变化应该是连续的。
9.Learning Non-volumetric Depth Fusion using Successive Reprojections
重投影,利用多视角信息refine中心视角的深度。可以多次迭代。
10.Single Image Depth Estimation
11.Monocular depth estimation using relative depth map
同时预测绝对深度和相对深度。相对深度的预测中用了很多传统机器学习算法,Lloyd,ALS。
相比于修改网络结构,这篇文章用了很多数学证明,使得相对深度的预测有理有据
2. 多任务
1.Unsupervised Event-based Learning of optical flow,depth,and egomotion
输入将时间维度作为二维图像的channel。egomotion 用来deblur。
网络结构图看的很迷
2. Veritatem Dies Apetrit
前一帧的输出结果作为后一帧的预测输入。
用了光流提供时间域上的信息。
3.RNN for supervised learning of monocular video visual odometry and depth
LSTM双向学习
用了光流设计损失
4.student becoming the master
将深度网络和分割网络的信息融合,构建了一个新的网络可以同时执行两个任务。
迁移学习?两个网络分别训练好,将encoder信息融合再decode
5.bridging stereo matching and optical flow
左右目估计视差,前后帧估计光流,构建损失函数。闭环。
6.pattern-affinitive propagation across depth,surface normal and semantic segmentation
PAP 交叉任务传播和特定任务传播。affinity layer学习任务间关系。
7.unos
深度光流和移动同时输出,在损失函数上做了很多改变。使用刚体变换和测距(odometry)构建损失函数
3.深度补全
这部分我们没有明白补全后的深度图是什么标准,或者说ground truth怎么来的
1.Dense Depth Posterior from single image and sparse range
数学符号太多不想看,就是估计了一个后验概率,也没看懂是怎么估计的。
2.Deep reinforcement learning of volume-guided
3d云点图补全,强化学习找到下一次补全的最优视角,积累上一次补全的结果。
3.depth coefficients for depth completion
提出深度检验表。深度检验表将深度离散化,网络预测对应的离散域的深度,最后重建。
4.DeepLiDAR:
表面法向量作为中间量,加入了attention map
4.深度图辅助任务
1.Depth-aware video frame interpolate
深度图和光流辅助中间帧图像的估计
这篇文章今年在CVPR好像挺NB
2.Depth-attention Feature for single-image rain removal
利用深度图去雨。构建了一个新的去雨数据集
去雨这个问题已经好多年了吧,还是收到一部分人的关注
3.pseudo-lidar from visual depth estimation:
作者发现了一个很重要结论:雷达和深度图在目标检测上的差距主要来自于表现形式的不同。
在目标检测时将depth转换成3D检测可以提高精度。
5.数据集
1.利用MVF和SFM产生新的数据集,利用语义信息增强。
2.sfm生成深度图,设计了一个QAnet评价生成结果。
6.蒸馏
refine and distill: exploiting cycle-inconsistency
1.右目转左目(teache)
2.左目转回右目。再右目转回左目(teacher,学习不一致性)
7.其他
1.connecting the dots:
结构光相机,非双目
2.FiFF
特征提取算法,重建任务比SIFT表现好
3.privacy protection in street-view
利用深度和多张图片对物体分割后填充,实现隐私保护。深度信息来自雷达
4.Depth from a polarisation + RGB stereo pair
使用了偏振相机
哪天不懒了把图片和文章全名补上。