CCNet: Criss-Cross Attention for Semantic Segmentation
代码:https://github.com/speedinghzl/CCNet.
摘要:
长期依赖可以捕获有用的上下文信息,从而有助于视觉理解问题。在这项工作中,我们提出了一个交叉网络(CCNet),通过更有效的方式来获取这些重要的信息。具体来说,对于每个像素,我们的CCNet可以通过一个新颖的交叉注意模块来获取其周围像素在交叉路径上的上下文信息。通过进一步的递归操作,每个像素最终都可以捕获所有像素的远程依赖关系。总的来说,我们的CCNet具有以下优点:1)GPU内存友好。与非本地块相比,周期性交叉注意模块需要11块GPU内存。2)计算效率高。在计算长期依赖关系时,反复出现的交叉注意显著地减少了约85%的非局部块。最先进的表演。我们在流行的语义分割基准上进行了广泛的实验,包括Cityscapes、ADE20K和实例分割基准COCO。特别是我们的CCNet在Cityscapes测试集和ADE20K validation set上分别取得了81.4和45.22的mIoU分数,这是最新的最先进的结果。
Introduction
由于卷积核的固有形状