2020-04-04

CCNet: Criss-Cross Attention for Semantic Segmentation

代码:https://github.com/speedinghzl/CCNet.

摘要:

长期依赖可以捕获有用的上下文信息,从而有助于视觉理解问题。在这项工作中,我们提出了一个交叉网络(CCNet),通过更有效的方式来获取这些重要的信息。具体来说,对于每个像素,我们的CCNet可以通过一个新颖的交叉注意模块来获取其周围像素在交叉路径上的上下文信息。通过进一步的递归操作,每个像素最终都可以捕获所有像素的远程依赖关系。总的来说,我们的CCNet具有以下优点:1)GPU内存友好。与非本地块相比,周期性交叉注意模块需要11块GPU内存。2)计算效率高。在计算长期依赖关系时,反复出现的交叉注意显著地减少了约85%的非局部块。最先进的表演。我们在流行的语义分割基准上进行了广泛的实验,包括Cityscapes、ADE20K和实例分割基准COCO。特别是我们的CCNet在Cityscapes测试集和ADE20K validation set上分别取得了81.4和45.22的mIoU分数,这是最新的最先进的结果。

Introduction

由于卷积核的固有形状

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容