<p>
</p><p>
</p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-873733f890606a75.jpeg" img-data="{"format":"jpeg","size":80477,"height":668,"width":982}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><p>
</p><h1><span style="font-size:16px">本篇分享 ECCV 2022 论文</span><span style="font-size:16px"><strong>『OSFormer: One-Stage Camouflaged Instance Segmentation with Transformers』</strong></span><span style="font-size:16px">,华科Ð提出首个用于伪装实例分割的一阶段Transformer的框架OSFormer!代码已开源!</span></h1><span style="font-size:16px">
</span><p><span style="font-size:16px">详细信息如下:
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-b2a55550673cf4a6.jpeg" img-data="{"format":"jpeg","size":65905,"height":441,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><p>
</p><ol><li><p style="text-indent:0px"><span style="font-size:15px">论文地址:https://arxiv.org/abs/2207.02255[1]</span></p></li><li><p style="text-indent:0px"><span style="font-size:15px">代码地址:https://github.com/PJLallen/OSFormer[2]</span></p></li></ol><h1>
</h1>
<p><span><strong> </strong></span><span style="font-size:19px"><strong>01 </strong></span><span><strong> </strong></span></p><strong><span style="font-size:18px">摘要</span></strong><span style="font-size:16px">
</span><span style="font-size:16px">在本文中,作者提出了OSFormer,这是第一个用于伪装实例分割(CIS)的一阶段Transformer框架。OSFormer基于两个关键设计。</span><span style="font-size:16px">
</span><span style="font-size:16px">首先,通过引入位置引导查询和混合卷积前馈网络,作者设计了一个</span><span style="font-size:16px"><strong>位置感知Transformer(LST)</strong></span><span style="font-size:16px">来获取位置标签和实例感知参数。</span>
<span style="font-size:16px">其次,作者开发了一种</span><span style="font-size:16px"><strong>从粗到精的融合(CFF)</strong></span><span style="font-size:16px">,以合并来自LST编码器和CNN主干的不同上下文信息。耦合这两个组件使OSFormer能够有效地混合局部特征和长期上下文依赖,以预测伪装实例。</span><span style="font-size:16px">
与两阶段框架相比,本文的OSFormer在不需要大量训练数据的情况下达到了41%的AP,并实现了良好的收敛效率。</span><span style="font-size:16px">
</span><span style="font-size:16px">
</span><p><span><strong> </strong></span><span style="font-size:19px"><strong>02 </strong></span><span><strong> </strong></span></p><strong><span style="font-size:18px">Motivation</span></strong>
<span style="font-size:16px">
</span><span style="font-size:16px">伪装是一种强大且广泛的手段,可以避免来自生物学的检测或识别。在自然界中,伪装对象已经进化出一套隐藏策略来欺骗猎物或捕食者的感知和认知机制,例如背景匹配、自阴影隐藏、擦除阴影、破坏性着色等。与一般的目标检测相比,这些防御行为使得伪装目标检测(COD)成为一项非常具有挑战性的任务。COD的目标是区分与背景具有高度内在相似性的伪装物体。</span><span style="font-size:16px">
</span><span style="font-size:16px">由于COD10K、CAMO、CAMO++和NC4K等大规模标准基准的建立,COD的性能得到了显著的提高。然而,COD仅将伪装物体从场景中以对象的级别进行分离,而忽略进一步的实例级别标识。最近,研究者提出了一个新的伪装实例分割(CIS)基准和CFL框架。捕获伪装实例可以在真实场景中提供更多线索(例如语义类别、对象数量),因此CIS更具挑战性。</span><span style="font-size:16px">
</span><span style="font-size:16px">与通用实例分割相比,CIS需要在更复杂的场景中执行,具有较高的特征相似性,并产生类别不可知mask。此外,各种实例可能在场景中显示不同的伪装策略,并且将它们结合起来可能形成相互伪装。这些衍生的整体伪装使CIS任务更加艰巨。当人类注视着一个伪装得很深的场景时,视觉系统会本能地扫描整个场景中的一系列局部范围,以寻找有价值的线索。受这种视觉机制的启发,作者提出了一种新的位置感知CIS方法,该方法从全局角度仔细捕获所有位置(即局部上下文)的关键信息,并直接生成伪装实例掩码(即一阶段模型)。</span><span style="font-size:16px">
</span><span style="font-size:16px">由于transformer在视觉领域的兴起,可以利用自注意力和交叉注意力来捕捉长期依赖关系,并构建全局内容感知交互。尽管transformer模型在一些密集预测任务上表现出了强大的性能,但它需要包含大规模的训练数据和更长的训练周期。然而,作为一项全新的下游任务,目前只有有限的实例级训练数据可用。</span><span style="font-size:16px">
为此,作者提出了一种基于的位置感知Transformer(LST),以在更少的训练样本下实现更快的收敛和更高的性能。为了动态生成每个输入图像的位置引导查询,作者将LST编码器输出的多尺度全局特征网格化为一组具有不同局部信息的特征块。与vanilla DETR中的零初始化对象查询相比,提出的位置引导查询可以专注于位置特定的特征,并通过交叉注意与全局特征交互,以获得实例感知嵌入。</span><span style="font-size:16px">
</span><span style="font-size:16px">该设计有效地加快了收敛速度,显著提高了伪装实例的检测。为了增强局部感知和相邻token之间的相关性,作者将卷积运算引入标准前馈网络,将其称为混合卷积前馈网络(BC-FFN)。因此,本文基于LST的模型可以无缝集成局部和全局上下文信息,并有效地提供位置敏感特征来分割伪装实例。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-658ec1f286c1c1a9.jpeg" img-data="{"format":"jpeg","size":44159,"height":331,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><span style="font-size:16px">
</span><span style="font-size:16px">此外,作者设计了一种从粗到精的融合(CFF)来集成从ResNet和LST相继产生的多尺度低层次和高层次特征,以产生共享掩码特征。由于伪装实例的边缘难以捕捉,作者在CFF模块中嵌入了反向边缘注意(REA)模块,以提高对边缘特征的敏感性。</span><span style="font-size:16px">
</span><span style="font-size:16px">最后,作者引入了动态伪装实例归一化(DCIN),通过结合高分辨率掩码特征和实例感知嵌入来生成掩码。基于上述两种新设计,即LST和CFF,作者提供了一种新的用于伪装实例分割的单阶段框架OSFormer(如上图)。OSFormer是第一个为CIS任务探索基于transformer的框架的工作。</span><span style="font-size:16px">
</span><span style="font-size:16px">本文的</span><span style="font-size:16px"><strong>贡献</strong></span><span style="font-size:16px">如下:</span><ol><li><p><span style="font-size:16px">提出了OSFormer,这是为伪装实例分割任务设计的第一个基于Transformer的一阶段框架。这是一个灵活的框架,可以端到端的方式进行训练。</span></p></li><li><p><span style="font-size:16px">提出了一种位置感知Transformer(LST)来动态捕捉不同位置的实例线索。本文的LST包含一个带有混合卷积前馈网络的编码器,用于提取多尺度全局特征,以及一个带有位置引导查询的解码器,用于实现实例感知嵌入。所提出的LST结构可以快速收敛到有限的训练数据。</span></p></li><li><p><span style="font-size:16px">提出了一种新的粗到细融合(CFF)方法,通过融合主干和LST块的多尺度低层和高层特征来获得高分辨率掩模。在该模块中,嵌入了反向边缘注意(REA),以突出伪装实例的边缘信息。</span></p></li><li><p><span style="font-size:16px">广泛的实验表明,OSFormer在具有挑战性的CIS任务中表现良好,在很大程度上优于11种流行的实例分割方法,例如,在COD10K测试集上</span><span style="font-size:16px"><strong>实现了8.5% 的AP改进</strong></span><span style="font-size:16px">。</span></p></li></ol><h1><span style="font-size:16px">
</span></h1><span style="font-size:16px">
</span><p><span><strong> </strong></span><span style="font-size:19px"><strong>03 </strong></span><span><strong> </strong></span></p><h1><strong><span style="font-size:18px">方法</span></strong></h1><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-504a6ae594a845cf.jpeg" img-data="{"format":"jpeg","size":63927,"height":339,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">本文提出的OSFormer包括四个基本组件:(1)用于提取对象特征表示的CNN主干,(2)利用全局特征和位置引导查询生成实例感知嵌入的</span><span style="font-size:16px"><strong>位置感知Transformer(LST)</strong></span><span style="font-size:16px">。(3) </span><span style="font-size:16px"><strong>粗到细融合(CFF)</strong></span><span style="font-size:16px">用于集成多尺度低和高级别特征并产生高分辨率掩码特征,以及(4)用于预测最终实例掩码的</span><span style="font-size:16px"><strong>动态伪装实例归一化(DCIN)</strong></span><span style="font-size:16px">。上图展示了整个架构。</span><h2><span><strong><span style="font-size:16px">3.1 CNN Backbone</span></strong></span></h2><span style="font-size:16px">给定输入图像<span/>,走着使用来自CNN主干的多尺度特征<span/>(即ResNet-50)。为了降低计算成本,作者直接将最后三个特征映射(<span/>)展平并连接成一个256个通道的序列<span/>作为LST编码器的输入。对于<span/>特征,将其作为高分辨率低层特征输入到CFF模块中,以捕获更多伪装的实例线索。</span><h2><span><strong><span style="font-size:16px">3.2 Location-Sensing Transformer</span></strong></span></h2><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-3bf14fc597ee96e1.jpeg" img-data="{"format":"jpeg","size":59696,"height":365,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">虽然transformer可以通过自注意力层更好地提取全局信息,但它需要大规模训练样本和高计算量。由于CIS的数据有限,本文的目标是设计一种高效的架构,可以更快地收敛并实现有竞争力的性能。在上图中,作者展示了本文的位置感知Transformer(LST)。</span></p><h3><strong><span style="font-size:16px">LST Encoder</span></strong></h3><span style="font-size:16px">与仅向transformer编码器输入单尺度低分辨率特征的DETR不同,本文的LST编码器接收多尺度特征<span/>以获得丰富的信息。遵循可变形自注意力层,为了更好地捕捉局部信息并增强相邻token之间的相关性,作者将卷积运算引入前馈网络,称为混合卷积前馈网络(BC-FFN)。</span><span style="font-size:16px">
</span><span style="font-size:16px">首先,根据<span/>的形状将特征向量恢复到空间维度。然后,执行核大小为3×3的卷积层来学习归纳偏置。最后,作者添加了一个组归一化(GN)和一个GELU激活来形成前馈网络。在3×3卷积层之后,作者将特征展平为序列。与混合FFN相比,本文的BC-FFN不包含MLP操作和残差连接。</span><span style="font-size:16px">
</span><span style="font-size:16px">与之前工作在每个阶段开始时设计卷积token嵌入并在Transformer块中采用深度可分离卷积运算不同,作者在BC-FFN中只引入了两个卷积层。具体来说,给定输入特征<span/>,BC-FFN的过程可以公式化为:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-ca4c5f85c2e4e67a.jpeg" img-data="{"format":"jpeg","size":8515,"height":74,"width":636}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">其中,<span/>是3×3卷积运算。总的来说,LST编码器层描述如下:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-aa3a8aec988e7871.jpeg" img-data="{"format":"jpeg","size":10530,"height":68,"width":898}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">其中<span/>表示为位置编码。<span/>和<span/>分别表示多头可变形自注意力和层归一化。</span><h3><strong><span style="font-size:16px">Location-Guided Queries</span></strong></h3><span style="font-size:16px">对象查询在transformer架构中起着关键作用,transformer架构用作解码器的初始输入,并通过解码器层实现输出嵌入。然而,vanilla DETR收敛缓慢的原因之一是对象查询是零初始化的。为此,作者提出了位置引导查询,该查询具有LST编码器的多尺度特征映射<span/>的优势。</span><span style="font-size:16px">
</span><span style="font-size:16px">值得注意的是,DETR中的每个查询都集中在特定的领域。受SOLO的启发,作者首先将恢复的特征映射<span/>调整为<span/>的形状,<span/>。然后,将调整大小的特征划分为<span/>特征网格,并将其展平,以生成位置引导查询<span/>。</span><span style="font-size:16px">
</span><span style="font-size:16px">在这种情况下,提出的位置引导查询可以利用不同位置的可学习局部特征来优化初始化,并有效地聚合伪装区域中的特征。与零初始化或随机初始化相比,该查询策略提高了transformer解码器中查询更新的效率,并加速了训练收敛。</span><h3><strong><span style="font-size:16px">LST Decoder</span></strong><span style="font-size:16px"/></h3><span style="font-size:16px">LST解码器对于与LST编码器生成的全局特征和位置引导查询交互以生成实例感知嵌入至关重要。空间位置编码也被添加到本文的位置引导查询<span/>和编码器memory<span/>中。然后,通过可变形交叉注意力层对其进行融合。</span>
<span style="font-size:16px">与一般transformer解码器不同,作者直接使用交叉注意力而不使用自注意力,因为提出的查询已经包含可学习的全局特征。与LST编码器类似,BC-FFN也在可变形注意力操作后使用。给定位置引导查询<span/>,本文的LST解码器可以表示为:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-ee9ade1a0b1b21ac.jpeg" img-data="{"format":"jpeg","size":12374,"height":84,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">其中<span/>表示基于特征网格的位置编码。<span/>表示为多头可变形交叉注意力操作。<span/>是实例感知表示的输出嵌入。最后,恢复<span/>以送到以下DCIN模块,用于预测掩码。</span><h2><span><strong><span style="font-size:16px">3.3 Coarse-to-Fine Fusion</span></strong></span></h2><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-140efb9da044c715.jpeg" img-data="{"format":"jpeg","size":56463,"height":384,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">作为一种基于自底向上Transformer的模型,OSFormer利用LST编码器输出的多级全局特征,以产生共享掩码特征。为了合并不同的上下文信息,作者还融合了来自CNN主干的低级特征<span/>作为补充,以生成统一的高分辨率特征映射<span/>。</span>
<span style="font-size:16px">粗到细融合(CFF)模块的详细结构如上图所示。将多级特征C2、T3、T4和T5作为级联融合的输入。从输入尺度为1/32的T5开始,通过3×3卷积、GN和2×双线性上采样,并添加更高分辨率特征(T4为1/16比例)。</span><span style="font-size:16px">
</span><span style="font-size:16px">将1/4比例的<span/>融合后,特征继续进行1×1卷积、GN和RELU操作,以生成掩码特征<span/>。请注意,每个输入特征在第一次卷积后将通道从256个减少到128个,然后在最终输出时增加到256个通道。</span><span style="font-size:16px">
</span><span style="font-size:16px">考虑到伪装的边缘特征更难捕捉,作者设计了嵌入CFF的反向边缘注意(REA)模块,以在迭代过程中监督边缘特征。与之前的反向注意不同,本文的REA对边缘特征而不是预测的二进制掩码进行操作。</span><span style="font-size:16px">
</span><span style="font-size:16px">此外,用于监督的边缘标签是通过实例掩码标签获得的,无需任何手动标记。受卷积块注意的启发,输入特征由平均池化(AvgPool)和最大池(MaxPool)操作。然后,将它们concat并送到7×7卷积和sigmoid函数。</span>
<span style="font-size:16px">然后,反转注意力权重,并将其与融合特征<span/>进行元素乘法。最后,作者使用3×3卷积来预测边缘特征。假设输入特征为<span/>,每个REA模块的整个过程可以公式化如下:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-be1a3c64ab7b8a9e.jpeg" img-data="{"format":"jpeg","size":12220,"height":74,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">其中,<span/>表示7×7卷积层,<span/>表示通道轴上的concat。所提出的CFF提供了共享掩码特征F,然后送到DCIN中,以预测最终的伪装实例掩码。</span><h2><span><strong><span style="font-size:16px">3.4 Dynamic Camouflaged Instance Normalization</span></strong></span></h2><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-ae82ff0995f9eb9f.jpeg" img-data="{"format":"jpeg","size":50940,"height":377,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><p>
</p><span style="font-size:16px">受样式迁移域中实例归一化操作的启发,作者引入了一种动态伪装实例归一化(DCIN)来预测最终掩码。当DCIN接收从LST解码器到输出嵌入<span/>时,采用全连接层(FC)来获得位置标签。</span><span style="font-size:16px">
</span><p><span style="font-size:16px">并行地,使用多层感知器(MLP)获得大小为D(即256)的实例感知参数。</span><span style="font-size:16px">作者在训练阶段</span><span style="font-size:16px">根据ground truth分配正位置和负位置。</span><span style="font-size:16px">应用正位置的实例感知参数来生成分割掩码。</span><span style="font-size:16px">在测试阶段,作者利用位置标签的置信值来过滤(如上图所示)无效参数(例如,阈值>0.5)。</span></p><p><span style="font-size:16px">
</span></p><span style="font-size:16px"/><span style="font-size:16px">随后,对滤波的位置感知参数操作两个线性层,以获得仿射权重</span><span style="font-size:16px"/><span style="font-size:16px">和偏差</span><span style="font-size:16px"/><span style="font-size:16px">。</span><span style="font-size:16px">最后,它们与共享掩码特征</span>
<p><span style="font-size:16px">一起使用来预测伪装实例,可以描述为:</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-95794c0d6e24c8d5.jpeg" img-data="{"format":"jpeg","size":3320,"height":60,"width":318}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><p>
</p><span style="font-size:16px">其中<span/>是预测的掩码。N是预测实例数。<span/>是一个4倍的上采样操作。最后,应用矩阵NMS得到最终实例。</span><h2><span><strong><span style="font-size:16px">3.5 Loss Function</span></strong></span></h2><p><span style="font-size:16px">在训练期间,总损失函数可以写成:</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-18ad3a464ba57968.jpeg" img-data="{"format":"jpeg","size":7206,"height":72,"width":724}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">其中,<span/>是边缘损失,用于监督CFF中不同级别的边缘。边缘损失可定义为<span/>,其中j表示用于监督的边缘特征的总级别。<span/>是边缘损失的权重,默认设置为1。</span><span style="font-size:16px">
</span><span style="font-size:16px">由于CIS任务是类别不可知的,因此作者使用每个位置中伪装存在的置信度(<span/>)与实例分割中的分类置信度进行比较。此外,<span/>由Focal Loss实现,<span/>由Dice损失计算,用于分割。<span/>和<span/>分别设置为1和3,以平衡总损失。</span><span style="font-size:16px">
</span><span style="font-size:16px">
</span><p><span><strong> </strong></span><span style="font-size:19px"><strong>04 </strong></span><span><strong> </strong></span></p><strong><span style="font-size:18px">实验</span></strong>
<span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-d66c538c7e098347.jpeg" img-data="{"format":"jpeg","size":30628,"height":217,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">Transformer的深度是影响基于Transformer的模型的性能和效率的关键因素。作者在LST中尝试了不同数量的编码器和解码器层的多种组合,以优化OSFormer的性能。如表所示。如上表所示,三层编码器不足以使OSFormer的性能最大化。AP最高的情况为编码器数量为6,解码器数量为3。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-6dee3e200adfe833.jpeg" img-data="{"format":"jpeg","size":31054,"height":191,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">作者利用从ResNet-50中提取的多级特征作为LST的输入。为了更准确地捕捉不同尺度下的伪装,同时保持模型效率,作者在主干中结合了不同数量的特征,包括C3-C5、C2-C5、C3-C6和C2-C6。在上表中,可以观察到C3-C5的组合以最少的参数和训练显存实现了强大的性能。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-d1a596dd7a0c9649.jpeg" img-data="{"format":"jpeg","size":30074,"height":190,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">对象查询在transformer架构中对于密集预测任务至关重要。如上表所示,本文的位置引导查询明显优于其他查询设计。这说明了在查询中插入有监督的全局特征对于有效回归不同伪装线索和定位实例至关重要。</span></p><p>
</p><p><span style="font-size:16px">此外,作者还比较了三种策略的学习能力。可以发现,本文的位置引导查询方案在早期训练阶段具有更快的收敛速度,并且最终的收敛性也优于其他两种模型。它还表明,位置引导查询可以有效地利用全局特征,通过交叉注意机制在不同位置捕获伪装信息。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-5215fb1fe295d202.jpeg" img-data="{"format":"jpeg","size":32447,"height":223,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">在CFF模块中,多尺度输入特征直接影响通过融合操作的掩码特征F的质量。为了探索ResNet-50和LST编码器的最佳融合方案,作者在上表中进行了不同的组合。通过将C2、T3、T4和T5馈入CFF模块来获得最佳结果。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-b775760141c34690.jpeg" img-data="{"format":"jpeg","size":25598,"height":179,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">作者在上图中可视化了输入到CFF模块的每个比例的特征和掩码特征F。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-ec99b81549102039.jpeg" img-data="{"format":"jpeg","size":29972,"height":189,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">上表展示了不同Backbone下的实验结果。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-2b912430a42263ff.jpeg" img-data="{"format":"jpeg","size":27759,"height":173,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">为了提高OSFormer的应用价值,作者提供了一个名为OSFormer-550的实时版本。具体来说,作者将输入短边调整为550,同时将LST编码器层减少为3层。如上表所示,尽管AP值下降到36%,但推理时间增加到25.8fps,参数和浮点数也显著改善。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-cc195e90d176f896.jpeg" img-data="{"format":"jpeg","size":29070,"height":219,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">上表展示了本文提出的不同模块的有效性。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-45e928e05bc63755.jpeg" img-data="{"format":"jpeg","size":167563,"height":616,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">如上表所示,尽管CIS任务具有挑战性,但本文的OSFormer在所有指标上仍优于其他竞争对手。特别是,OSFormer的AP分数大大高于排名第二的SOLOv2。理想的结果应归因于本文的LST,因为它提供了更高级别的全局特征,并与LST解码器中不同位置的伪装线索相互作用。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-b7579c7a30e71db2.jpeg" img-data="{"format":"jpeg","size":79849,"height":408,"width":1080}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<p><span style="font-size:16px">为了验证OSFormer的有效性,作者还在上图中展示了两个具有代表性的可视化结果。具体来说,顶部样本表明,OSFormer可以在多个实例中轻松区分伪装。底部结果表明,本文的方法优于捕捉细长边界,这可以归因于本文的REA模块增强了边缘特征。总的来说,与其他方法的可视化结果相比,OSFormer能够克服更具挑战性的情况并获得良好的性能。</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">
</span></p><p><span><strong> </strong></span><span style="font-size:19px"><strong>05 </strong></span><span><strong> </strong></span></p><h1><strong><span style="font-size:18px">总结</span></strong></h1><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">本文提出了一种新的位置感知单阶段Transformer框架,称为OSFormer,用于伪装实例分割(CIS)。OSFormer包含一个高效的位置感知Transformer,用于捕捉全局特征并动态回归伪装实例的位置和主体。作为第一个一阶段自底向上的CIS框架,作者进一步设计了从粗到精的融合,以整合多尺度特征并突出伪装边缘以产生全局特征。</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">大量实验结果表明,OSFormer的性能优于所有其他已知模型。此外,OSFormer只需要约3000张图像进行训练,并且收敛速度很快。它可以轻松灵活地扩展到具有较小训练样本的其他下游视觉任务。</span></p><p><span style="font-size:16px">
</span></p><h3><span><strong><span style="font-size:16px">参考资料</span></strong></span></h3><p><span style="font-size:16px">[1]https://arxiv.org/abs/2207.02255
[2]https://github.com/PJLallen/OSFormer</span></p>
<span><strong>▊ </strong><strong>作者简介</strong></span><span style="font-size:16px">研究领域:FightingCV公众号运营者,研究方向为多模态内容理解,专注于解决视觉模态和语言模态相结合的任务,促进Vision-Language模型的实地应用。</span><span style="font-size:16px">知乎/公众号:FightingCV</span><p><strong><span style="font-size:17px">已建立深度学习公众号——</span><span style="font-size:17px"><strong>FightingCV</strong></span><span style="font-size:17px">,欢迎大家关注!!!</span></strong></p><p><strong><span style="font-size:17px">
</span></strong></p><p><strong>ICCV</strong>、<strong>CVPR、NeurIPS、ICML</strong>论文解析汇总:<span><strong>https://github.com/xmu-xiaoma666/FightingCV-Paper-Reading</strong></span></p><p><span><strong>
</strong></span></p><p><strong>面向小白</strong>的<strong>Attention</strong>、<strong>重参数</strong>、<strong>MLP</strong>、<strong>卷积</strong>核心代码学习:<span><strong>https://github.com/xmu-xiaoma666/External-Attention-pytorch</strong></span></p><p>
</p>
华科提出首个用于伪装实例分割的一阶段框架OSFormer
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 本篇分享论文 『Distilled Dual-Encoder Model for Vision-Languag...
- 译者 | 王柯凝 出品 | AI科技大本营(公众号ID:rgznai100) 【 AI 科技大本营导读】目前,计算...
- 译者 | 王柯凝 出品 | AI科技大本营(公众号ID:rgznai100) 【 AI 科技大本营导读】目前,计算...
- Decoder Denoising Pretraining for Semantic Segmentation h...