神经网络也能像人类利用外围视觉一样观察图像

<p>
</p><h1><span style="font-size:16px">
</span></h1><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-7cca89770e970d8d.jpeg" img-data="{"format":"jpeg","size":80477,"height":668,"width":982}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><p>
</p><h1><span style="font-size:16px">本篇分享论文</span><span style="font-size:16px"><strong>『Peripheral Vision Transformer』</strong></span><span style="font-size:16px">,POSTECH&MSRA&中科大提出PerViT,让神经网络也能关注图片中的重点信息!</span></h1><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">详细信息如下:
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-af41f069fb6366d6.jpeg" img-data="{"format":"jpeg","size":34589,"height":342,"width":862}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><p>
</p><ol><li><p style="text-indent:0px"><span style="font-size:15px">论文地址:https://arxiv.org/abs/2206.06801</span></p></li><li><p style="text-indent:0px"><span style="font-size:15px">项目地址:http://cvlab.postech.ac.kr/research/PerViT/ (尚未开源)</span></p></li></ol><h1>
</h1><p>
</p><p><span><strong> </strong></span><span style="font-size:19px"><strong>01 </strong></span><span><strong> </strong></span></p><h1><strong><span style="font-size:18px">摘要</span></strong></h1><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">人类视觉拥有一种特殊类型的视觉处理系统,称为</span><span style="font-size:16px"><strong>外围视觉(peripheral vision)</strong></span><span style="font-size:16px">。根据到凝视中心的距离将整个视野划分为多个轮廓区域,外围视觉为人类提供了感知不同区域的各种视觉特征的能力。</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">在这项工作中,作者采用了一种受生物学启发的方法,并探索在深度神经网络中对外围视觉进行建模以进行视觉识别。作者提出将外围位置编码合并到多头自注意力层中,以让网络学习在给定训练数据的情况下将视野划分为不同的外围区域。</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">作者在大规模 ImageNet 数据集上评估了本文提出的网络PerViT,并系统地研究了机器感知模型的内部工作原理,表明该网络学习感知视觉数据的方式类似于人类视觉的方式。在各种模型大小的图像分类任务中的最新性能证明了所提出方法的有效性。</span></p><p>
</p><p>
</p><p><span><strong> </strong></span><span style="font-size:19px"><strong>02 </strong></span><span><strong> </strong></span></p><h1><strong><span style="font-size:18px">Motivation</span></strong></h1><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">在过去的十年中,卷积一直是视觉识别神经网络中的主要特征转换,因为它在图像空间配置建模方面具有优势。尽管在学习视觉模式方面很有效,但卷积核的局部和静止特性限制了灵活处理中表示能力的最大程度,例如,具有全局感受野的动态变换。</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">自注意力最初是为自然语言处理 (NLP) 设计的,它阐明了这个方向;配备自适应输入处理和捕获远程交互的能力,它已成为计算机视觉的替代特征变换,被广泛用作核心构建块。</span></p><p><span style="font-size:16px">
然而,独立的自注意模型,例如 ViT,需要更多的训练数据才能与其卷积对应物的竞争性能,因为它们错过了卷积的某些理想属性,例如,局部性。卷积和自注意力的这些固有优缺点鼓励了最近对两者结合的研究,以便享受两全其美,但哪一种最适合有效的视觉处理,但在文献中尚有争议。</span></p><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-ee265106905a18a1.jpeg" img-data="{"format":"jpeg","size":33322,"height":481,"width":329}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">与机器视觉中占主导地位的视觉特征转换不同,人类视觉拥有一种特殊类型的视觉处理系统,称为</span><span style="font-size:16px"><strong>外围视觉(peripheral vision)</strong></span><span style="font-size:16px">。它根据到凝视中心的距离将整个视觉划分为多个轮廓区域,其中每个区域标识不同的视觉方面。如上图所示,人类在注视中心附近(即中心和准中心区域)进行了高分辨率处理,以识别高度详细的视觉元素,例如几何形状和低级细节。</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">对于距离注视更远的区域,即中部和远边缘区域,分辨率会降低以识别抽象的视觉特征,例如运动和高级上下文。这种系统化的策略使人类能够有效地感知一小部分(1%)视野内的重要细节,同时最大限度地减少对其余部分(99%)背景杂波的不必要处理,从而促进人脑的高效视觉处理。</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">根据最近对视觉Transformer内部工作原理的研究,它们的行为实际上与外围视觉的功能密切相关。学习早期层的注意力图以局部捕获中心区域的细粒度几何细节,而后面层的注意力图则执行全局注意力以从整个视野中识别粗粒度语义和上下文,覆盖外围区域。
</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">这些发现表明,模仿生物设计可能有助于对有效的机器视觉进行建模,并且还支持最近实现卷积和自注意的混合方法,而不仅仅是独立的视觉处理。两种不同感知策略的优势:</span><strong><span style="font-size:16px">细粒度/局部</span></strong><span style="font-size:16px">和</span><span style="font-size:16px"><strong>粗粒度/全局</strong></span><span style="font-size:16px">。</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">在这项工作中,作者采用了一种受生物学启发的方法,并提出将外围归纳偏置注入深度神经网络以进行图像识别。作者提出将外围注意力机制结合到多头自注意力中,以让网络学习在给定训练数据的情况下将视野划分为不同的外围区域,其中每个区域捕获不同的视觉特征。作者通过实验表明,所提出的网络对有效的视觉外围进行了建模,以实现可靠的视觉识别。</span></p><p><span style="font-size:16px">
</span></p><p><span style="font-size:16px">本文的主要</span><span style="font-size:16px"><strong>贡献</strong></span><span style="font-size:16px">可以总结如下:</span></p><ol><li><p><span style="font-size:16px">这项工作探索通过将外围归纳偏置注入自注意力层来缩小人类和机器视觉之间的差距,并提出了一种称为多头外围注意 (MPA) 的新形式的特征转换。</span></p></li><li><p><span style="font-size:16px">在 MPA 的基础上,作者引入 PerViT(PerViT),并通过定性和定量分析 PerViT 的学习注意力系统地研究 PerViT 的内部工作原理,这揭示了网络学习感知视觉元素的方式类似于人类视觉没有的方式任何特殊监督。</span></p></li><li><p><span style="font-size:16px">不同模型大小的图像分类任务的最新性能验证了所提出方法的有效性。</span></p></li></ol><h1><span style="font-size:16px">
</span></h1><p><span style="font-size:16px">
</span></p><p><span><strong> </strong></span><span style="font-size:19px"><strong>03 </strong></span><span><strong> </strong></span></p><h1><strong><span style="font-size:18px">方法</span></strong>
</h1><p><span style="font-size:16px">
</span></p><span style="font-size:16px">具有<span/>个头的多头自注意力 (MHSA)通过聚合<span/>个自注意力输出来执行基于注意力的特征转换:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-446372de7b778e01.jpeg" img-data="{"format":"jpeg","size":5947,"height":56,"width":498}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><span style="font-size:16px">
</span><span style="font-size:16px">其中<span/>是一组输入token,<span/>和<span/>是转换参数。自注意力的<span/>个输出旨在从输入表示中提取一组不同的特征。形式上,head h 的 self-attention 定义为:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-56d98a8d37c6427f.jpeg" img-data="{"format":"jpeg","size":4922,"height":42,"width":454}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><span style="font-size:16px">
</span><span style="font-size:16px">其中 Normalize[·] 表示逐行归一化,<span/>是一个基于内容信息提供空间注意力以聚合值<span/>的函数:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-e1532249a9fd6d6b.jpeg" img-data="{"format":"jpeg","size":6090,"height":47,"width":544}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">使用<span/>的线性投影分别用于查询、键和值。</span><h2><span><strong><span style="font-size:16px">3.1 Peripheral Vision Transformer</span></strong></span></h2><span style="font-size:16px">基于 MHSA 的公式,作者将多头外围注意 (MPA) 定义为:</span>
<div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-f5556a1ba86ccd6d.jpeg" img-data="{"format":"jpeg","size":6508,"height":42,"width":565}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><p>
</p><span style="font-size:16px">其中</span><span style="font-size:16px">是具有</span><span style="font-size:16px">通道维度的相对位置编码。MHSA 中的 self-attention 现在被 Peripheral-Attention 取代,由基于内容和位置的注意力函数</span><span style="font-size:16px">组成,定义为:</span>
<div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-7323c40a5f3de0d2.jpeg" img-data="{"format":"jpeg","size":7417,"height":53,"width":646}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><span style="font-size:16px">其中</span><span style="font-size:16px">是 Hadamard 积,它混合了给定的注意力对以提供混合注意力</span><span style="font-size:16px">。对于基于内容的注意力</span><span style="font-size:16px">,作者在查询和键之间使用指数(缩放)点积:</span><span style="font-size:16px">。对于基于位置的注意力</span><span style="font-size:16px">,作者设计了一个旨在模仿人类视觉系统(例如外围视觉)的神经网络。</span><strong><span style="font-size:16px"/></strong><h3><strong><span style="font-size:16px">Modelling peripheral vision: a Roadmap</span></strong></h3><span style="font-size:16px">人类视野可以根据与注视中心的欧式距离分为几个区域,每个区域形成如图1所示的环形区域,其中每个区域捕获不同的视觉方面;离凝视越近,处理的特征越复杂,离凝视越远,感知的视觉特征就越简单。</span><span style="font-size:16px">
</span><span style="font-size:16px">在二维注意力图<span/>的上下文中,作者将查询位置<span/>,即感兴趣的特征所在的位置进行变换,作为注视中心,局部查询周围的区域为中心/准中心区域,其余为中/远外围区域。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-7257e72fd00735fb.jpeg" img-data="{"format":"jpeg","size":32584,"height":369,"width":422}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">也许将视野划分为多个子区域的最简单方法是对欧式距离执行单个线性投影,即<span/>,其中<span/>,为了直接模仿外围视觉,作者使用欧式距离作为相对位置输入 R,并以<span/>种不同方式权衡距离,以便网络学习多个尺度的映射:<span/>,其中<span/>是一组跨层和头共享的可学习参数,并且<span/>是查询和键位置之间的欧式距离,<span/>。</span><span style="font-size:16px">
对于 σ,作者选择 sigmoid 来为基于内容的注意力<span/>提供归一化权重。这种单层公式的一个主要缺点是<span/>只能提供如上图左上角所示的类似高斯的注意力图,因此无法表示不同的外围区域。对于表示不同(环形)外围区域的编码函数,距离必须由 MLP 处理:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-a91ec0cf2f2c78d2.jpeg" img-data="{"format":"jpeg","size":8354,"height":59,"width":720}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><span style="font-size:16px">
</span><span style="font-size:16px">其中<span/>和<span/> 是线性投影参数,ReLU 赋予函数非线性。第一个投影<span/>在头之间共享以交换信息,因此每个特征都能够提供对其他头注意力有效或互补的注意力。给定固定查询点<span/>和关键点<span/>之间的相同相对距离,即<span/>,上式提供了相同的注意力分数:<span/>,如上图的右上角所示。</span><span style="font-size:16px">
</span><span style="font-size:16px">然而,在实际场景中并不总是需要此属性,因为旋转对称属性几乎不适用于大多数现实世界的对象。为了打破上式中的对称属性,并充分保留外围设计,作者引入</span><span style="font-size:16px"><strong>外围投影(peripheral projection)</strong></span><span style="font-size:16px">,其中变换参数被赋予小的空间分辨率,使得<span/>和<span/>,因此它们提供相似但不同的注意力分数,<span/>。给定<span/>,通过参考键周围的相邻相对距离:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-1d51a3ec25d3585e.jpeg" img-data="{"format":"jpeg","size":8578,"height":81,"width":665}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><span style="font-size:16px">
</span><span style="font-size:16px">其中<span/>是一个提供输入位置周围的一组邻域的函数。在每个外围投影之后,作者添加一个实例归一化层以进行稳定优化:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-00b77569742ccd1f.jpeg" img-data="{"format":"jpeg","size":9245,"height":57,"width":795}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><span style="font-size:16px">
</span><span style="font-size:16px">其中<span/>是实例范数的权重/偏置。上图的中间行描绘了具有外围投影的<span/>的学习注意力,与没有 N 的单层和多层对应物相比,它提供了更多样化的外围注意力图。</span><h3><strong><span style="font-size:16px">Peripheral initialization</span></strong></h3><span style="font-size:16px">最近的研究观察到,受过训练的视觉Transformer的早期层学习局部关注,而后期层则执行全局关注。为了促进本文网络的训练,作者在训练阶段的开始注入这个属性,为此目的通过初始化 <span/>的参数,使靠近查询的注意力分数大于早期层中较远的查询,同时均匀地分布在后期层中,如上图的底行所示。</span><span style="font-size:16px">
</span><span style="font-size:16px">作者将此方法称为</span><span><strong><span style="font-size:16px">外围初始化( peripheral initialization)</span></strong></span><span style="font-size:16px">,因为它类似于外围视觉的特征,外围视觉也可以在局部或全局范围内操作以感知不同的视觉。给定两个任意选择的距离<span/>,满足<span/> ,作者希望<span/>,即早期层的局部注意力。</span>
<span style="font-size:16px">对于后期层的全局注意力,作者希望<span/>。作者首先将<span/>和<span/>的参数初始化为特定值。具体来说,对于所有层<span/>和 head <span/>:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-764bd49585f6ca3b.jpeg" img-data="{"format":"jpeg","size":7274,"height":40,"width":825}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div><span style="font-size:16px">
</span><span style="font-size:16px">其中<span/>是正实数,<span/>指的是大小为 N × M 的全一矩阵。上述初始化在第二次外围投影后提供局部注意力,即给定<span/>,<span/>。</span><span style="font-size:16px">
</span><span style="font-size:16px">接下来,基于本文的发现,即第二实例范数中的偏差<span/>和权重<span/>分别控制局部注意力的大小和强度,通过将它们的初始值设置为<span/>来模拟外围初始化,其中<span/>是注意力大小和强度的初始值集。</span><h2><span><strong><span style="font-size:16px">3.2 Overall Architecture</span></strong></span></h2><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-8a7fd40640f15d10.jpeg" img-data="{"format":"jpeg","size":35647,"height":382,"width":433}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">基于提出的外围投影和初始化,作者开发了称为外围视觉Transformer的图像分类模型,如上图所示。原始的 patchify stem由于其粗粒度的早期视觉处理而表现出不合标准的可优化性,因此许多最近的 ViT 模型采用多分辨率金字塔设计来缓解该问题。</span><span style="font-size:16px">
</span><span style="font-size:16px">虽然金字塔模型在学习可靠的图像嵌入方面已经显示出它们的功效,但作者坚持使用 PerViT 的原始单分辨率圆柱形设计,因为多分辨率的特征使本文的研究难以解释。为了进行细粒度的早期处理,同时保持跨层的单分辨率特征,作者采用卷积patch嵌入层,通道尺寸具有多阶段布局。卷积嵌入层由四个 3×3 和一个 1×1 卷积组成,其中 3×3 卷积后面是BatchNorm和ReLU。</span><h3><strong><span style="font-size:16px">Peripheral Vision Transformer</span></strong><span style="font-size:16px"> </span></h3><span style="font-size:16px">给定一张图像,卷积patch嵌入提供了token嵌入<span/>。嵌入被馈送到<span/>个块,每个块由一个 MPA 层和一个带有残差路径的前馈网络组成:</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-79c79f4675cf91f6.jpeg" img-data="{"format":"jpeg","size":6927,"height":44,"width":700}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">其中 LN 是层归一化,FFN 是由两个带有 GELU 激活的线性变换组成的 MLP。</span><span style="font-size:16px">作者在第一层归一化之前采用卷积位置编码 (CPE),即 3 × 3 深</span><span style="font-size:16px">度卷积。</span><span style="font-size:16px">输出</span><span style="font-size:16px"/><span style="font-size:16px">被全局平</span><span style="font-size:16px">均池化以形成图像嵌入。</span><h1><span style="font-size:16px">
</span></h1><p><span style="font-size:16px">
</span></p><p><span><strong> </strong></span><span style="font-size:19px"><strong>04 </strong></span><span><strong> </strong></span></p><h1><strong><span style="font-size:18px">实验</span></strong></h1><p><span style="font-size:16px">
</span></p><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-002d1b35d3ac1e3a.jpeg" img-data="{"format":"jpeg","size":24584,"height":234,"width":475}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">上图展示了<span/>学习到的注意力图,可以观察到注意力被学习到处于不同形状的外围区域中。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-32f7c1095e6d765a.jpeg" img-data="{"format":"jpeg","size":17326,"height":221,"width":351}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">上图的饼图描述了 Tiny、Small 和 Medium 模型的外围区域的比例,其中条形图以分层方式显示它们。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-50893fe9a3f330f8.jpeg" img-data="{"format":"jpeg","size":62765,"height":404,"width":845}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">为了研究基于位置的注意力<span/>如何对混合注意力<span/> 做出贡,作者收集样本图像并将其在上图中的第 3、4 和 8 层的注意力图可视化。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-cec9b99e4d72e944.jpeg" img-data="{"format":"jpeg","size":48139,"height":260,"width":875}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">如上图所示,作者观察到一个明显的趋势,即基于位置的注意力的影响在早期处理中显着更高,半动态地转换特征,而后面的层需要较少的位置信息,将<span/>视为较小的位置偏差。这种趋势随着更大的模型变得更加明显,如上图右侧所示;与 Tiny 模型相比,Small 和 Medium 模型更多地利用动态转换,尤其是在后面的层中。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-15263d690ee1cad6.jpeg" img-data="{"format":"jpeg","size":35017,"height":222,"width":846}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">如上图所示,作者观察到<span/>之间相似的局部性趋势,这表明位置信息在形成用于特征转换的空间注意力 (<span/>) 方面比内容信息更占主导地位。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-26be26f03fe5a15a.jpeg" img-data="{"format":"jpeg","size":48475,"height":419,"width":578}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">上表展示了本文方法和SOTA方法的对比结果。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-dbecdee52503bf6b.jpeg" img-data="{"format":"jpeg","size":18183,"height":223,"width":322}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">上表展示了不同相对位置编码的结果对比。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-e4cc6f585ba68dc4.jpeg" img-data="{"format":"jpeg","size":23445,"height":221,"width":523}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">上表展示了本文方法的不同模块的消融结果。</span><span style="font-size:16px">
</span><div class="image-package"><img src="https://upload-images.jianshu.io/upload_images/11486041-6af4ae41c6882d92.jpeg" img-data="{"format":"jpeg","size":28742,"height":425,"width":272}" class="uploaded-img" style="min-height:200px;min-width:200px;" width="auto" height="auto"/>
</div>
<span style="font-size:16px">上表展示了不同的初始化方法和网络设计对实验结果的影响。</span><h1><span style="font-size:16px">
</span></h1><p><span style="font-size:16px">
</span></p><p><span><strong> </strong></span><span style="font-size:19px"><strong>05 </strong></span><span><strong> </strong></span></p><h1><strong><span style="font-size:18px">总结</span></strong>
</h1><p><span style="font-size:16px">
</span></p><span style="font-size:16px">本文探索了将人类周边视觉与机器视觉相结合以实现有效的视觉识别,并提出了周边视觉Transformer,该Transformer学习提供各种基于位置的注意力来使用周边投影和初始化来模拟周边视觉。</span>
<span style="font-size:16px">作者系统地研究了所提出网络的内部工作原理,并观察到网络通过学习决定特征转换中的局部性和动态性水平,通过网络本身给定训练数据,从而享受卷积和自注意力的好处。在不同模型大小和深入的消融研究中,ImageNet 上现有技术的持续改进证实了所提出方法的有效性。</span><span style="font-size:16px">
</span><h3><span><strong><span style="font-size:16px">参考资料</span></strong></span></h3><span style="font-size:16px">[1]https://arxiv.org/abs/2206.06801</span><span style="font-size:16px">
</span><span><strong>▊ </strong><strong>作者简介</strong></span><span style="font-size:16px">研究领域:FightingCV公众号运营者,研究方向为多模态内容理解,专注于解决视觉模态和语言模态相结合的任务,促进Vision-Language模型的实地应用。</span><span style="font-size:16px">知乎/公众号:FightingCV</span><span style="font-size:16px">
</span><p><strong><span style="font-size:17px">已建立深度学习公众号——</span><span style="font-size:17px"><strong>FightingCV</strong></span><span style="font-size:17px">,欢迎大家关注!!!</span></strong></p><p><strong><span style="font-size:17px">
</span></strong></p><p><strong>ICCV</strong>、<strong>CVPR、NeurIPS、ICML</strong>论文解析汇总:<span><strong>https://github.com/xmu-xiaoma666/FightingCV-Paper-Reading</strong></span></p><p><span><strong>
</strong></span></p><p><strong>面向小白</strong>的<strong>Attention</strong>、<strong>重参数</strong>、<strong>MLP</strong>、<strong>卷积</strong>核心代码学习:<span><strong>https://github.com/xmu-xiaoma666/External-Attention-pytorch</strong></span></p><p>
</p><p>
</p>

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,386评论 6 479
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,939评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,851评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,953评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,971评论 5 369
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,784评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,126评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,765评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,148评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,744评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,858评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,479评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,080评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,053评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,278评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,245评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,590评论 2 343

推荐阅读更多精彩内容