240 发简信
IP属地:浙江
  • Resize,w 360,h 240
    LESA可以让你的低计算力模型也可以有局部信息和上下文信息

    01简 介 在计算机视觉模型中,Self-Attention已经成为一种普遍模块。尽管它取得了显著的成就,但对Self-Attention的理解...

  • Resize,w 360,h 240
    MetaFormer才是计算机视觉真正需要的

    原标题:MetaFormer is Actually What You Need for Vision 论文地址: https://arxiv....

  • Resize,w 360,h 240
    利用双对比学习模型DCL鉴别视频中伪造的面部

    ©作者 |Doreen 01 背景介绍 随着图像改造技术在深度学习的支持下飞速发展,出现了各种各样“换脸”的操作。这些伪造的面部在程序的优化下达...

  • Resize,w 360,h 240
    CV案例解析:YOLO——从v1到v5

    ©作者 | 小欣 目标检测一直是计算机视觉的热门领域,它也具有丰富的应用场景,从无人驾驶到缺陷检测等等。 在YOLO诞生之前,目标检测领域热门的...

  • ResT An Efficient Transformer for Visual

    ©作者 |小欣 Abstract. 这篇文章提出了一个有效的多尺度视觉Transformer,称为ResT,可以作为图像分类的主干网络,大多Tr...

  • Resize,w 360,h 240
    基于Vision Transformer的视频哈希检索识别虚假视频

    ©作者 | Doreen 01 介绍 深度学习的飞速发展为图像处理带来技术突破的同时,也为虚假图像和视频的泛滥创造了条件。 利用深度学习算法伪造...

  • Resize,w 360,h 240
    浅析Transformer为什么在多模态任务中受欢迎的原因——以kaggle热门比赛为例

    ©作者 | 小欣 01 背景 多模态数据的最大挑战之一就是要汇总多种模式(或视图)中的信息,以便在过滤掉模式的冗余部分的同时,又能将补充信息考虑...

  • Resize,w 360,h 240
    超越CNN的ViT模型及其应用前景

    ©作者 |苏菲 Transformer 模型在 NLP 领域获得了巨大的成功,以此为内核的超大规模预训练模型BERT、GPT-3 在 NLP 各...

  • Resize,w 360,h 240
    英伟达提出AdaViT:出于DeiT而又快于DeiT

    ©作者 |小欣 01 简介 自从Vision Transformer(ViT)被提出以来,Transformer已经成为一种流行的神经网络架构,...

个人介绍
前沿深入的CV应用案例及技术拆解分享