2022-09-02

Resnet

  • 深度神经网络真的是网络层数越多好吗?


    image.png
  • 过多的层不一定会带来更好的效果,因此何凯明提出了Resnet。针对深层的网络中一些是有作用的一些是没有作用的,通过残差连接可以降低无效网络层的权重,从而减少对结果的影响。


    image.png

    image.png

RNN

image.png
image.png

Transformer (VIT)

  • 位置编码和patch序列计算


    image.png
image.png

transformer的感受野更加大,更容易获取全局信息,缺点是吃数据。

  • 如何做图像的位置编码?


    image.png

这个结论只针对于分类任务。

TNT

  • 外部transformer就是原始的,内部的是针对每个patch进行超像素划分。


    image.png
image.png
image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 一.防火墙概念 (一)安全技术介绍 (1) 入侵检测与管理系统(Intrusion Detection Syste...
    楠人帮阅读 5,395评论 0 3
  • 第四章 局域网原理 一、局域网概述 二、以太网技术 三、局域网的扩展 以太网的级联与扩展 冲突域 广播域 集线器 ...
    菜鸡也会飞阅读 3,909评论 0 2
  • 三组 靖麦玲 现代物流学院 1. 思想 新的学期如期而至。新阶段需要新理念、新格局。改变是唯一的不变,当前各项工作...
    28385ebcbe8b阅读 942评论 0 0
  • 中原焦点团队网络初、中级第30期, 崔萍萍 中 持续分享第375天 ,20220902 使用关系问句的技巧: ...
    a8d61ee151bd阅读 682评论 0 0
  • 三星堆周边遗迹与传统史学互证大禹治水凿“龙门”建设水利工程 川蜀盆地的古代水利工程是中华大地上最多的,岂是“李冰...
    翁卫和阅读 2,642评论 0 0