基于上一篇文章说到的VIT(Transformers for Image Recognition at Scale)论文及代码解读
下面基于唐宇迪的视频简要说一下TNT模型。

TNT
其实说白了就是原来的切分的
patch size比较大,所以这里就是将我们的patch size弄细一点。内部在原来的patch的基础上再嵌套一次Transformer。


image.png



基于上一篇文章说到的VIT(Transformers for Image Recognition at Scale)论文及代码解读
下面基于唐宇迪的视频简要说一下TNT模型。
patch size比较大,所以这里就是将我们的patch size弄细一点。内部在原来的patch的基础上再嵌套一次Transformer。