CNN Summaries

model author year structure
LeNet Google 1986 2 layers convolution
2 layers subsampling
2 layers full-connected
1 layer Gaussian connection
AlxNet Alex Krizhevsky 2012 5 layers conv
3 layers full-connected
GoogleLeNet Alex Krizhevsky 2014 many convolution
VGG 16 Google DeepMind 2015 13 layers convolution
3 layers full-connected
Deep Residual Learning 何凯明 2015 152 layers
SqueezeNet Iandola 2016 2 layers convolution
8 layers fire

LeNet

较早期的神经网络,用于识别数字,当年美国大多数银行就是用它来识别支票上面的手写数字的。
链接:http://blog.csdn.net/geekmanong/article/details/50605340

LeNet.png

AlexNet

2012 ILSVRC 大放异彩,神经网络的时代重启.
链接:https://www.cnblogs.com/alexanderkun/p/6918045.html

AlexNet.png

GoogLeNet

14年比赛冠军的model,这个model证明了一件事:用更多的卷积,更深的层次可以得到更好的结构。
链接:http://blog.csdn.net/shuzfan/article/details/50738394#googlenet-incepetion-v1

GoogleNet.png

VGG 16

VGG有很多个版本,也算是比较稳定和经典的model。它的特点也是连续conv多,计算量巨大
链接:http://blog.csdn.net/errors_in_life/article/details/65950699

VGG16.png

Deep Residual Learning

这个model是2015年底最新给出的,也是15年的ILSCRC比赛冠军。可以说是进一步将conv进行到底,其特殊之处在于设计了“bottleneck”形式的block(有跨越几层的直连)。最深的model采用的152层!
链接:http://blog.csdn.net/xbinworld/article/details/45619685

SqueezeNet

模型小巧,引入了fire层 (squeeze and expand).准确率和 AlexNet 差不多,但是模型小了50x.
链接:http://blog.csdn.net/shenxiaolu1984/article/details/51444525

SqueezeNet.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容