网络结构:
Alexnet是2012年提出的,正是这种网络的出现带动了深度学习的热潮。在论文中,也点名了神经网络再次热起来的原因,那就是互联网数据量的猛增与当代算力的发展。
分析:
1、网络之所以分为两个部分,是因为当初算力的限制,所以采用了两台GPU服务器。
2、整个网络,总共有八层,其中有五层卷积层,三层全连接层。在卷积层中,卷积核的大小分别为11*11、5*5、3*3,随着卷积核的尺寸逐渐变小,但通道数不断增加。卷积层又最多可分为四个部分,分别为卷积、激活、池化、标准化。在全连接层中,有时会带有dropout操作,其目的是防止过拟合的出现。
3、整个网络的一大创新点是使用了relu作为激活函数,在以往,激活函数大多选择sigmoid或者tanh函数,当输入值过大或过小时,此时的梯度会非常小,非常不适于反向传播,而relu可以克服这个缺点,同时,从生物学的角度来说,relu函数也比较符合生物神经元激活时的状态。
4、在防止过拟合这个问题上,Alexnet网络除了使用了dropout这种操作外,还使用了数据增强:一是通过对图片进行随机裁剪并旋转;二是对RGB通道使用了主成分分析,通过改变特征值来进行数据扩充。