设计好CNN模型后,常见的模型摘要如下图所示,大家有没有想过,里面的参数个数(Param #)是如何计算出来的呢?
最简单的是Dense层,即全连接层(FC),输入参数就是前一层的输出,例如上图中,Dense层,输入参数个数就是78400,即每个神经元都有78400个输入,根据神经元计算公式 Y = W*X + b,对应的w有78400个,外加偏置b,每个神经元共计(78400+1)个参数需要训练。
dense层共有512个神经元,所以需要训练的参数共计 (78400+1)× 512 = 40141312;
dense_1层:(512+1)×1=513
池化层(Pooling)没有需要训练的参数。
卷积层(Conv2D)本质是在训练卷积核(Kernel),假设输入为i,本层的卷积核个数为j,卷积核为n*m,则需要训练的参数个数为:N = (n*m*i+1)*j
Conv2d 层中,i=1,j=16,n=m=3,所以N=(3*3*1+1)*16=448;
Conv2d_1 层中,i=16,j=32,n=m=3,所以N=(3*3*16+1)*32=4640;
Conv2d_2 层中,i=32,j=64,n=m=3,所以N=(3*3*32+1)*64=18496;
需要训练的参数个数总计(Trainable params: 448+4640+18496+40141312+513=40165409