数据和方法
今天依旧使用MNIST手写数字,方法也是MLP方法,这次我们让隐含层为1000个神经元。
数据处理
处理还是和上次一样。
- 图片是28X28,我们要转换为一维的,这样才可以作为我们的输入层。
- 图片标准化
- label值换为one-hot编码,做为输出层。
代码:
X_train = X_train.reshape(60000,784).astype('float32')
X_test = X_test.reshape(10000,784).astype('float32')
X_train = X_train/255
X_test = X_test/255
y_train = np_utils.to_categorical(y_train)
y_test = np_utils.to_categorical(y_test)
MLP建模
建立模型
这次我们在中间加入的为1000个神经元,我们只需要简单修改下代码即可。
from keras.models import Sequential
from keras.layers import Dense
model = Sequential()
model.add(Dense(units=1000,
input_dim=784,
kernel_initializer='normal',
activation='relu'))
model.add(Dense(units=10,
kernel_initializer='normal',
activation='softmax'))
模型训练
model.compile(loss='categorical_crossentropy',
optimizer='adam', metrics=['accuracy'])
train_history = model.fit(x=X_train,
y=y_train,validation_split=0.2,
epochs=10, batch_size=200,verbose=2)
这里我们将结果可视化,发现训练集精度高,而测试集的精度上升却很慢,这是典型的过拟合,所以接下来用dropout方法,防止一定的过拟合。
dropout防止过拟合
这里我们只需要在隐含层后面add一个Dropout即可。结果看出,过拟合得到很大的改正,而且精度也提高了不少。
from keras.models import Sequential
from keras.layers import Dense
model = Sequential()
model.add(Dense(units=1000,
input_dim=784,
kernel_initializer='normal',
activation='relu'))
model.add(Dropout(0.5)) ###加入dropout
model.add(Dense(units=10,
kernel_initializer='normal',
activation='softmax'))