今天接触深度学习,学习了多层神经网络的实现,完成了一个小小的实战经典的手写数字识别的训练。
数据集:mnist
网络:4层每层由一个线性层+ReLu函数构成
import numpy as np
import torch
from torchvision.datasets import mnist
import matplotlib.pyplot as plt
from torch.utils.data import DataLoader
#使用pytorch自带的DataLoader定义一个数据迭代器
from torch import nn
from torch.autograd import Variable
#使用内置函数下载mnist数据集
train_set = mnist.MNIST('./data',train=True,download=True)
test_set = mnist.MNIST('./data',train=True,download=True)
def data_tf(x):
x = np.array(x, dtype='float32') / 255
x = (x - 0.5) / 0.5 #标准化
x = x.reshape((-1,)) #拉平
x = torch.from_numpy(x)
return x
train_set = mnist.MNIST('./data',train=True,transform=data_tf,download=True)#重新加载数据集,申明定义的数据变换
test_set = mnist.MNIST('./data',train=True,transform=data_tf,download=True)
train_data = DataLoader(train_set,batch_size=64,shuffle=True)
test_data = DataLoader(test_set,batch_size=128,shuffle=True)
#使用这样的数据迭代器是非常有必要的,如果数据量太大,就无法一次将他们全都读入内存,所以需要使用迭代器,每次生成一个批次的数据
a,a_label = next(iter(train_data))
#打印出一个批次的数据大小
print(a.shape)
print(a_label.shape)
#使用Sequential定义4层神经网络
net = nn.Sequential(
nn.Linear(784,400),
nn.ReLU(),
nn.Linear(400,200),
nn.ReLU(),
nn.Linear(200,100),
nn.ReLU(),
nn.Linear(100,10),
nn.ReLU(),
)
print(net)
#使用交叉熵作为loss函数
#定义loss函数
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(net.parameters(),1e-1)#使用随机梯度下降法,学习率0.1
#开始训练
losses = []
acces = []
eval_losses = []
eval_acces = []
for e in range(20):
train_loss = 0
train_acc = 0
net.train()
for im, label in train_data:
im = Variable(im)
label = Variable(label)
#前向传播
out = net(im)
loss = criterion(out,label)
#反向传播
optimizer.zero_grad()
loss.backward()
optimizer.step()
#记录误差
train_loss += loss.item()
#计算分类准确性
_, pred = out.max(1)
num_correct = (pred == label).sum().item()
acc = num_correct / im.shape[0]
train_acc += acc
losses.append(train_loss / len(train_data))
acces.append(train_acc / len(train_data))
#在测试集上检验效果
eval_loss = 0
eval_acc = 0
net.eval()#将模型改为预测模式
for im,label in test_data:
im = Variable(im)
label = Variable(label)
out = net(im)
loss = criterion(out, label)
#
eval_loss += loss.item()
#
_, pred = out.max(1)
num_correct = (pred == label).sum().item()
acc = num_correct / im.shape[0]
eval_acc += acc
eval_losses.append(eval_loss / len(test_data))
eval_acces.append(eval_acc / len(test_data))
print('epoch:{}, Train_Loss:{:.6f}, Train_Acc:{:.6f}, Eval_Loss:{:.6f}, Eval_Acc:{:.6f}'
.format(e, train_loss / len(train_data), train_acc / len(train_data),
eval_loss / len(test_data), eval_acc / len(test_data)))
plt.title('train loss')
plt.plot(np.arange(len(losses)),losses)
plt.show()
plt.title('train acc')
plt.plot(np.arange(len(acces)), acces)
plt.show()
plt.title('test loss')
plt.plot(np.arange(len(eval_losses)),eval_losses)
plt.show()
plt.title('test acc')
plt.plot(np.arange(len(eval_acces)),eval_acces)
plt.show()