Task4 模型训练与验证

上一章节,构造了一个简单的CNN,并进行误差损失和第一个字符预测准确率的可视化。一个成熟合格的深度学习训练流程至少具备以下功能:

  • 训练集上训练,验证集上验证
  • 模型保存最优权重,并读取权重
  • 记录训练集和验证集的精度,便于调参

4. 模型训练与验证

以下顺序依次讲解:

  • 构建验证集
  • 模型训练和验证
  • 模型保存与加载
  • 模型调参

4.1 学习目标

  • 理解验证集作用
  • 使用训练集和验证集完成训练
  • 使用Pytorch环境下的模型读取和加载

4.2 构造验证集

目前机器学习或深度学习的现状如下:

  • 模型训练:容易过拟合
  • 深度模型,训练误差逐渐降低;但测试误差不一定。

模型的训练中,只能利用训练数据来训练,并不能接触测试集的样本;
这样造成过拟合(Overfitting)和欠拟合(Underfitting):

  • 过拟合:如果将训练集学的过好,记住训练样本的细节,导致在测试集的泛化效果较差。
  • 欠拟合:模型在训练集上的拟合效果较差。
image.png

如图所示:随着模型复杂度和模型训练轮数的增加,CNN模型在训练集上的误差会降低,但在测试集上的误差会逐渐降低,然后逐渐升高,而我们为了追求的是模型在测试集上的精度越高越好。

导致模型过拟合的原因:

  • 模型复杂度(Model Complexity )太高(常见)
    注释:学习到了一些细枝末节的规律
  • ...

解决方法:

  • 构建一个与测试集尽可能分布一致的验证集
  • 训练中不断验证模型在验证集上的精度,来控制模型的训练

审题:那么针对赛题,给出了训练集和测试集。

  • 参赛者:需要在训练集上构建模型
    验证模型在测试集上的泛化能力
  • 手段:
    提交对测试集的预测结果,来验证模型的泛化能力

训练集,验证集,测试集的作用:

  • 训练集(Train Set):模型用于训练和调整模型参数
  • 验证集(Validation Set):用来验证模型精度和调整模型超参数
  • 测试集(Test Set):验证模型的泛化能力

因为训练集和验证集是分开的,所以模型在验证集上面的精度在一定程度上可以反映模型的泛化能力。在划分验证集的时候,需要注意验证集的分布应该与测试集尽量保持一致,不然模型在验证集上的精度就失去了指导意义。

训练集和验证集,但并不一定每次赛题都会有验证集。所以从训练集怎么抽出验证集,方法如下:


image.png
  • 留出法(Hold-Out)
    优点:直接简单,划分训练集和验证集
    缺点:只得到了一份验证集,可能导致在验证集上过拟合
    应用:数据量比较大的情况

  • 交叉验证法(Cross Validation,CV)
    划分成K份,K-1份为训练集,剩余的一份为验证集;循环K训练。
    优点:验证集精度比较可靠,训练K次可以得到K个有多样性差异的模型
    缺点:需要训练K次
    应用:不适合数据量很大的情况

  • 自助采样法(BootStrap)

通过有放回的采样方式得到新的训练集和验证集,每次的训练集和验证集都是有区别的。

应用:适用于数据量较小的情况

这里的分布一般指的是与标签相关的统计分布:

  • 标签的类别分布,训练集-验证集-测试集的类别分布情况应该大体一致
  • 如果标签是带有时序信息,则验证集和测试集的时间间隔应该保持一致。

4.3 模型训练与验证

使用Pytorch来完成CNN的训练和验证过程,CNN网络结构与之前的章节中保持一致。我们需要完成的逻辑结构如下:

  • 构造训练集和验证集;
  • 每轮进行训练和验证,并根据最优验证集精度保存模型。
train_loader = torch.utils.data.DataLoader(
    train_dataset,
    batch_size=10, 
    shuffle=True, 
    num_workers=10, 
)
    
val_loader = torch.utils.data.DataLoader(
    val_dataset,
    batch_size=10, 
    shuffle=False, 
    num_workers=10, 
)

model = SVHN_Model1()
criterion = nn.CrossEntropyLoss (size_average=False)
optimizer = torch.optim.Adam(model.parameters(), 0.001)
best_loss = 1000.0
for epoch in range(20):
    print('Epoch: ', epoch)

    train(train_loader, model, criterion, optimizer, epoch)
    val_loss = validate(val_loader, model, criterion)
    
    # 记录下验证集精度
    if val_loss < best_loss:
        best_loss = val_loss
        torch.save(model.state_dict(), './model.pt')

其中每个Epoch的训练代码如下:

def train(train_loader, model, criterion, optimizer, epoch):
    # 切换模型为训练模式
    model.train()

    for i, (input, target) in enumerate(train_loader):
        c0, c1, c2, c3, c4, c5 = model(data[0])
        loss = criterion(c0, data[1][:, 0]) + \
                criterion(c1, data[1][:, 1]) + \
                criterion(c2, data[1][:, 2]) + \
                criterion(c3, data[1][:, 3]) + \
                criterion(c4, data[1][:, 4]) + \
                criterion(c5, data[1][:, 5])
        loss /= 6
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

其中每个Epoch的验证代码如下:

def validate(val_loader, model, criterion):
    # 切换模型为预测模型
    model.eval()
    val_loss = []

    # 不记录模型梯度信息
    with torch.no_grad():
        for i, (input, target) in enumerate(val_loader):
            c0, c1, c2, c3, c4, c5 = model(data[0])
            loss = criterion(c0, data[1][:, 0]) + \
                    criterion(c1, data[1][:, 1]) + \
                    criterion(c2, data[1][:, 2]) + \
                    criterion(c3, data[1][:, 3]) + \
                    criterion(c4, data[1][:, 4]) + \
                    criterion(c5, data[1][:, 5])
            loss /= 6
            val_loss.append(loss.item())
    return np.mean(val_loss)

4.4 模型保存与加载

在Pytorch中模型的保存和加载:

torch.save(model_object.state_dict(), 'model.pt')
model.load_state_dict(torch.load(' model.pt'))

在参加本次比赛的过程中,按照老师以下的方法进行:

  • 初步构建简单的CNN模型,不用特别复杂,跑通训练、验证和预测的流程;

  • 简单CNN模型的损失会比较大,尝试增加模型复杂度,并观察验证集精度;

  • 在增加模型复杂度的同时增加数据扩增方法,直至验证集精度不变。


    image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,997评论 6 502
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,603评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,359评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,309评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,346评论 6 390
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,258评论 1 300
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,122评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,970评论 0 275
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,403评论 1 313
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,596评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,769评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,464评论 5 344
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,075评论 3 327
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,705评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,848评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,831评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,678评论 2 354