【深度学习实践】补充02. Label Smoothing

出自论文:Rethinking the Inception Architecture for Computer Vision

深度学习中,分类问题在输出层通常会使用 Softmax 函数进行输出值的规范化,将输出值缩放到概率分布区间(输出和为1且大小关系不变)。Softmax 函数如下:
\hat{y}_j = \frac{\exp(o_j)}{\sum_k \exp(o_k)}

以 e 为底的指数函数图像如下:


通过分析函数图像可知,函数恒大于0 ,随着 x 的增大,函数趋近于正无穷。

分类的损失函数则使用交叉熵损失函数,如下所示:
l (\mathbf{y}, \hat{\mathbf{y}}) = - \sum_{j=1}^q y_j \log \hat{y}_j

标签使用独热编码表示:y \in \{(1, 0, 0), (0, 1, 0), (0, 0, 1) \}。所以每次只有一个标签分量为1,其他都为0,其他分量乘上0都会被低效。所以,对于某一个样本,损失值为:
l (\mathbf{y}, \hat{\mathbf{y}}) = - \log \hat{y}

为了使的损失值尽可能的小,则 \hat{y} 的值需要趋近于1,也就是说,\hat{y}_j = \frac{\exp(o_j)}{\sum_k \exp(o_k)} 趋近于 1,通过 o 的关系以及指数函数不难得知,当 o_j 趋近于正无穷时,才能使得 softmax 值趋近于1,而模型就是向着这个目标不停得反向传播降低损失,更新参数。这种极端的方法极有可能造成模型过拟合。

Label Smoothing

Label Smoothing 可以解决上述问题,这是一种正则化策略,主要是通过soft one-hot(软独热编码)来加入噪声,减少了真实样本标签的类别在计算损失函数时的权重,最终起到抑制过拟合的效果。


Label Smoothing

K 是待分类别的数目,\varepsilon 是一个超参数,通常为一个小值。模型通过抑制正负样本输出差值,使得网络有更强的泛化能力。

实际场景中,不同类别之间并不是完全对立,也许A类别是狸猫,B类别是东北虎,并不是如独热编码一样一个1其他零,适当的 Label Smoothing 也许更贴合场景。

我们通过一段代码来展示 Label Smoothing
的抗过拟合能力:

import numpy as np
import torch
from torchvision import datasets, transforms
from torch.utils.data import DataLoader, Subset
import torch.nn.functional as F
from torch import nn
import time

device = torch.device('cuda:0')

trans = transforms.ToTensor()

train_set = datasets.FashionMNIST(
    root="./data/", train=True, transform=trans, download=True)
test_set = datasets.FashionMNIST(
    root="./data/", train=False, transform=trans, download=True)

class Mnist_CNN(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(1, 16, kernel_size=3, stride=2, padding=1)
        self.conv2 = nn.Conv2d(16, 16, kernel_size=3, stride=2, padding=1)
        self.conv3 = nn.Conv2d(16, 32, kernel_size=3, stride=2, padding=1)

    def forward(self, xb):
        xb = xb.view(-1, 1, 28, 28)
        xb = F.relu(self.conv1(xb))
        xb = F.relu(self.conv2(xb))
        xb = F.relu(self.conv3(xb))
        xb = F.avg_pool2d(xb, 4)
        return xb.view(-1, xb.size(1))

def loss_batch(model, loss_func, xb, yb, opt=None):
    loss = loss_func(model(xb), yb)

    if opt is not None:
        loss.backward()
        opt.step()
        opt.zero_grad()

    return loss.item(), len(xb)

def fit(epochs, model, loss_func, opt, train_dl, valid_dl, results, label_smooth):
    for epoch in range(epochs):
        model.train()
        for xb, yb in train_dl:
            xb = xb.to(device)
            yb = yb.to(device)
            loss_batch(model, loss_func, xb, yb, opt)

        model.eval()
        with torch.no_grad():
            losses, nums = zip(
                *[loss_batch(model, loss_func, xb.to(device), yb.to(device)) for xb, yb in valid_dl]
            )
        val_loss = np.sum(np.multiply(losses, nums)) / np.sum(nums)

        print(epoch, val_loss)
        results[label_smooth].append(val_loss)

batch_size = 32 # 
epochs = 200
results = {}
label_smooths = [0.0, 0.05, 0.1]

train_set = Subset(train_set, np.arange(0, len(train_set), 10))
test_set = Subset(test_set, np.arange(0, len(train_set), 10))

train_dl = DataLoader(train_set, batch_size=batch_size, shuffle=True, num_workers=8, prefetch_factor=32)
valid_dl = DataLoader(test_set, batch_size=batch_size, shuffle=False, num_workers=8, prefetch_factor=32)

for label_smooth in label_smooths:
    start = time.perf_counter()
    model = Mnist_CNN().to(device)
    loss = nn.CrossEntropyLoss(label_smoothing=label_smooth)
    optim = torch.optim.SGD(model.parameters(), lr=1e-3, momentum=0.9)

    results[label_smooth] = []
    fit(epochs, model, loss, optim, train_dl, valid_dl, results, label_smooth)
    results[label_smooth].append(time.perf_counter()-start)

import matplotlib.pyplot as plt

x = range(1, epochs + 1)

fig, ax = plt.subplots()
for item in results:
    ax.plot(list(x), results[item][:-1], label=str(item))

ax.set_xlabel('epochs') #设置x轴名称 x label
ax.set_ylabel('val loss') #设置y轴名称 y label
ax.set_title('different Batch Size') #设置图名为Simple Plot
ax.legend() #自动检测要在图例中显示的元素,并且显示

plt.show()
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,080评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,422评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,630评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,554评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,662评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,856评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,014评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,752评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,212评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,541评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,687评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,347评论 4 331
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,973评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,777评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,006评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,406评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,576评论 2 349

推荐阅读更多精彩内容