缓解多分类的样本不均衡问题

利用深度学习做多分类在工业或是在科研环境中都是常见的任务。在科研环境下,无论是NLP、CV或是TTS系列任务,数据都是丰富且干净的。而在现实的工业环境中,数据问题常常成为困扰从业者的一大难题;常见的数据问题包含有:

  • 数据样本量少
  • 数据缺乏标注
  • 数据不干净,存在大量的扰动
  • 数据的类间样本数量分布不均衡等等。

除此之外,还存在其他的问题,本文不逐一列举。针对上述第4个问题,2020年7月google发表论文《 Long-Tail Learning via Logit Adjustment 》 通过 BER ( Balanced Error Rate ) 对交叉熵函数的相关推理,在原有的交叉熵的基础上进行改造,使得平均分类精度更高。本文将简要解读该论文的核心推论,并使用 keras 深度学习框架进行实现,最后通过简单的Mnist手写数字分类的实验验证结果。本文将从以下四个方面进行解读:

  • 基本概念
  • 核心推论
  • 代码实现
  • 实验结果

1. 基本概念

基于深度学习的多分类问题中,想要获得更优的分类效果往往需要对数据、神经网络的结构参数、损失函数以及训练参数做出调整;尤其是在面对类别不均衡的数据时,做出的调整更多。在论文《 Long-Tail Learning via Logit Adjustment 》中,为了缓解类别不均衡造成的低样本类别分类准确率低的问题,只向损失函数中加入了标签的先验知识便获得了SOTA效果。因此,本文针对其核心推论,首先简要阐述四个基本概念:(1)长尾分布(2)softmax(3)交叉熵(4)BER

1.1 长尾分布

如果将所有类别的训练数据按照每类的样本量进行从高到低的排序,并将排序结果表现在图形上,那么类别不均衡的训练数据将会呈现出 “头部” 和 “尾部” 的分布形式,如下图所示:

样本量多的类别形成 “头部” ,样本量低的类别形成 “尾部” ,类别不均衡问题很显著。

1.2 softmax

softmax 由于其归一化的功能以及易于求导的特点,常在二分类或多分类问题中作为神经网络最后一层的激活函数,用于表达神经网络的预测输出。本文对softmax 不多做赘述,只给出其一般化的公式:

q\left(c_{j}\right)=\frac{e^{z_{j}}}{\sum_{i=1}^{n} e^{z_{i}}}

在神经网络中,z_{j}是上一层的输出;q\left(c_{j}\right)是本层输出的分布形式;\sum_{i=1}^{n} e^{z_{i}}是一个 batch内e^{z_{i}}的和。

1.3 交叉熵

本文对交叉熵函数不做过多推论,详情可查阅信息论的相关文献。二分类或多分类问题中,通常以交叉熵函数及其变体作为损失函数进行优化,给出基本公式:

H(p, q)=-\sum_{i} p\left(c_{i}\right) \log q\left(c_{i}\right)

在神经网络中,p\left(c_{i}\right)是期望的样本分布,通常是one-hot编码后的标签;q\left(c_{i}\right)是神经网络的输出,可视作神经网络对样本的预测结果。

1.4 BER

BER 在二分类中为正例样本和负例样本中各自预测错误率的均值;在多分类问题中为各类样本各自错误率的加权和,可以表示为以下形式(参照论文):

\operatorname{BER}(f) \doteq \frac{1}{L} \sum_{y \in[L]} \mathbb{P}_{x \mid y}\left(y \notin \operatorname{argmax}_{y^{\prime} \in y} f_{y^{\prime}}(x)\right)

其中,f是整个神经网络;f_{y^{\prime}}(x)表示输入为x,输出为y^{\prime}的神经网络;y \notin \operatorname{argmax}_{y^{\prime} \in y} f_{y^{\prime}}(x)表示被神经网络错误识别的标签y\mathbb{P}_{x \mid y}即为错误率的计算形式;\frac{1}{L}为各类权重。

2. 核心推论

按照论文思路,首先确定一个神经网络模型:

f^{*} \in \operatorname{argmin}_{f:} x \rightarrow \mathbb{R}^{L} \text { BER }(f)

f^{*}为满足BER条件的一个神经网络模型。接着优化这一神经网络模型\operatorname{argmax}_{y \in[L]} f_{y}^{*}(x),这一过程等价于\operatorname{argmax}_{y \in[L]} \mathbb{P}^{\mathrm{bal}}(y \mid x),即给定训练数据x得到预测标签y,并将预测标签y均衡化(乘上各自权重)的优化过程。简写为:

\operatorname{argmax}_{y \in[L]} f_{y}^{*}(x)=\operatorname{argmax}_{y \in[L]} \mathbb{P}^{\mathrm{bal}}(y \mid x)=\operatorname{argmax}_{y \in[L]} \mathbb{P}(x \mid y)

对于\mathbb{P}^{\text {bal }}(y \mid x),显然\mathbb{P}^{\text {bal }}(y \mid x) \propto \mathbb{P}(y \mid x) / \mathbb{P}(y),其中\mathbb{P}(y)是标签先验;\mathbb{P}(y \mid x)是给定训练数据x之后的预测标签的条件概率。结合多分类神经网络中训练的实质:

依照上述过程,假设将网络输出logits记为s*:s^{*}: x \rightarrow \mathbb{R}^{L},由于s^{*}需要通过 softmax 激活层,即q\left(c_{i}\right)=\frac{e^{s^{*}}}{\sum_{i=1}^{n} e^{s^{*}}};因此不难得出:\mathbb{P}(y \mid x) \propto \exp \left(s_{y}^{*}(x)\right)。再结合\mathbb{P}^{\text {bal }}(y \mid x) \propto \mathbb{P}(y \mid x) / \mathbb{P}(y),可以将\mathbb{P}^{\text {bal }}(y \mid x)表示为:

\operatorname{argmax}_{y \in[L]} \mathbb{P}^{\text {bal }}(y \mid x)=\operatorname{argmax}_{y \in[L]} \exp \left(s_{y}^{*}(x)\right) / \mathbb{P}(y)=\operatorname{argmax}_{y \in[L]} s_{y}^{*}(x)-\ln \mathbb{P}(y)

参照上式,论文中给出了优化\mathbb{P}^{\text {bal }}(y \mid x)的两种实现方式:

(1) 通过 \operatorname{argmax}_{y \in[L]} \exp \left(s_{y}^{*}(x)\right) / \mathbb{P}(y) ,在输入 x通过所有神经网络层得到预测predict后,除以一个先验\mathbb{P}(y)。这种方法前人已经用过了,并且取得了一定的效果。

(2)通过 \operatorname{argmax}_{y \in[L]} s_{y}^{*}(x)-\ln \mathbb{P}(y) ,在输入 x通过神经网络层得到一个编码logits后减去一个\ln \mathbb{P}(y)。论文采用的是这一种思路。

依照第二条思路,论文直接给出了一个一般化的式子,称之为logit adjustment loss:

\ell(y, f(x))=-\log \frac{e^{f_{y}(x)+\tau \cdot \log \pi_{y}}}{\sum_{y^{\prime} \in[L]} e^{f_{y^{\prime}}(x)+\tau \cdot \log \pi_{y^{\prime}}}}=\log \left[1+\sum_{y^{\prime} \neq y}\left(\frac{\pi_{y^{\prime}}}{\pi_{y}}\right)^{\tau} \cdot e^{\left(f_{y^{\prime}}(x)-f_{y}(x)\right)}\right]

对比常规的softmax交叉熵:

\ell(y, f(x))=\log \left[\sum_{y^{\prime} \in[L]} e^{f_{y^{\prime}}(x)}\right]-f_{y}(x)=\log \left[1+\sum_{y^{\prime} \neq y} e^{f_{y^{\prime}}(x)-f_{y}(x)}\right]

本质上是将一个与标签先验有关的偏移量应用到了每一个对数输出中(即经过softmax激活之前的结果)。

3. 代码实现

实现的思想在于:对神经网络的输出logits加上一个基于先验的偏移\log \left(\frac{\pi_{y^{\prime}}}{\pi_{y}}\right)^{\tau}。在实际中,为了在尽量有效的前提下简便实现,取调节因子 \tau=1,\pi_{y^{\prime}}=1。则logit adjustment loss简化为:

\ell(y, f(x))=-\log \frac{e^{f_{y}(x)+\tau \cdot \log \pi_{y}}}{\sum_{y^{\prime} \in[L]} e^{f_{y^{\prime}}(x)+\tau \cdot \log \pi_{y^{\prime}}}}=\log \left[1+\sum_{y^{\prime} \neq y} e^{\left(f_{y^{\prime}}(x)-f_{y}(x)-\log \pi_{y}\right)}\right]

在keras框架下实现如下:

import keras.backend as K

def CE_with_prior(one_hot_label, logits, prior, tau=1.0):
    '''
    param: one_hot_label
    param: logits
    param: prior: real data distribution obtained by statistics
    param: tau: regulator, default is 1
    return: loss
    '''   
    log_prior = K.constant(np.log(prior + 1e-8))

    # align dim 
    for _ in range(K.ndim(logits) - 1):     
        log_prior = K.expand_dims(log_prior, 0)

    logits = logits + tau * log_prior
    loss = K.categorical_crossentropy(one_hot_label, logits, from_logits=True)

    return loss

4. 实验结果

论文《 Long-Tail Learning via Logit Adjustment 》本身对比了多种提升长尾分布分类精度方法,并使用了不同的数据集进行测试,测试表现优于现有的方法,详细的实验结果参照论文本身。本文为了快速验证实现的正确性,以及该方法的有效性,使用mnist手写数字进行了简单的分类实验。实验背景如下:

\ 详情
训练样本 0 ~ 4:5000张/类;5 ~ 9 :500张/类
测试样本 0 ~ 9:500/类
运行环境 本地CPU
网络结构 卷积+最大池化+全连接

在上述背景下进行对比实验,对比标准的多分类交叉熵和带先验的交叉熵分别作为loss函数下,分类网络的表现。取相同的epoch=60,实验结果如下:

\ 标准多分类交叉熵 带先验的交叉熵
准确率 0.9578 0.9720
训练流程图

我们是行者AI,我们在“AI+游戏”中不断前行。

如果你也对游戏感兴趣,对AI充满好奇,就快来加入我们吧~

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,258评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,335评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,225评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,126评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,140评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,098评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,018评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,857评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,298评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,518评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,678评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,400评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,993评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,638评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,801评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,661评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,558评论 2 352