论文标题:Smoothed Adaptive Weighting for Imbalanced Semi-Supervised Learning: Improve Reliability Against Unknown Distribution Data
论文链接:https://proceedings.mlr.press/v162/lai22b/lai22b.pdf
代码链接:https://github.com/ZJUJeffLai/SAW_SSL
论文来源:ICML2022
作者单位:University of California Davis; Southern University of Science and Technology; University of Kentucky
摘要
在目前类不平衡的半监督学习研究中,往往假设无标注数据的类别分布与有标注数据的类别分布一致。然而在现实中无标注数据的类别分布往往是未知的。本文提出了一个针对一致性损失的自适应权重调整算法,命名为Smoothed Adaptive Weighting (SAW),来增强半监督学习框架的鲁棒性。
模型框架
先验知识
半监督学习的范式一般是通过最小化有标注数据和无标注数据的联合损失:
其中是每个无标注样本的正则化项,通常指的是一致性损失(consistency loss):
其中代表不同的增强方式(对抗扰动、fixmatch中的强增强等等)。在本文,我们仅考虑
的情况。
深入挖掘一致性损失
在本节,我们定义如下加权的一致性损失(无标注样本对扰动所输出的结果一致):
其中是第
个类的权重。在完全监督学习中,此权重和每个类别的样本数量相关。然而在半监督学习中,无标注样本的类别未知。本文研究首先假设有标注数据和无标注数据类别分布一致,即
,然后再研究有标注数据和无标注数据类别分布不一致的情况。

首先是类别分布一致的情况,本文根据有标注数据类别的数量,设置成相反比例的权重:
其中是超参数,
代表相同的权重,
,
代表完全和类别数量成反比。如下图可见,这两种情况均产生了不理想的效果,然而平滑的(smoothed)权重却产生了较好效果,这个结果暗示了在一致性损失中添加更加平滑的权重的重要性。

本文还采用了另一种平滑的函数:
其中是控制平滑程度的超参数,下图展示了其不同取值的表现:

针对未知分布数据的平滑自适应权重
在现实世界中,有标注数据和无标注数据类别分布往往不一致,无标注数据的类别分布不可知。本节提出根据各类别学习难度来生成一致性损失中的权重,这种方法不依赖对无标注数据的任何假设。
在Flexmatch中,作者提出对某一类的学习效果可以由预测为这个类别的样本数量反映出来。本文继承了这个观点,认为伪标签的数量能够反映出各类别在训练中的学习情况。本文将少数类视为难学习类,利用某类伪标签的数量来衡量模型对此类学习的难易度。更少的伪标签意味着更难学习的类。
本文希望根据估计的各类学习难度减少伪标签的偏置误差。通过自适应地调整一致性损失的权重,鼓励模型关注于难学类别。对于总损失:
其中由有标注数据的类别分布确定,
初始化为uniform。在第一个epoch训练完成后,利用更新后的模型生成one-hot的伪标签
,计算所有伪标签的类别分布
。随后利用前文介绍的平滑性函数
确定各类的权重项。为了避免
的情况,本文调整
为
。整体算法框架如下图:

实验
CIFAR10-LT(有标注数据和无标注数据类别分布一致):

CIFAR10-LT(有标注数据和无标注数据类别分布不一致):

CIFAR100-LT和STL-10(有标注数据和无标注数据类别分布一致):

CIFAR10-LT(有标注数据和无标注数据类别分布一致),测试集是reversed的类别分布:
