标签增强技术

LearnFromPapers系列——标签增强技术(Label Enhancement)

<center>作者:郭必扬</center>
<center>时间:2020.12.29</center>

前言:我们习惯于使用one-hot标签来进行模型的训练,但是有没有办法可以构造出更好的标签呢?本文主要根据东南大学的论文“Label Enhancement for Label Distribution Learning”进行解读和整理,从而认识并理解在分类问题中“标签增强”技术。

image.png
  • 论文标题:Label Enhancement for Label Distribution Learning
  • 会议/期刊:IJCAI-18
  • 团队:东南大学 计算机科学与工程学院

标签分布 & 标签分布学习

标签分布学习(Label Distribution Learning,LDL)的任务是让模型去学习一个样本的标签分布(Label Distribution),即每一个维度都反映对应标签程度的一种概率分布。这样的标签概率分布可以比one-hot更好地表示一个样本的情况,原因主要有以下:

  • 一个标签跟样本是否有关,是一个相对的概念,即没有一个“判断是否相关”的绝对标准;
  • 当多个标签都跟样本相关时,它们的相关程度一般也是不同的;
  • 多个跟样本不相关的标签,它们的不相关程度也一般是不同的。

论文作者给出了几个生动的例子:

image.png

然而,LDL任务的主要困难之一就是,标签分布是十分难以获取的。大多数的分类数据集都不具备这样的条件,都只有一些ligical label。所谓logical label,就是指one-hot或者multi-one-hot的label。要获取真实的标签分布,理论上是需要对同一样本进行大量的打标,得到其统计分布的,但这背后的人工成本是无法承受的。

主要思想

一个自然的解决办法就是,既然无法从外部得到样本的标签分布,那就使用样本集自身的特征空间来构造出这样的标签分布。

image.png

本文把这一类的方法称为label Enhancement(LE),并介绍了几种LE的方法,下面分别作简单的介绍。

几种经典的LE方法

1. Fuzzy C-Means(FCM)

Fuzzy C-Means 是一个代表性的“软聚类”算法(soft clustering)。它实际上是对K-Means这种“硬聚类”算法的一种改进。K-means聚类只能将一个点划分到一个簇里,而FCM则可以给出一个点归属于各个簇的概率分布。

FCM的目标函数为:
\underset{C}{\arg \min } \sum_{i=1}^{n} \sum_{j=1}^{c} w_{i j}^{m}\left\|\mathbf{x}_{i}-\mathbf{c}_{j}\right\|^{2}
其中x_i是样本点的特征向量,c_j是簇中心的特征向量,w^m是每个点归属于每个簇的系数,c类别数,n是样本总数。
w^m的计算公式如下,显然离某个簇越近,其系数就越大:
w_{i j}=\frac{1}{\sum_{k=1}^{c}\left(\frac{\left\|\mathbf{x}_{i}-\mathbf{c}_{j}\right\|}{\left\|\mathbf{x}_{i}-\mathbf{c}_{k}\right\|}\right)^{\frac{2}{m-1}}}
而簇中心的计算方法为,就是所有样本点特征的一个加权平均,其中m是超参数,控制fuzzy的程度,越大簇之间就越模糊:
c_{k}=\frac{\sum_{x} w_{k}(x)^{m} x}{\sum_{x} w_{k}(x)^{m}}

通过FCM算法,如果设置k个簇,样本x_i的簇概率分布就是w_i这个c维向量。

然后,构造一个分类类别(classes)与聚类簇(clusters)之间的一个软连接矩阵k×c的矩阵A:
A_j = A_j + w_i
即A的第j行(代表第j个类别),是由所有属于该类别的样本的簇分布累加而得到的。

最后,通过矩阵A与w_i点乘,就可以将每个样本的簇分布(c个簇),转化为标签分布(k个标签)了

上面的过程,可以通过下图来表达:

image.png

2.Label Propagation(LP)

LP的主要思想是通过样本之间的相似度矩阵,来逐步调整原本的logical label representation。

第一步,通过下面的公式,计算N个样本之间的一个N×N的相似性矩阵A:
a_{i j}=\left\{\begin{array}{cl} \exp \left(-\frac{\left\|\boldsymbol{x}_{i}-\boldsymbol{x}_{j}\right\|^{2}}{2}\right) & \text { if } i \neq j \\ 0 & \text { if } i=j \end{array}\right.

然后,根据下面的公式,构建label propagation matrix,即标签传导矩阵P:
\boldsymbol{P}=\hat{\boldsymbol{A}}^{-\frac{1}{2}} \boldsymbol{A} \hat{\boldsymbol{A}}^{-\frac{1}{2}}

看到这个公式,熟悉GCN的人会发现,这不就是拉普拉斯矩阵嘛,目的主要是为了让原本的A矩阵归一化和对称。图神经网络的核心,也是邻居节点之间的互相传播,跟这里的相似样本之间,进行标签信息的传播是类似的思想。

有了这个P传播矩阵,就可以来通过“传播”来构造标签分布D了:
\boldsymbol{D}^{(t)}=\alpha \boldsymbol{P} \boldsymbol{D}^{(t-1)}+(1-\alpha) \boldsymbol{L}
其中L是原本的one-hot的logical label矩阵,D使用L来初始化。

通过不断迭代上式,就可以得到一个趋于稳定的标签分布矩阵D了。

还是照例画一个图:

image.png

3.Mainifold Learning(LM)

除了LP之外,还有一个Mainifold Learning(LM),主要思想就是假设一个样本点的特征,可以完全由其相邻点的特征线性表示。所谓相邻点,就是通过KNN得到的最近邻。
所以第一步就是优化下面的目标:
\Theta(\boldsymbol{W})=\sum_{i=1}^{n}\left\|\boldsymbol{x}_{i}-\sum_{j \neq i} w_{i j} \boldsymbol{x}_{j}\right\|^{2}

学习出相似节点之间的互相表示的方法,即某个点是如何被其他的邻近点所线性表示的。

然后,再去优化这个目标,得到标签分布:
\begin{array}{l} \Psi(\boldsymbol{d})=\sum_{i=1}^{n}\left\|\boldsymbol{d}_{i}-\sum_{j \neq i} w_{i j} \boldsymbol{d}_{j}\right\|^{2} \\ \text { s.t. } \quad d_{\boldsymbol{x}_{i}}^{y_{i}} l_{\boldsymbol{x}_{i}}^{y_{l}}>\lambda, \forall 1 \leq i \leq n, 1 \leq j \leq c \end{array}

以上是三种传统的Label Enhancement方法。虽然传统,但是其思想我觉得我觉得都挺有意思的,由其是FCM和LP方法。

本文提出的新方法:GLLE

GLLE全称为Graph Laplacian Label Enhancement。也是一种基于图的思想的方法。

别看这个名字这么复杂,其实其思想很简单:

在训练标签预测模型的同时,也考虑学习标签间的相似性。

假设我们的预测模型是这样的:
\boldsymbol{d}_{i}=\boldsymbol{W}^{\top} \varphi\left(\boldsymbol{x}_{i}\right)+\boldsymbol{b}=\hat{\boldsymbol{W}} \boldsymbol{\phi}_{i}

这里的d,就是要学习的标签分布,W就是这个预测模型的参数。

根据前面提到的思想,作者设计的目标函数是这样的,由两部分组成
\min _{\hat{\boldsymbol{W}}} L(\hat{\boldsymbol{W}})+\lambda \Omega(\hat{\boldsymbol{W}})

前一个部分,就是一个普通的MSE损失函数或最小二乘损失:
L(\hat{\boldsymbol{W}})=\sum_{i=1}^{n}\left\|\hat{\boldsymbol{W}} \boldsymbol{\phi}_{i}-\boldsymbol{l}_{i}\right\|^{2}
如果只优化这个目标,那么得到的就是一个倾向于one-hot/logical label的预测模型。

第二部分,希望相似的样本其分布也相似
\Omega(\hat{\boldsymbol{W}})=\sum_{i, j} a_{i j}\left\|\boldsymbol{d}_{i}-\boldsymbol{d}_{j}\right\|^{2}
其中这里的a是表达样本i和j之间的相似系数,公式如下:
a_{i j}=\left\{\begin{array}{cc} \exp \left(-\frac{\left\|\boldsymbol{x}_{i}-\boldsymbol{x}_{j}\right\|^{2}}{2 \sigma^{2}}\right) & \text { if } \boldsymbol{x}_{j} \in N(i) \\ 0 & \text { otherwise } \end{array}\right.

可以发现,这里计算相似性的方法,跟Label Propagation十分相似,只是多了一个“仅在最近邻范围内计算相似度”这样的限制,因此作者称之为“local similarity matrix”。

后面作者当然扯了一大堆这个目标怎么求解这个优化问题巴拉巴拉,我是不太懂的,感觉是可以使用梯度下降法来求的。

总之,可以看出这是一个有两个目标的优化问题,通过一个λ参数控制二者的比例,同时优化两个方面,虽然两个方向上都不会最优,但是可以兼顾两个方面的效果,即最后得到的label distribution(LD)既逼近logical label,同时相似样本之间的LD也是类似的。

各个方法结果对比:

作者主要使用了两种方法进行效果对比:

  • 从logical label恢复到原本的label distribution的水平
  • 利用得到的label distribution来训练LDL模型看预测效果

对于恢复效果,有一个自制三维数据集的可视化:

image.png

可以看出,GLLE和LP都比较接近ground truth了。

另外在其他数据集上,作者通过计算相似度来衡量使用各个LE方法来进行模型训练的效果:

image.png

还有一个平均排名:

image.png

看完了这些实验结果,我最大的感觉就是:

LP这个方法真好的!又简单,效果又好!(基本比复杂的GLLE差不了多少,而且GLLE这个λ调参估计挺麻烦的)
但是GLLE的方法,其实也给了我们很多启发,毕竟相比于LP这种无监督的方法,有监督的方法肯定灵活性更强,所以取得效果的提示也是很正常的。


©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,185评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,445评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,684评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,564评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,681评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,874评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,025评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,761评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,217评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,545评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,694评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,351评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,988评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,778评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,007评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,427评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,580评论 2 349

推荐阅读更多精彩内容