论文阅读“Contrastive Learning-Enhanced Nearest Neighbor Mechanism for Multi-Label Text Classification”

Wang R, Dai X. Contrastive Learning-Enhanced Nearest Neighbor Mechanism for Multi-Label Text Classification[C]//Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers). 2022: 672-679.

摘要导读

多标签文本分类(MLTC,Multi-Label Text Classification)是自然语言处理中的一项基本且具有挑战性的任务。以往的研究主要集中在学习文本表示和建模标签相关性上。然而,在预测特定文本的标签时,这些方法忽略了现有的类似实例中的丰富知识。为了解决这一问题,本文提出了一个k最近邻(kNN)机制,该机制检索几个邻居实例并用它们的标签插值模型输出。此外,本文还设计了一个多标签对比学习目标,使模型了解kNN的分类过程,并提高了在推理过程中检索到的邻居的质量。大量的实验表明,提出的方法可以为多个MLTC模型带来一致的和可观的性能改进,包括最先进的预训练和非预训练模型。

模型浅析

如图所示,本文为MLTC设计了一个k个最近邻机制(步骤2,3),并通过使用多标签对比学习目标训练模型(步骤1)对其进行增强。总体思路是通过设计一个多标签对比学习的目标函数来辅助KNN的选取。

  • 问题形式化
    给定多标签分类任务数据集D=\{(x_i, y_i)\}_{i=1}^Nx_i是待分类的文本,y_i是对应的multi-hot标签向量。其目标是学习到x_iy_i的映射关系。

  • nearest neighbor MLTC
    本文的主要思路是在标签的推断阶段充分利用现有样本的相似表示,主要对应于(2)(3)两个步骤,其中(2)用于构建训练样本的存储,(3)在此基础上进行KNN预测。
    Datastore Construction - 首先产生对应的文本表示h_i = f(x_i),生成对应的offline datastore:

    Prediction - 给定文本x,文本表示f(x),以及对应模型预测为\hat{y}_{Mo} \in \{p|p\in[0,1]\}^L。利用f(x)作为query在datastoreD'中找到k个近邻样本
    以此给出对应kNN的标签预测:
    最终关于x的标签预测表示为\hat{y}=\lambda\hat{y}_{kNN}+(1-\lambda)\hat{y}_{Mo}

  • Multi-label Contrastive Learning
    在MLTC中,模型通常是通过二元交叉熵(BCE)损失的监督学习训练,而没有关注到kNN检索过程。因此,检索到的邻居可能没有与测试实例相似的标签,并且对预测几乎没有帮助。为解决这个问题,本文提出利用多标签对比学习目标来训练模型。
    为了建模多标签实例之间的复杂相关性,本文设计了一个基于标签相似度的动态系数。
    给定batch_size=b,定义了一个函数来输出一个特定实例i的所有其他实例g(i)={k|k \in \{1,\cdots,b\}, k \neq i}。样本对(i, j)对应的对比损失为:

    可以看出来,本对比损失的构建中没有明确的指出样本i的正例样本对,而是由引入的动态系数\beta_{ij}来决定,如果两个样本对应的标签表示的相似度较高,则为正例,若\beta_{ij}较小,则该正例被忽略。
    这里关于C_{ij}的计算其实是在统计样本对(i,j)对应的multi-hot标签中common label的个数,然后进行归一化处理。可能在聚类任务中就直接可以转化为对soft assignments的内积。
    整个batch的损失函数为所有样本对损失函数之和:\mathcal{L}_{con}=\sum_i\sum_{j \in g(i)}\mathcal{L}_{con}^{ij}。根据此损失函数,可以得出,当标签相似度较高时,d(z_i,z_j)会被优化的更近。同时,如果两个样本无共享标签,即\beta_{ij} = C_{ij}=0时,\mathcal{L}^{ij}_{con}=0。其距离d(z_i,z_j)仅会出现在其他项计算的分母中。这样就导致其距离会被优化的越大。

  • Total Loss

    总损失可以表示为:
实验结果

可以看出,对于多标签分类任务,在特征空间检索更多相似的样本辅助标签样本的标签预测是会有效果提升的。而单纯使用基于标签的对比学习甚至会影响分类的性能,这一点。。笔者不太能理解。同时使用kNN+CL使得kNN检索的准确性进一步增强,提升了多标签分类结果。


这种方式在不需要确定正例的情况下,引入标签语义之间的相似性,约束标签空间中相似样本的特征相似度增大,同时不相似样本距离增大。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,616评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,020评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,078评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,040评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,154评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,265评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,298评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,072评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,491评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,795评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,970评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,654评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,272评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,985评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,223评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,815评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,852评论 2 351

推荐阅读更多精彩内容