模型增强(2) 从label下手

更好的阅读体验请跳转至模型增强(2) 从label下手

上篇Knowledge Distillation (2): distilling knowledge of bert中我们提到,模型压缩时一个很重要的知识是soft labels,
并且提出了一种简单的方式:自蒸馏(self-distillation),而从label 的角度来看,可以看作是一种label augmentation,即构造了一个新的label,为模型新增了一个任务,通过新任务的学习,来提高模型对原来任务的性能。本文就label augmentation 继续脑洞。

构造新label

构造新label,其实本质上是构造一个与当前任务相关的新的任务,而对应的label则是通过当前样本通过某种方式获得,获得的label至少要比随机好,否则只会帮倒忙。

自监督

构造新label,我们可以借鉴自监督的方式,如Mask Language Model,AutoRegressive,而BERT中已使用来MLM,UniLM中也告诉我们增加Seq2Seq的AR 任务对NLU任务提高不显著,不过今年的论文Don't Stop Pretraining: Adapt Language Models to Domains and Tasks 实验证明了进一步预训练是能进一步提升下游任务的性能。而当前任务是文本分类,MLM也许不是很合适,所以Seq2Seq 的方式可以尝试。
具体的,我们让模型学习目标类别的同时,希望模型能同时生成样本的描述字段(或者人为给定的某种相关性短语),即利用类别对应描述字段构造一个seq2seq任务。

相似性

对于同一个类别的样本,他们必然有某种相似性,至少比与其他类别的样本更相似。而何如构造样本呢?
一种简单的方式是对每个样本都从类当中抽取一个样本与他组成一对,然后让每个<code>i</code>样本与<code>i+1</code>样本相似。这种方式由于每次样本都是shuffle 的,只要让batch size 小于label number,一个batch 内同时出现多个同一类别的样本概率就会很小。
既然在构造seq2seq任务时,我们使用来label对应的描述,此时我们也可以继续尝试使用:每个样本构造一个新的样本,新样本由label对应描述与label id组成。

实验结果

两组实验结果如下:

\begin{array}{c|c|c} \hline \\ \text{seq2seq} & \text{similarity} \\ \hline \\ 59.91\% & 56.9\% \end{array}

可以看到,对于构造seq2seq 任务,其结果与直接fine-tuning 结果基本一致,这也符合预期。而构造相似性任务,其结果直接fine-tuning 结果相比反而更差了。原因可能是样本不均衡,所以同一batch 内有较高概率出现同一类别的样本,同时通过让样本与同一样本相似来间接相似,这种方式可能有些曲折了,不过最根本的原因应该还是batch 内同一类别样本的出现干扰了学习。
具体实验代码可以查阅classification_ifytek_auxiliary_seq2seq_taskclassification_ifytek_with_similarity

总结

本文只是由于之前实验想到的尝试对label 做增强来实现模型增强的尝试,最后两组实验都没取得什么好的结果。这也符合论文How to Fine-Tune BERT for Text Classification?给出的结论。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容