基于对比的分类

分类的经典方法

  深度学习最原始的,也是入门深度学习最开始做的任务之一,就是分类,最经典的分类方法,就是为每个标签计算一个logits,然后使用softmax for cross entropy去计算交叉熵,然后通过反向传播更新网络参数,使loss不断降低来达到分类的目的。
softmax for cross entropy的详细公式如下:

对于图像分类,常用的网络结构使VGG,resnet等,对于文本分类,常用的是RNN、Transformer等网络结构。

经典分类方法的问题

  经典分类方法的优势就是其原理比较符合直觉,易于理解,但也存在一些问题,其中一个问题就是其分类类别数量是固定死的,例如经典的ImageNet分类任务,其类别数量就是固定的1000个类别,如果想要用在ImageNet上训练好的模型去给不在这1000个类别中的类做分类判断,最终的结果也只能落在这1000个类中的一个,不可能向外泛华到不存在在这1000个类的类别之中,那么有没有别的方法可以解决这个问题呢?

CLIP

CLIP是一种基于对比学习的文本、图像对匹配的方法,其原理图如下所示,
  [图片上传失败...(image-f0a242-1690804176478)]


CLIP会将一个batch里的图片和文本分别提取特征,图片和文本的特征维度相同,然后对两个batch里的图片特征和文本特征作内积,这样得到的矩阵只有对角线上的文本和图片是匹配的,以此来计算交叉熵,具体的代码如下。

def get_logits(text1_features, text2_features, logit_scale):
    #  计算image_features @ text_features.T相似度矩阵
    logits_per_text1 = logit_scale * text1_features @ text2_features.T
    logits_per_text2 = logit_scale * text2_features @ text1_features.T
    return logits_per_text1, logits_per_text2

 def cal_clip_loss(text1_features, text2_features, logit_scale):
    device = text1_features.device
    logits_per_text1, logits_per_text2 = get_logits(text1_features, text2_features, logit_scale)
    labels = torch.arange(logits_per_text1.shape[0], device=device, dtype=torch.long)
    total_loss = (
        F.cross_entropy(logits_per_text1, labels) +
        F.cross_entropy(logits_per_text2, labels)
    ) / 2
    score = torch.mean(torch.diagonal(cos_sim(text1_features, text2_features)))
    return total_loss, score

  CLIP官方并没有开源其训练代码,这里分析一下如果按照上述代码训练,需要注意什么问题。
  根据图示以及代码,在计算loss的时候,只有对角线上的元素会被当做正样本,非对角线上的元素全部会用来作为负样本,这样便要求一个batch里面的数据,除了自身成对之外,与batch内的其他数据不能匹配,而且要越不匹配越好,否则,就会出现正样本当做负样本来计算loss,会造成模型训练的不稳定。
  当然,我们知道CLIP的训练数据量超级大,即便是存在上述所描述的情况,也是少数的,可以当做数据集里存在噪声,但我们自己在训练的时候,尤其是训练分类任务的时候,由于样本标签比较少,上述描述的情况出现的概率就比较大了,这时就需要注意如何避免这种问题了。

基于对比损失分类

  所谓对比损失的分类方法,其前提假设就是标签虽然字符数量并不多,但是仍然是存在语义的,其训练方法就是借鉴了CLIP的方法,只不需要将文本对应的编码器改为标签对应的编码器,因为标签一般字符很少,用一个较小的BERT去编码就可以,这样训练得到的分类模型,不需要受制于标签个数的影响,只不过泛化到已有标签以外的效果如何,则数据、算法、标签三者如何取,就是一个比较吃经验的问题了。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,033评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,725评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,473评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,846评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,848评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,691评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,053评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,700评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,856评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,676评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,787评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,430评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,034评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,218评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,174评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,526评论 2 343

推荐阅读更多精彩内容