用于语义分割的半监督自训练的最新工作(2020.12.7)

用于语义分割的三阶段半监督自训练

https://arxiv.org/pdf/2012.00827.pdf

语义分割在社区中得到了广泛的研究,其中最先进的技术是基于监督模型的。这些模型报告了前所未有的性能,代价是需要大量高质量的分割掩模。获取这样的注释是非常昂贵和耗时的,特别是在需要像素级注释的语义分割中。在这项工作中,我们提出一个整体解决方案,架构为一个三阶段的自训练架构,用于半监督语义分割。该技术的核心思想是提取伪掩模统计信息,以减少预测概率的不确定性,同时以多任务的方式增强分割的一致性。我们通过三阶段解决方案实现这一目标。首先,我们训练一个分割网络来产生预测概率高度不确定的粗糙伪面具。其次,我们使用一个多任务模型来降低伪掩码的不确定性,该模型在利用数据丰富的统计信息的同时加强了一致性。我们将我们的方法与现有的半监督语义分割方法进行了比较,并通过大量的实验证明了它的最新性能。


用自训练来改进语义分割

https://arxiv.org/abs/2004.14960v2

深入学习通常在完全监督下达到最佳效果。在语义分割的情况下,这意味着需要大量的像素注释来学习精确的模型。在这篇论文中,我们展示了我们可以使用半监督的方法,特别是自我训练范式来获得最新的结果。我们首先在有标签的数据上训练一个教师模型,然后在大量未标记的数据上生成伪标签。我们强大的训练框架可以同时消化人工标注和伪标签,并在城市景观、CamVid和KITTI数据集上取得最佳性能,同时需要的监督要少得多。我们还证明了自训练在具有挑战性的跨域泛化任务中的有效性,比传统的精细调整方法有很大的提高。最后,为了减轻由大量伪标签所造成的计算负担,我们提出了一种快速的训练计划,在不降低性能的情况下,将分割模型的训练速度提高2倍。

Semi-Supervised Semantic Segmentation via Dynamic Self-Training and Class-Balanced Curriculum

https://arxiv.org/abs/2004.08514

本文提出了一种新颖简洁的半监督语义分割方法。这项任务的主要挑战在于如何有效和彻底地利用未标记的数据。以前的最新方法是通过基于GAN的自训练或一致性正则化来利用未标记的数据。然而,这些方法要么存在噪声的自我监督和类不平衡,导致未标记数据的利用率较低,要么没有考虑到自训练和一致性正则化之间的明显联系。我们提出的动态自训练与班级平衡课程(DST-CBC)方法,利用模型间的不一致性,通过预测置信度来构造一个对伪标签噪声具有鲁棒性的动态损失,从而将伪标记扩展到班级均衡课程学习过程中。我们进一步证明了我们的方法隐含地包含了一致性正则化。因此,DST-CBC不仅可以有效地利用未标记的数据,而且可以充分利用所有未标记的数据。在不使用对抗性训练或对网络结构进行任何修改的情况下,DST-CBC在不同数据集上的所有标记比率上都优于现有方法,使半监督学习更接近于完全监督学习的语义分割性能。我们的代码和数据拆分可从以下网址获得:https://github.com/voldemortX/DST-CBC.


Mumford-Shah Loss Functional for Image Segmentation with Deep Learning

https://arxiv.org/abs/1904.02872

目前最新的图像分割算法大多是基于深度神经网络的图像分割算法,其性能高、计算速度快。然而,这些方法通常是在有监督的情况下训练的,这就需要大量高质量的地面真值分割掩模。另一方面,经典的图像分割方法(如levelset方法)是通过最小化Mumford-Shah函数等能量函数以自监督的方式制定的,因此它们仍然有助于无标签分割掩模的生成。不幸的是,这些算法通常计算量大,并且在语义分割方面往往有局限性。本文基于Mumford-Shah函数提出了一种新的损失函数,该函数可用于无标记数据或有小标记数据的深度学习图像分割。这个损失函数是基于对深层神经网络的softmax层与Mumford-Shah函数中的特征函数有着惊人的相似性的观察。我们证明了新的损失函数可以实现半监督和无监督分割。另外,我们的损失函数也可以作为一个正则化函数来增强有监督的语义分割算法。在多个数据集上的实验结果证明了该方法的有效性。


Semi-Supervised Semantic Image Segmentation with Self-correcting Networks

https://arxiv.org/abs/1811.07073

对于高质量的图像分割来说,建立大规模的语义掩模是非常耗时的。在本文中,我们介绍了一个原则性的半监督框架,它只使用一小组完全监督的图像(具有语义分割标签和框标签)和一组仅具有对象边界框标签的图像(我们称之为弱集)。我们的框架通过辅助模型训练主分割模型,辅助模型为弱集生成初始分割标签,以及一个自校正模块,在训练过程中使用越来越精确的主模型改进生成的标签。我们介绍了两种使用线性或卷积函数的自校正模块。在PASCAL VOC 2012和Cityscape数据集上的实验表明,我们使用小的全监督集训练的模型的性能与用大的全监督集训练的模型性能相似或更好,同时所需的注释工作量减少了约7倍。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,377评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,390评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,967评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,344评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,441评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,492评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,497评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,274评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,732评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,008评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,184评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,837评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,520评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,156评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,407评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,056评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,074评论 2 352

推荐阅读更多精彩内容