【论文阅读】Domain Adaptation & Domain Generalization (持续更新中)

Domain Generalization是Domain Adaptation的一种特殊问题,在DA的基础上,DG的目的为对于任意不可见的目标域都有很强的鲁棒性。

Domain Adaptation

Moment Matching for Multi-Source Domain Adaptation


多个源域,一个目标域。
code and data

方法分为三部分:

  • Feature Extractor共享权重,将不同源域的数据映射到同一个特征空间
  • Moment Matching Component试图将不同源域的特征分布拉到一起
  • Classifier融合多个源域的分类器加权输出

各源域 \mathcal{D}_{S} 及目标域 \mathcal{D}_{T} 之间的Momment距离定义为源域与目标域的距离及各源域之间的距离。公式如下:

\begin{aligned} M D^{2}(\mathcal{D}_{S}, \mathcal{D}_{T})=\sum_{k=1}^{2}\left(\frac{1}{N} \sum_{i=1}^{N}||\mathbb{E}(\mathbf{X}_{i}^{k})-\mathbb{E}(\mathbf{X}_{T}^{k})||_2 +(\begin{array}{c}{N}\\{2}\end{array})^{-1}\sum_{i=1}^{N-1} \sum_{j=i+1}^{N}\left\|\mathbb{E}(\mathbf{X}_{i}^{k})-\mathbb{E}(\mathbf{X}_{j}^{k})\right\|_2\right) \end{aligned}

目标函数表示为 N 个源域的分类损失加上前述 M D^{2}(\mathcal{D}_{S}, \mathcal{D}_{T})
\min _{G, \mathcal{C}} \sum_{i=1}^{N} \mathcal{L}_{\mathcal{D}_{i}}+\lambda \min _{G} M D^{2}\left(\mathcal{D}_{S}, \mathcal{D}_{T}\right)


S-T的对齐比较有效。

Semi-Supervised Learning by Augmented Distribution Alignment


这是一篇ICCV2019的论文。
实际中,标注数据和非标注数据往往存在数量级的差距,标注数据的分布和非标注数据差距(可认为是真实分布)也很大。本文通过对抗学习拉齐标注数据和非标注数据的分布,此外参考mixup方法利用非标注数据尝试解决标注数据较少的问题。

如下,是本文的loss公式,公式分为两部分, 第一部分表示分类任务,第二部分表示对抗学习。
\min _{f, g, h} \sum_{\tilde{\mathbf{x}}} \ell(f(g(\tilde{\mathbf{x}})), \tilde{y})+\gamma \ell(h(g(\tilde{\mathbf{x}})), \tilde{z})

具体地,对抗损失如下, h 为样本属于标注样本 \mathcal{D}_l 还是非标注样本 \mathcal{D}_u 的分类函数。通过对抗学习,可以将标注样本和非标注样本的特征 g 拉到同一空间。
\min _{g} d_{\mathcal{H}}\left(\mathcal{D}_{l}, \mathcal{D}_{u}\right)=\max _{g} \min _{h \in \mathcal{H}}\left[\operatorname{err}\left(h, g, \mathcal{D}_{l}\right)+\operatorname{err}\left(h, g, \mathcal{D}_{u}\right)\right]

此外,为了解决标注样本数量较少的问题,本文采用mixup方法利用非标注样本,公式如下,非标注样本的类别标签 \hat{y}^u 由分类器生成。鉴别器的标签 \tilde{z} 也进行mixup。
\begin{aligned} \tilde{\mathbf{x}} &=\lambda \mathbf{x}^{l}+(1-\lambda) \mathbf{x}^{u} \\ \tilde{y} &=\lambda y^{l}+(1-\lambda) \hat{y}^{u} \\ \tilde{z} &=\lambda \cdot 0+(1-\lambda) \cdot 1 \end{aligned}

下图是在SVHN数据集上的表现及跟STOA方法的对比。



Domain Generalization

Episodic Training for Domain Generalization

  • Vanilla Aggregation Method: 直接将各源域 \mathcal{D}_i \sim \mathcal{D} 的数据送入特征提取器 \theta 和分类器 \psi 中进行训练。
    \underset{\theta, \psi}{\operatorname{argmin}} \mathbb{E}_{\mathcal{D}_{i} \sim \mathcal{D}}\left[\mathbb{E}_{\left(\mathbf{x}_{i}, y_{i}\right) \sim \mathcal{D}_{i}}\left[\ell\left(y_{i}, \psi\left(\theta\left(\mathbf{x}_{i}\right)\right)\right]\right]\right.

  • Domain Specific Models: 每个domain的数据独立训练。
    \underset{\left[\theta_{1}, \ldots, \theta_{n}\right],\left[\psi_{1}, \ldots, \psi_{n}\right]}{\operatorname{argmin}} \mathbb{E}_{\mathcal{D}_{i} \sim \mathcal{D}}\left[\mathbb{E}_{\left(\mathbf{x}_{i}, y_{i}\right) \sim \mathcal{D}_{i}}\left[\ell\left(y_{i}, \psi_{i}\left(\theta_{i}\left(\mathbf{x}_{i}\right)\right)\right]\right]\right.

  • Episodic Training of Feature Extractor: 不同domain使用相同的特征提取器,但用不同的分类器。强化特征提取器的训练。
    \underset{\theta}{\operatorname{argmin}} \mathbb{E}_{i, j \sim[1, n], i \neq j}\left[\mathbb{E}_{\left(\mathbf{x}_{i}, y_{i}\right) \sim \mathcal{D}_{i}}\left[\ell\left(y_{i}, \overline{\psi}_{j}\left(\theta\left(\mathbf{x}_{i}\right)\right)\right]\right]\right.

  • Episodic Training of Classifier: 上同,不同的特征提取器,相同的分类器。强化分类器。
    \underset{\psi}{\operatorname{argmin}} \mathbb{E}_{i, j \sim[1, n], i \neq j}\left[\mathbb{E}_{\left(\mathbf{x}_{i}, y_{i}\right) \sim \mathcal{D}_{i}}\left[\ell\left(y_{i}, \psi\left(\overline{\theta}_{j}\left(\mathbf{x}_{i}\right)\right)\right]\right]\right.

  • Episodic Training by Random Classifier: 更加极端的特征提取器的强化,完全使用一个随机初始化且不更新参数的分类器训练。

\underset{\theta}{\operatorname{argmin}} \mathbb{E}_{\mathcal{D}_{i} \sim \mathcal{D}}\left[\mathbb{E}_{\left(\mathbf{x}_{i}, y_{i}\right) \sim \mathcal{D}_{i}}\left[\ell\left(y_{i}, \overline{\psi}_{r}\left(\theta\left(\mathbf{x}_{i}\right)\right)\right]\right]\right.

整体流程如下:


Episodic的效果



领域大佬们

李文 http://www.vision.ee.ethz.ch/~liwenw/

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,367评论 6 512
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,959评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,750评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,226评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,252评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,975评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,592评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,497评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,027评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,147评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,274评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,953评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,623评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,143评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,260评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,607评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,271评论 2 358

推荐阅读更多精彩内容