元学习综述-introduction

Meta-Learning in Neural Networks: A Survey
Citation: 236 (2021-08-29)

1. Motivation

一个典型的机器学习算法包含这样一些元素:
(1)从头训练(trained from scratch);
(2)针对一个特定的任务(for a specific task);
(3)使用一个固定的学习算法(using a fixed learning alogirthm);
(4)人工设计(designed by hand)。

深度学习在一些领域取得了巨大的成功:
(1)拥有丰富的数据;
(2)有巨大的算力资源。

元学习(Meta Learning)提供了一个新的学习范式:
机器学习模型从多个学习episodes(经历、片段?)中获取经验,这些episodes往往覆盖一些相近任务(related task)的分布,然后用这个经验来提升未来的学习效果。

近些年深度学习的成功可以看做是特征模型联合学习,而元学习可以看做是特征模型算法的联合学习。

2. Background

2.1 Formalizing Meta-Learning

2.1.1 Conventional Machine Learning

给定训练数据D = \{(x_1, y_1), (x_2, y_2), ..., (X_N, y_N)\},要学习一个预测模型\hat{y} = f_{\theta}(x)\theta是要学习的模型f的参数。
优化目标:L = \arg\min_{\theta}L(D;\theta,w)

L是损失函数,用来衡量真实值与预测值之间的差异。

w denotes the dependence of this solution on assumptions about 'how to learn'。不太好翻译,w表示当前解法的一些假设,比如参数\theta的优化方法的选择(哪种优化器)或者模型的选择等。

模型的泛化能力在一个有标签的测试数据上进行验证。

一般来说,传统的假设是对于每个问题,优化是从头开始学习的;w也是预先决定的。

就是这个预先决定,使得模型的效果以及泛化能力受到影响。因此,元学习从改变传统机器学习的第一假设开始,不使用确定的预先决定的假设,而是从一些任务的分布中来学习。

2.1.2 Meta Learning: Task-Distribution View

考虑任务T = \{D, L\},learning to learn变成,

min_w \mathbb{E}_{T \sim p(T)} L(D;w)

考虑M个source tasks,
D_{source} = \{(D_{source}^{train}, D_{source}^{val})^{(i)} \}_{i=1}^M,每一个task都有训练集与验证集,训练集叫support set,验证集叫query set

"Learning how to learn"的meta-training环节(学习meta-knowledge w)表示为,

w^* = \arg\max_{w} \log p(w | D_{source})

Meta-testing环节,D_{target} = \{(D_{target}^{train}, D_{target}^{test})^{(i)}\}_{i=1}^Q。根据学习到的meta-knowledge w^*在之前未见过的任务上训练baseline模型

{\theta*}^{(i)} = \arg\max_{\theta} \log p(\theta|w^*, {D_{target}^{train}}^{(i)})

2.1.3 Meta-Learning: Bilevel Optimization View

Meta-training提到的优化目标:

w^* = \arg\max_{w} \log p(w | D_{source})

求解方式是将meta-training当成一个bilevel optimization problem,即一个优化问题包含另一个优化问题当约束。

w^* = \arg\min_{w} \sum_{i=}^M L^{meta}({\theta^*}^{(i)}, w, {D_{source}^{val}}^{(i)})

s.t.{\theta^*}^{(i)} = \arg\min_{\theta}L^{task}(\theta, w, {D_{source}^{train}}^{(i)})

L^{meta}是外部优化目标(outer objective),L^{task}是内部(inner)优化目标。

优化内部目标时,不改变外部目标的优化对象w

2.1.4 Meta-Learning: Feed-Forward Model View

以一个线性回归示例,

min_w \mathbb{E}_{T \sim p(T), (D^{tr}, D^{val}) \in T} \sum_{(x, y) \in D^{val}}[(x^T g_w(D^{tr}) - y)^2]

总的来说,希望训练得到的w在从p(T)中采样出来的未知任务,以及未知数据D^{val}上有好的效果。

通过训练g_w,将一个训练集D^{tr}映射到一个weight vector上,从而让g_w为从p(T)中采样的未知任务提供一个好的solution。

References

[1] Hospedales, Timothy, et al. "Meta-learning in neural networks: A survey." arXiv preprint arXiv:2004.05439 (2020).

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 注明:本文是对一篇整理166篇文献的综述翻译,其中对应文献地址都已附上为方便点击查看学习。查看有的文献可能需要科学...
    leon_kbl阅读 4,418评论 0 6
  • 小样本学习(Few-shot Learning)综述 摘要: 人类非常擅长通过极少量的样本识别一个新物体,比如小孩...
    雪夜的星_e40c阅读 644评论 0 1
  • 小样本学习(Few-shot Learning)综述 http://www.dataguru.cn/article...
    vieo阅读 1,003评论 0 0
  • 注明:本文是对一篇整理166篇文献的综述翻译,其中对应文献地址都已附上为方便点击查看学习。查看有的文献可能需要科学...
    leon_kbl阅读 3,002评论 1 5
  • 16宿命:用概率思维提高你的胜算 以前的我是风险厌恶者,不喜欢去冒险,但是人生放弃了冒险,也就放弃了无数的可能。 ...
    yichen大刀阅读 6,122评论 0 4